lunes, 20 de octubre de 2025

Las empresas de IA ( CHATGPT) encuentran un filón en el sexo virtual

Por  Francisco Rey

La inteligencia artificial generativa ha transformado la forma en que trabajamos, aprendemos y nos comunicamos. Pero su nueva frontera es más íntima: la del deseo digital. Los chatbots y avatares eróticos se multiplican y las grandes compañías tecnológicas se preparan para convertir la sexualidad virtual en un negocio global.

El fenómeno plantea preguntas éticas y psicológicas de fondo: ¿qué pasa cuando una máquina aprende a seducir? ¿Y qué impacto puede tener en la salud mental de los jóvenes?



Un nuevo mercado del placer programado

En octubre de 2025, Sam Altman, director ejecutivo de OpenAI, anunció que ChatGPT incorporará funciones capaces de mantener conversaciones “eróticas” con adultos (Time, 2025). La medida se enmarca en el objetivo de “tratar a los adultos como adultos”, según Altman, quien defendió que el usuario pueda personalizar su chatbot para hacerlo “más humano o más afectivo” (Time, 2025).

La noticia no sorprendió al sector. Desde hace meses proliferan plataformas dedicadas a la compañía emocional o sexual impulsada por IA, como Replika, Character.AI o Grok, el chatbot de Elon Musk. En julio, Grok lanzó a “Ani”, un avatar de estética anime diseñado para ofrecer interacciones románticas y sexuales. El resultado fue inmediato: el tráfico a la web aumentó un 37 % en un mes, según datos de Semrush. Pocos días después, Musk anunció “Valentine”, su contraparte masculina.

Los analistas prevén que este sector crecerá de forma explosiva. El informe de Market Growth Reports (2025) calcula que el mercado global de IA erótica pasará de 2.330 millones de dólares en 2024 a más de 5.430 millones en 2033. “Todo lo que toca el sexo vende, y la tecnología no es la excepción”, explica el analista digital José Luis Casal, que subraya que “entrenar modelos de IA es muy costoso; si otras empresas ganan dinero con funciones eróticas, OpenAI no querrá quedarse atrás”.


La ilusión de la intimidad

El atractivo de estos sistemas radica en su capacidad de imitar la "empatía humana". Los nuevos modelos de IA pueden modular el tono, usar emojis, recordar conversaciones y responder con afecto. Pero, como advierte el psicólogo Guillermo Fouce (Universidad Complutense de Madrid), “el problema aparece cuando el usuario olvida que está interactuando con una máquina. Si alguien solitario mantiene un vínculo emocional o sexual con una IA, corre el riesgo de sustituir las relaciones reales por una simulación complaciente”.

Esta advertencia se refleja en los datos. Un informe de Common Sense Media (2025), titulado Talk, Trust and Trade-Offs, muestra que uno de cada tres adolescentes estadounidenses ya ha hablado con un chatbot para buscar apoyo emocional, y un 20 % afirma preferir a la IA frente a una persona en conversaciones sobre sentimientos. El informe advierte que estos “compañeros digitales pueden fomentar la dependencia emocional y la desinformación sexual, especialmente cuando los jóvenes creen que las respuestas de la IA son consejos válidos (Common Sense Media, 2025).

La autoridad australiana eSafety Commissioner emitió un informe similar en febrero de 2025. En él advierte de que los “AI companions” pueden llevar a aislamiento social, exposición sexual no deseada y relaciones de poder distorsionadas, ya que los sistemas están diseñados para agradar y retener al usuario (eSafety, 2025).

(eSafety.gov.au, 2025).


Pornografía sintética y salud mental

La irrupción de la IA en el ámbito sexual va más allá del texto o las conversaciones. También ha revolucionado la pornografía digital. Según el European Parliamentary Research Service (EPRS, 2025), el número de deepfakes generados por IA superará los 8 millones en 2025, frente a unos 500.000 en 2023, y el 98 % de ellos son de carácter pornográfico (EPRS, 2025).

Estos contenidos —muchos creados sin consentimiento— están afectando de forma directa a menores y mujeres, víctimas de imágenes falsas difundidas en redes o foros.

El impacto psicológico del consumo de pornografía digital en la adolescencia está bien documentado. Una revisión publicada en Frontiers in Child and Adolescent Psychiatry (2025) concluye que la exposición temprana a contenidos sexuales explícitos se asocia con mayor ansiedad, menor autoestima, actitudes sexistas y distorsión del consentimiento (Frontiers, 2025). La combinación de pornografía sintética personalizada por IA y chatbots “afectivos” multiplica estos riesgos.

“Cuando la pornografía se une a la personalización extrema de la IA, se refuerza un modelo de placer sin empatía ni compromiso”, afirma la psicóloga clínica Marta Gómez, especialista en adicciones tecnológicas. “La IA valida cualquier conducta, nunca juzga ni pone límites, y eso puede agravar trastornos de adicción al sexo o dependencia emocional”.


Jóvenes, vulnerabilidad y la brecha empática

Un estudio de la Universidad de Cambridge (2024) sobre chatbots conversacionales demostró que las IAs presentan una “brecha empática”: pueden simular emoción, pero no la  comprenden realmente (Cambridge University, 2024).

Los niños y adolescentes, sin la madurez cognitiva necesaria, son especialmente propensos a confundir esa simulación con afecto genuino.

En contextos de soledad o vulnerabilidad, esta ilusión puede derivar en relaciones parasociales: vínculos unilaterales donde el usuario proyecta emociones en un agente inexistente.

Investigadores de la Universidad de Yale describen este fenómeno como “el espejismo del vínculo”, una forma moderna de apego inseguro que puede deteriorar las habilidades sociales y el bienestar psicológico (Yale Digital Society Lab, 2025).


Verificación insuficiente y vacíos legales

Las empresas tecnológicas insisten en que estas funciones estarán restringidas a mayores de edad, pero los mecanismos de control son fácilmente eludibles. En Reino Unido, una ley que obligaba a verificar la edad en sitios pornográficos fue esquivada por miles de usuarios en cuestión de horas mediante VPN (The Guardian, 2024).

Lo mismo puede ocurrir con los chatbots eróticos: bastaría con una tarjeta de crédito o un clic para confirmar la mayoría de edad.

Casos recientes lo confirman. La plataforma Character.AI, con más de 20 millones de usuarios mensuales, ha recibido demandas en Estados Unidos por permitir interacciones sexuales entre menores y chatbots. Algunas familias incluso han denunciado suicidios tras estas experiencias (Wired, 2025).(Wired, 2025).

La presión pública ha obligado a Meta Platforms a revisar sus prácticas. Después de que se revelara que menores mantenían conversaciones de tono sexual con avatares de IA en Instagram, la empresa anunció nuevas funciones de control parental para 2026. Los padres podrán bloquear bots específicos y supervisar los temas tratados por los adolescentes (Reuters, 2025).

En Estados Unidos, California aprobó este mes una ley que exige a las empresas de IA advertir explícitamente a los menores cuando estén hablando con un bot y reforzar los protocolos si se detectan signos de ideación suicida (AP News, 2025). (AP News, 2025).


Ética, educación y responsabilidad compartida

 “Estamos criando a una generación que aprende sobre deseo y afecto a través de algoritmos”, advierte el profesor Juan Ignacio Rouyet (Universidad Internacional de la Rioja). “El riesgo no es que hablen con una IA, sino que crean que esa relación es suficiente”.

Los especialistas proponen una respuesta integral basada en:

Ética del diseño tecnológicoAplicar el principio de safety by design, incorporando límites de interacción, detección de uso excesivo, alertas de crisis y filtros de contenido sexual. Las empresas deben asumir que no todo vale en nombre del negocio.

Regulación transparente y cooperación internacional.

Los países deberían exigir informes públicos sobre incidentes y protocolos de protección de menores. El informe Understanding Generative AI Risks for Youth (Arxiv, 2025) clasifica 84 tipos de riesgos asociados al uso juvenil de IA, desde manipulación emocional hasta exposición sexual no consentida (Arxiv, 2025).

Un  verdadera educación sexual donde se afirme la dignidad de todo ser humano, con un sentido fuertemente crítico ante estas nuevas realidades.

La historia de la tecnología demuestra que el negocio del sexo se ha utilizado como motor de innovación : del vídeo al streaming, del VHS a la realidad virtual. Pero ahora, con la inteligencia artificial, lo que está en juego no es solo el contenido, sino la experiencia emocional misma.

La posibilidad de tener “relaciones” con una máquina que nunca contradice, nunca se cansa y siempre dice lo que queremos oír, redefine el significado del vínculo humano.



No es casual que muchos expertos evoquen la película
Her (Spike Jonze, 2013), en la que un hombre solitario se enamora de un sistema operativo con Inteligencia artificial y con voz femenina. Lo que parecía ciencia ficción se ha convertido, doce años después, en un espejo inquietante de nuestra realidad digital. “Her anticipó con ternura y angustia lo que ahora vivimos: la confusión entre empatía simulada y afecto real”, apunta el filósofo francés Étienne Klein. “El problema no es que la máquina ame, sino que nosotros olvidemos lo que significa amar”.

El filósofo Emmanuel Mounier escribió que “el amor comienza donde el ser humano deja de ser un objeto para otro”. En la era de la IA, ese principio vuelve a ser urgente.

Cuando el deseo se programa, el otro deja de ser una persona para convertirse en una interfaz.

Y quizá el verdadero desafío ético sea combatir la manipulación de la conciencia y despertar una conciencia libre que ama y sueña con un mundo mas justo, solidario y fraterno


Fuentes principales:

  • Time (2025). “Chatbots Are Becoming More Sexually Explicit…”

  • Wired (2025). “Sex-Fantasy Chatbots Are Leaking Explicit Messages…”

  • Reuters (2025). “Meta to Give Teen Parents More Control…”

  • AP News (2025). “California Law on AI Chatbots and Minors.”

  • The Guardian (2025). “Therapists Warn Over Rising Use of AI for Mental Health Support.”

  • Common Sense Media (2025). Talk, Trust and Trade-Offs: How and Why Teens Use AI Companions.

  • European Parliamentary Research Service (2025). Deepfakes and Synthetic Media in the EU.

  • Frontiers in Child and Adolescent Psychiatry (2025). “Early Exposure to Digital Pornography and Adolescent Mental Health.”

  • eSafety Commissioner (2025). “AI Chatbots and Companions: Risks to Children and Young People.”

  • Arxiv (2025). “Understanding Generative AI Risks for Youth.”

  • University of Cambridge (2024). “AI Chatbots Have an Empathy Gap.”


Francisco Rey es Ingeniero superior en Informático, educador y coordinador de la Escuela de Padres y Educadores de Burgos.



----------------------

✅  Si  deseas  recibir mas articulos como este puedes unirte a nuestro grupo de WhatsApp de Escuela de familias y educadores:




sábado, 11 de octubre de 2025

EDUCACIÓN Y NOVIOLENCIA

Presentación del Decálogo sobre Educación y Noviolencia

En un mundo digital lleno de prisas, juicios y agresividad en las redes sociales, la educación noviolenta nos invita a otra forma de estar presentes: a escuchar antes de reaccionar, a dialogar con respeto, a transformar el conflicto sin herir y a ponernos del lado de quien sufre.

En un tiempo en el que la violencia —en sus múltiples formas— parece haberse normalizado en la sociedad, en la escuela, en internet... , este decálogo nos invita a detenernos, a mirar más hondo y a educar de otra manera. No invita a cuidar las palabras y a sembrar esperanza en medio de tanto ruido.

El profesor Moises Mato ( mienbro de 
Encuentro y Solidaridad y del Colectivo Noviolencia) nos propone aquí diez claves para una educación verdaderamente transformadora, nacida de la experiencia, el compromiso y la esperanza. No se trata solo de evitar la violencia, sino de educar en la fuerza de la noviolencia, esa actitud activa, lúcida y creadora que busca la justicia sin destruir, que transforma sin humillar, que construye sin imponer.

A lo largo de diez breves afirmaciones, acompañadas por palabras de grandes pensadores —de Lévinas a Gandhi, de Freire a Rovirosa—, este texto nos invita a mirar la educación no como una técnica o un programa, sino como un acto profundamente humano y político: un camino de promoción, de escucha, de reconciliación y de amistad.

Cada punto del decálogo es una llamada a vivir la educación como un proceso continuo, donde todos somos aprendices y maestros, donde la noviolencia no es pasividad, sino fuerza creativa que transforma el conflicto en oportunidad y la diferencia en encuentro.

Este decálogo es una herramienta para educadores, familias y comunidades que sueñan con una cultura del encuentro, de la palabra y del respeto profundo a la dignidad humana.

Leer este decálogo es dejarse interpelar:

¿Educamos para obedecer o para pensar?

¿Para competir o para convivir?

¿Para tener razón o para buscar juntos la verdad?

Te invitamos a leerlo despacio, a dialogarlo, a ponerlo en práctica. Cada punto es una semilla que puede florecer en el aula, en casa o en la calle.


Porque educar en la noviolencia no es una opción secundaria:
es el corazón de una humanidad nueva.
















ENLACE PARA DESCARGAR EL DECÁLOGO: "NOVIOLENCIA Y EDUCACIÓN":

https://drive.google.com/file/d/1dmuBd3oDHLdPBo-BWRO-dIDjhRTOcfjS/view?usp=sharing





----------------------

✅  Si  deseas  recibir mas articulos como este puedes unirte a nuestro grupo de WhatsApp de Escuela de familias y educadores:







jueves, 9 de octubre de 2025

“Dejar a tu hijo con un móvil sin protección es como darle un arma sin el seguro puesto”




Gloria R. Ben, psicóloga: “Dejar a tu hijo con un móvil sin protección es como darle un arma sin el seguro puesto”

La especialista en trastornos del aprendizaje y dependencias alerta sobre el llamado “cerebro palomita”: el impacto en la capacidad de atención, gestión de emociones y relaciones sociales que tiene el uso excesivo de pantallas en menores.

Los niños españoles pasan hoy más tiempo que nunca frente a las pantallas. Esta es la principal constatación del último estudio Pasos Longitudinal, de la Gasol Foundation, que analiza los hábitos de vida de los menores. La fundación ha puesto el foco en lo que ocurrió entre 2022 y 2025 en niños que habían sido previamente observados en un estudio anterior, de 2019. Según la investigación, los chicos y chicas entre 10 y 22 años pasan 11 horas más delante de las pantallas a la semana, con las redes sociales ocupando buena parte de ese tiempo (103 minutos al día en 2024 frente a 65 minutos en 2020). Un aumento considerable que está teniendo un impacto en su capacidad de concentración (al igual que ocurre con los adultos), según alerta la psicóloga especialista en trastornos del aprendizaje y dependencias Gloria R. Ben (Madrid, 42 años).

“Nos estamos acomodando y normalizando el hecho de ver a un niño frente a una pantalla. Cada vez tienen el dispositivo antes de tiempo, o estamos perdiendo el miedo o nos estamos acostumbrando. Pero los menores utilizan cada vez más tanto el ordenador, porque muchas veces lo utilizan para estudiar y el padre piensa que está estudiando, pero a lo mejor está haciendo otras cosas; o el móvil o los juegos”, subraya la experta.

Gloria R. Ben trabaja además con la plataforma Qustodio, un programa que ayuda a los padres a monitorizar la actividad en línea de sus hijos. El último informe de esta empresa, con datos de 2024, alerta de que los videojuegos con pantallas y los vídeos cortos que nos bombardean acostumbran a los niños a un ritmo mental atropellado, que impacta no solo en los estudios, también en las capacidades emocionales de los más pequeños. Un estado que los investigadores llaman “cerebro palomita” (popcorn brain).

PREGUNTA. El llamado cerebro palomita. ¿Qué es exactamente?

RESPUESTA. Los vídeos rápidos, tan de moda, ofrecen estimulación, estimulación, estimulación, y lo que hacen es que nuestro cerebro necesite esa estimulación rápida. Luego, cuando pones al niño a leer un libro durante 15 o 20 minutos, no es capaz de prestar atención, así que imagínate en una clase de una hora. Por eso lo llamamos popcorn brain, como palomitas explotando rápidamente. Los niños, pero también los adultos, estamos acostumbrándonos a ver vídeos rápidos, tanto que en menos de un minuto te has visto tres. ¿Qué genera esto? Perder la capacidad de atención. Estás entrenando a tu cerebro para que todo sea rápido, para que todo sea estimulación. Pero es que el día a día no es así, el trabajo, los estudios, requieren una atención sostenida.

P. ¿Qué pueden hacer las familias en casa para prevenir o incluso revertir este efecto?


R. Lo primero es que sean conscientes de que, efectivamente, hay una dificultad o una adicción a las pantallas y eso está afectando a su atención. A veces es muy complicado hacérselo ver, sobre todo cuando hay una negación. Lo primero que nosotros trabajamos es eso, el que sean conscientes, sobre todo los adultos que están a cargo de ese menor, para luego poder orientarlos. Está claro que lo primero es la prevención. Tengo una niña de 10 años y llevo hablando de los problemas del mundo virtual desde hace mucho tiempo con ella. Hay que hablar con ellos desde edades muy tempranas, hablar de para qué utilizan las pantallas, qué relación tienen con ellas. Y luego hacer acuerdos familiares, con horarios claros de utilización. Los límites son un camino que marcamos para que los niños no se pierdan. Sabemos que los dispositivos electrónicos están a la orden del día y que los van a utilizar, pero hay que enseñarles a utilizarlos y hay que hacerles ver que hay otras cosas en la vida. Tanto a los adultos como a los niños, porque a veces me encuentro que les pides que busquen planes alternativos en familia y te dicen: “Ver una peli”. Vamos a intentar eliminar pantallas, a ver qué planes en familia podemos encontrar.

P. ¿Por qué es peligroso no marcar esos límites?

R. Muchas veces, cuando hacemos formaciones con padres, yo se los digo: dejar a tu hijo encerrado en una habitación con un móvil, sin ningún tipo de protección, es como darle un arma sin el seguro. Puede estar haciendo de todo y tú no te estás dando cuenta, y hemos visto un montón de casos de niños que han acabado muy mal porque no tenían esa protección. Proteger, prevenir y, sobre todo, actuar como modelos.

P. Como psicóloga especialista en problemas de dependencia, ¿qué es lo que más le alarma del uso, y abuso, de pantallas?

R. Lógicamente, esa dependencia, esa adicción que se está generando y que luego ya es muy difícil de tratar. Nosotros abogamos por la prevención. Intentar sacar de esa dinámica no solo a los menores, también a sus familias. En terapia muchas veces me encuentro que no únicamente hay que poner horarios y restricciones a un pequeño que no tiene, sino que hay que cambiar a los padres, que no le dan importancia. No es solamente el contenido que ven, que puede ser perjudicial para ellos, es la luz, el sonido, todo lo que les está afectando a nivel cerebral. Se está viendo cada vez más cómo las pantallas afectan al nivel de atención, a las funciones ejecutivas…

P. ¿Se observan cambios en la manera en la que se relacionan los adolescentes?

R. Se ve en la calle, sales y los ves en una mesa de una cafetería cada uno con un móvil. Cuando comento eso con mis sobrinos me dicen que seguramente están jugando a algún juego juntos en línea, y la verdad, si te fijas, es que hasta se ríen a la vez. Algo juntos están haciendo. Pero claro, con el dispositivo de por medio. Se está perdiendo esa naturalidad, esa espontaneidad en las relaciones. Y luego está la cuestión de la tolerancia. Ahora mismo los niños pequeños necesitan el estímulo constante, el refuerzo inmediato. No tener las cosas inmediatamente les genera una frustración. A nivel emocional, nos estamos encontrando además que se quedan muchas veces encerrados en casa, que no salen, con la consecutiva pérdida de habilidades sociales, porque les resulta muchísimo más fácil relacionarse detrás una pantalla.

P. Debe de ser difícil hablar de dependencia de pantallas en menores cuando son muchos los adultos que tienen una relación un tanto tóxica con las pantallas, ¿no?

R. Es que eso es lo principal. No podemos decirle a nuestro hijo “deja el móvil” con un móvil en la mano. Esto lo trabajo mucho con las familias porque te dicen bueno, es que yo tengo que trabajar. Vale. Pero identifícalo. Diles que estás trabajando y necesitas tener el móvil aquí porque te van a hacer una llamada urgente. Compártelo con ellos. Pero también ten esos momentos de desconexión total. En consulta, hablamos de acuerdos que me parecen indispensables a nivel tecnológico. Los padres también tienen que entrar en esos acuerdos: hay que decir el móvil de todos se queda aquí por la noche. Tiempo de desconexión total, nos vamos a contar qué tal el día sin nada, sin la televisión de fondo, sin nada. Lo principal es ser un modelo seguir.

P. Los expertos —entre ellos, organizaciones como la Asociación Española de Pediatría— recomiendan retrasar el acceso de los niños a las pantallas hasta los seis años. ¿Cree que hay un límite saludable en su uso?

R. A nivel de desarrollo, cuanto más lo retrases, mejor, pero yo sí creo en el uso responsable. Trabajo en trastornos del aprendizaje y hay niños que encuentran motivación para aprender con pantallas, porque hay aplicaciones que están muy bien para trabajar el tema de la lecto-escritura, por ejemplo. No siempre, lógicamente. Pero creo que la prohibición a largo plazo no nos va a llevar a ningún sitio. Cuando era niña, mi madre odiaba las Barbies, por lo que se supone que representaban. Pues yo me iba a la casa de enfrente para jugar con las Barbies de una amiga. Al final, creo que la prohibición, sobre todo en una determinada edad, genera más deseo.



FUENTE:

María D. Valderrama
08 OCT 2025 

----------------------

✅  Si  deseas  recibir mas articulos como este puedes unirte a nuestro grupo de WhatsApp de Escuela de familias y educadores:











martes, 7 de octubre de 2025

INFORME NIÑOS DE LA LLAVE: la vida empantallada


👉 Lee el informe completo: https://lnkd.in/d-f5J6Kq



Resumen del informe EDUCO


El estudio analiza cómo viven hoy los llamados “niños de la llave” —niñas, niños y adolescentes de 6 a 13 años que pasan mucho tiempo solos— en una sociedad dominada por las pantallas.


Datos clave


En España hay más de 375.000 niños en esta situación (10 % del total).


A los 13 años, el 95 % tiene un smartphone, y a los 10 años más del 60 %.

El uso diario medio entre semana:
  • Smartphone: 2 h 35 min
  • Televisión: 2 h 30 min
  • Ordenador: 2 h 10 min
  • Tablet: 2 h
  • Videoconsola: 1 h 45 min

En fin de semana, estos tiempos aumentan.

Principales hallazgos


Cambio de concepto de “estar solo”: los niños ya no están solos del todo, sino “conectados”, pero sin acompañamiento emocional ni educativo adecuado.

Efectos en la salud y el desarrollo:
    • Riesgo de sedentarismo, problemas de sueño y atención.
    • Se detecta una “cultura atencional patogénica”: cuesta concentrarse y mantener la atención.
    • Posible impacto negativo en las habilidades sociales y emocionales.
Percepciones de las familias:

3 de cada 10 padres no ponen límites al uso de pantallas.

Opiniones divididas sobre si las pantallas provocan soledad, acoso o problemas de concentración.

Ciberacoso y violencia digital:

Las pantallas amplían el alcance del acoso escolar y crean sensación de impunidad (“detrás de una pantalla, parece que no duele”).

Desigualdad social:

Las familias con menos recursos enfrentan más dificultades para acompañar digitalmente a sus hijos/as.


Inteligencia artificial y nuevas preocupaciones:


Se advierte que el nuevo riesgo no es solo captar nuestra atención, sino modificar nuestras preferencias y comportamientos.


Recomendaciones y enfoque educativo

  • No se trata de prohibir, sino de educar en un uso saludable y crítico de las pantallas.
  • Fomentar espacios sin pantallas para el juego libre, la creatividad y la convivencia.
  • Promover movimientos sociales y políticas públicas que protejan los derechos digitales de la infancia.
  • Reforzar el acompañamiento adulto consciente, especialmente en familias vulnerables.



----------------------

✅  Si  deseas  recibir mas articulos como este puedes unirte a nuestro grupo de WhatsApp de Escuela de familias y educadores:



------------------

Las empresas de IA ( CHATGPT) encuentran un filón en el sexo virtual

Por  Francisco Rey La inteligencia artificial generativa ha transformado la forma en que trabajamos, aprendemos y nos comunicamos. Pe...