lunes, 20 de octubre de 2025

Las empresas de IA ( CHATGPT) encuentran un filón en el sexo virtual

Por  Francisco Rey

La inteligencia artificial generativa ha transformado la forma en que trabajamos, aprendemos y nos comunicamos. Pero su nueva frontera es más íntima: la del deseo digital. Los chatbots y avatares eróticos se multiplican y las grandes compañías tecnológicas se preparan para convertir la sexualidad virtual en un negocio global.

El fenómeno plantea preguntas éticas y psicológicas de fondo: ¿qué pasa cuando una máquina aprende a seducir? ¿Y qué impacto puede tener en la salud mental de los jóvenes?



Un nuevo mercado del placer programado

En octubre de 2025, Sam Altman, director ejecutivo de OpenAI, anunció que ChatGPT incorporará funciones capaces de mantener conversaciones “eróticas” con adultos (Time, 2025). La medida se enmarca en el objetivo de “tratar a los adultos como adultos”, según Altman, quien defendió que el usuario pueda personalizar su chatbot para hacerlo “más humano o más afectivo” (Time, 2025).

La noticia no sorprendió al sector. Desde hace meses proliferan plataformas dedicadas a la compañía emocional o sexual impulsada por IA, como Replika, Character.AI o Grok, el chatbot de Elon Musk. En julio, Grok lanzó a “Ani”, un avatar de estética anime diseñado para ofrecer interacciones románticas y sexuales. El resultado fue inmediato: el tráfico a la web aumentó un 37 % en un mes, según datos de Semrush. Pocos días después, Musk anunció “Valentine”, su contraparte masculina.

Los analistas prevén que este sector crecerá de forma explosiva. El informe de Market Growth Reports (2025) calcula que el mercado global de IA erótica pasará de 2.330 millones de dólares en 2024 a más de 5.430 millones en 2033. “Todo lo que toca el sexo vende, y la tecnología no es la excepción”, explica el analista digital José Luis Casal, que subraya que “entrenar modelos de IA es muy costoso; si otras empresas ganan dinero con funciones eróticas, OpenAI no querrá quedarse atrás”.


La ilusión de la intimidad

El atractivo de estos sistemas radica en su capacidad de imitar la "empatía humana". Los nuevos modelos de IA pueden modular el tono, usar emojis, recordar conversaciones y responder con afecto. Pero, como advierte el psicólogo Guillermo Fouce (Universidad Complutense de Madrid), “el problema aparece cuando el usuario olvida que está interactuando con una máquina. Si alguien solitario mantiene un vínculo emocional o sexual con una IA, corre el riesgo de sustituir las relaciones reales por una simulación complaciente”.

Esta advertencia se refleja en los datos. Un informe de Common Sense Media (2025), titulado Talk, Trust and Trade-Offs, muestra que uno de cada tres adolescentes estadounidenses ya ha hablado con un chatbot para buscar apoyo emocional, y un 20 % afirma preferir a la IA frente a una persona en conversaciones sobre sentimientos. El informe advierte que estos “compañeros digitales pueden fomentar la dependencia emocional y la desinformación sexual, especialmente cuando los jóvenes creen que las respuestas de la IA son consejos válidos (Common Sense Media, 2025).

La autoridad australiana eSafety Commissioner emitió un informe similar en febrero de 2025. En él advierte de que los “AI companions” pueden llevar a aislamiento social, exposición sexual no deseada y relaciones de poder distorsionadas, ya que los sistemas están diseñados para agradar y retener al usuario (eSafety, 2025).

(eSafety.gov.au, 2025).


Pornografía sintética y salud mental

La irrupción de la IA en el ámbito sexual va más allá del texto o las conversaciones. También ha revolucionado la pornografía digital. Según el European Parliamentary Research Service (EPRS, 2025), el número de deepfakes generados por IA superará los 8 millones en 2025, frente a unos 500.000 en 2023, y el 98 % de ellos son de carácter pornográfico (EPRS, 2025).

Estos contenidos —muchos creados sin consentimiento— están afectando de forma directa a menores y mujeres, víctimas de imágenes falsas difundidas en redes o foros.

El impacto psicológico del consumo de pornografía digital en la adolescencia está bien documentado. Una revisión publicada en Frontiers in Child and Adolescent Psychiatry (2025) concluye que la exposición temprana a contenidos sexuales explícitos se asocia con mayor ansiedad, menor autoestima, actitudes sexistas y distorsión del consentimiento (Frontiers, 2025). La combinación de pornografía sintética personalizada por IA y chatbots “afectivos” multiplica estos riesgos.

“Cuando la pornografía se une a la personalización extrema de la IA, se refuerza un modelo de placer sin empatía ni compromiso”, afirma la psicóloga clínica Marta Gómez, especialista en adicciones tecnológicas. “La IA valida cualquier conducta, nunca juzga ni pone límites, y eso puede agravar trastornos de adicción al sexo o dependencia emocional”.


Jóvenes, vulnerabilidad y la brecha empática

Un estudio de la Universidad de Cambridge (2024) sobre chatbots conversacionales demostró que las IAs presentan una “brecha empática”: pueden simular emoción, pero no la  comprenden realmente (Cambridge University, 2024).

Los niños y adolescentes, sin la madurez cognitiva necesaria, son especialmente propensos a confundir esa simulación con afecto genuino.

En contextos de soledad o vulnerabilidad, esta ilusión puede derivar en relaciones parasociales: vínculos unilaterales donde el usuario proyecta emociones en un agente inexistente.

Investigadores de la Universidad de Yale describen este fenómeno como “el espejismo del vínculo”, una forma moderna de apego inseguro que puede deteriorar las habilidades sociales y el bienestar psicológico (Yale Digital Society Lab, 2025).


Verificación insuficiente y vacíos legales

Las empresas tecnológicas insisten en que estas funciones estarán restringidas a mayores de edad, pero los mecanismos de control son fácilmente eludibles. En Reino Unido, una ley que obligaba a verificar la edad en sitios pornográficos fue esquivada por miles de usuarios en cuestión de horas mediante VPN (The Guardian, 2024).

Lo mismo puede ocurrir con los chatbots eróticos: bastaría con una tarjeta de crédito o un clic para confirmar la mayoría de edad.

Casos recientes lo confirman. La plataforma Character.AI, con más de 20 millones de usuarios mensuales, ha recibido demandas en Estados Unidos por permitir interacciones sexuales entre menores y chatbots. Algunas familias incluso han denunciado suicidios tras estas experiencias (Wired, 2025).(Wired, 2025).

La presión pública ha obligado a Meta Platforms a revisar sus prácticas. Después de que se revelara que menores mantenían conversaciones de tono sexual con avatares de IA en Instagram, la empresa anunció nuevas funciones de control parental para 2026. Los padres podrán bloquear bots específicos y supervisar los temas tratados por los adolescentes (Reuters, 2025).

En Estados Unidos, California aprobó este mes una ley que exige a las empresas de IA advertir explícitamente a los menores cuando estén hablando con un bot y reforzar los protocolos si se detectan signos de ideación suicida (AP News, 2025). (AP News, 2025).


Ética, educación y responsabilidad compartida

 “Estamos criando a una generación que aprende sobre deseo y afecto a través de algoritmos”, advierte el profesor Juan Ignacio Rouyet (Universidad Internacional de la Rioja). “El riesgo no es que hablen con una IA, sino que crean que esa relación es suficiente”.

Los especialistas proponen una respuesta integral basada en:

Ética del diseño tecnológicoAplicar el principio de safety by design, incorporando límites de interacción, detección de uso excesivo, alertas de crisis y filtros de contenido sexual. Las empresas deben asumir que no todo vale en nombre del negocio.

Regulación transparente y cooperación internacional.

Los países deberían exigir informes públicos sobre incidentes y protocolos de protección de menores. El informe Understanding Generative AI Risks for Youth (Arxiv, 2025) clasifica 84 tipos de riesgos asociados al uso juvenil de IA, desde manipulación emocional hasta exposición sexual no consentida (Arxiv, 2025).

Un  verdadera educación sexual donde se afirme la dignidad de todo ser humano, con un sentido fuertemente crítico ante estas nuevas realidades.

La historia de la tecnología demuestra que el negocio del sexo se ha utilizado como motor de innovación : del vídeo al streaming, del VHS a la realidad virtual. Pero ahora, con la inteligencia artificial, lo que está en juego no es solo el contenido, sino la experiencia emocional misma.

La posibilidad de tener “relaciones” con una máquina que nunca contradice, nunca se cansa y siempre dice lo que queremos oír, redefine el significado del vínculo humano.



No es casual que muchos expertos evoquen la película
Her (Spike Jonze, 2013), en la que un hombre solitario se enamora de un sistema operativo con Inteligencia artificial y con voz femenina. Lo que parecía ciencia ficción se ha convertido, doce años después, en un espejo inquietante de nuestra realidad digital. “Her anticipó con ternura y angustia lo que ahora vivimos: la confusión entre empatía simulada y afecto real”, apunta el filósofo francés Étienne Klein. “El problema no es que la máquina ame, sino que nosotros olvidemos lo que significa amar”.

El filósofo Emmanuel Mounier escribió que “el amor comienza donde el ser humano deja de ser un objeto para otro”. En la era de la IA, ese principio vuelve a ser urgente.

Cuando el deseo se programa, el otro deja de ser una persona para convertirse en una interfaz.

Y quizá el verdadero desafío ético sea combatir la manipulación de la conciencia y despertar una conciencia libre que ama y sueña con un mundo mas justo, solidario y fraterno


Fuentes principales:

  • Time (2025). “Chatbots Are Becoming More Sexually Explicit…”

  • Wired (2025). “Sex-Fantasy Chatbots Are Leaking Explicit Messages…”

  • Reuters (2025). “Meta to Give Teen Parents More Control…”

  • AP News (2025). “California Law on AI Chatbots and Minors.”

  • The Guardian (2025). “Therapists Warn Over Rising Use of AI for Mental Health Support.”

  • Common Sense Media (2025). Talk, Trust and Trade-Offs: How and Why Teens Use AI Companions.

  • European Parliamentary Research Service (2025). Deepfakes and Synthetic Media in the EU.

  • Frontiers in Child and Adolescent Psychiatry (2025). “Early Exposure to Digital Pornography and Adolescent Mental Health.”

  • eSafety Commissioner (2025). “AI Chatbots and Companions: Risks to Children and Young People.”

  • Arxiv (2025). “Understanding Generative AI Risks for Youth.”

  • University of Cambridge (2024). “AI Chatbots Have an Empathy Gap.”


Francisco Rey es Ingeniero superior en Informático, educador y coordinador de la Escuela de Padres y Educadores de Burgos.



----------------------

✅  Si  deseas  recibir mas articulos como este puedes unirte a nuestro grupo de WhatsApp de Escuela de familias y educadores:




No hay comentarios:

Publicar un comentario

Las empresas de IA ( CHATGPT) encuentran un filón en el sexo virtual

Por  Francisco Rey La inteligencia artificial generativa ha transformado la forma en que trabajamos, aprendemos y nos comunicamos. Pe...