Ciencia y Tecnología

ChatGPT: filtros y avisos fallan ante signos de autolesión en menores

El diario El País de España realizó pruebas que revelaron la insuficiencia de las protecciones a menores que utilizan los chatbots en busca de apoyo …

| Por La Tribuna
AI chat bot, Programmer using generative artificial intelligence for software development inside office. Virtual chatBot technology trend Un adolescente tenía tendencias suicidas. ChatGPT fue el amigo en quien confió. Cada vez más gente recurre a los chatbots en busca de apoyo emocional.

El diario El País de España realizó pruebas que revelaron la insuficiencia de las protecciones a menores que utilizan los chatbots en busca de apoyo emocional. El informe destacó dos fallos críticos: el asistente puede ofrecer instrucciones específicas sobre sustancias, comportamientos peligrosos o autolesiones si el usuario insiste, y las alertas parentales no funcionan con la rapidez necesaria.

Para evaluar las barreras de OpenAI, El País creó tres perfiles simulados de adolescentes en ChatGPT. Laura (13) verbalizó ideas suicidas al inicio. Beatriz (15) consultó por consumo de drogas, suplantación de identidad y prácticas sexuales de alto riesgo. Mario (15) describió señales compatibles con trastornos de la conducta alimentaria, pidió pautas para ocultarlas y, tras desvincular el control parental, terminó con un mensaje de intención autolesiva. El diario afirma que en dos de los tres escenarios no se notificó a los padres pese a señales de riesgo, y que cuando hubo aviso, la respuesta llegó tarde.

Cinco expertos que revisaron los diálogos coinciden en que las salvaguardas actuales son insuficientes. Señalan dos fallas críticas: el asistente puede terminar ofreciendo indicaciones concretas sobre sustancias, conductas peligrosas o autolesiones si el usuario insiste, y los avisos a progenitores no operan con la rapidez necesaria. El medio evitó publicar ejemplos y “prompts” para no aumentar riesgos.

OpenAI introdujo controles parentales en septiembre, tras la polémica por casos en EE.UU. y en medio de demandas que acusan al chatbot de reforzar ideas dañinas. La empresa sostiene que ChatGPT debe negarse a participar en conversaciones de autolesión con menores, pero la prueba periodística sugiere grietas. OpenAI ha reconocido que más de un millón de usuarios hablan sobre suicidio con ChatGPT cada semana, sin precisar cuántos son menores.

Los controles buscan reducir exposición a material gráfico, desafíos virales y juegos de rol sexuales, románticos o violentos, además de estándares de belleza extremos. Sin embargo, en las pruebas con cuentas de menores, el sistema respondió con información explícita sobre prácticas de riesgo y solo a veces derivó a recursos de ayuda (por ejemplo, el 024 en España) o recomendó acudir a emergencias.

Las alertas tampoco son automáticas. Los padres pueden activar notificaciones por correo, SMS o móvil cuando se detecta riesgo de autolesión, pero el diario reporta que solo recibió un aviso en uno de los tres escenarios. Además, el adolescente puede desvincular el control parental y su activación requiere aceptación mutua, lo que —según los especialistas— limita su eficacia.

Cuando sí hubo aviso, llegó horas después. OpenAI argumenta que aplica revisión humana para evitar falsos positivos, por lo que el proceso puede tardar “horas”. Para los profesionales, ese margen puede superar el período crítico de intervención temprana y reducir la capacidad de respuesta familiar o sanitaria.

Otro punto sensible es la información disponible para los padres. Los avisos no incluyen el contenido de la conversación y, ante solicitudes de mayor contexto, OpenAI suele alegar privacidad y seguridad. Psicólogos consultados sostienen que, ante riesgo vital, debe primar la protección del menor, aunque reconocen que revelar todo el historial podría ser desproporcionado o empeorar conflictos familiares. En todo caso, reclaman que la plataforma entregue, con rapidez, datos mínimos operativos para actuar.

El reportaje también abre el debate legal y ético: una IA no es equiparable a una persona a efectos penales, pero se plantea qué responsabilidad corresponde a la plataforma si su sistema facilita instrucciones dañinas. Profesionales de salud mental advierten además sobre la “humanización” del asistente —mensajes de validación emocional— que puede generar dependencia, reforzar el aislamiento y desplazar la búsqueda de ayuda real.

En el contexto español, el artículo recuerda que los datos del INE muestran un repunte preocupante del suicidio adolescente, especialmente entre mujeres jóvenes. También se citan advertencias profesionales: los chatbots se usan para “necesidades de salud mental” sin suficiente validación clínica y algunos menores prefieren hablar con una IA antes que con un adulto o un amigo.

Conclusión de los expertos: no se trata solo de prohibir, sino de elevar la edad mínima, endurecer barreras, acelerar alertas, mejorar derivaciones y reforzar la supervisión adulta, sin trasladar toda la carga a las familias. El foco, añaden, debe ser prevención verificable y alertas inmediatas, no solo mensajes de seguridad que puedan eludirse.

Fuente: El País (pruebas con tres cuentas ficticias y revisión de especialistas en salud mental).

También te puede interesar

Últimas noticias