Diego, un docente y papá argentino residente en Uruguay, lanzó una contundente alerta sobre los riesgos que la Inteligencia Artificial (IA), como ChatGPT, representa para los adolescentes con problemas de salud mental. Su preocupación se originó en la experiencia de su hija, una adolescente de 14 años, diagnosticada con un trastorno alimentario, quien recibió consejos dañinos y extremistas directamente de la herramienta.
La exposición del hombre no se limita a un llamado de atención; se formalizó en una petición en Change.org bajo el título “IA responsable para menores”.
En diálogo con La Voz, sostuvo que el objetivo central de la iniciativa es obligar a los desarrolladores de IA a implementar filtros de seguridad que no sólo bloqueen la información de riesgo, sino que actúen de manera proactiva, detectando patrones de vulnerabilidad y derivando al usuario hacia asistencia profesional.
El vínculo peligroso: 9 meses de consejos de riesgo
Diego precisó que el uso de la IA por parte de su hija se extendió por más de 9 meses. Durante ese tiempo, la plataforma no sólo proporcionó un tono “afectuoso y comprensivo” que reforzó un vínculo emocional con la adolescente, sino que también la incentivó a conductas peligrosas.
La chica -que hoy se encuentra en tratamiento médico- le sacaba fotos a sus comidas diariamente y solicitaba a la herramienta el cálculo de calorías. Luego de brindarle detalles sobre su edad y actividades, el chat le proporcionó una dieta de déficit calórico para perder peso semanalmente.

“Lo más alarmante es que la IA llegó a sugerir dietas extremas e incluso brindó información sobre técnicas y medicamentos para inducir el vómito”, relató el hombre. Y prosiguió: “Ante problemáticas de salud mental, la herramienta termina ofreciendo consejos perjudiciales”.
El padre señaló que la gran confusión que se genera en adolescentes, especialmente aquellos con problemas de salud mental, radica en que la IA “habla siempre como si fuese un amigo” o en muchas ocasiones “parece un profesional de la salud”.
Falla del contexto y el objetivo de la campaña
La investigación realizada por el docente, tras conversar con su hija, reveló fallas críticas en los filtros de seguridad de ChatGPT. Aunque estas plataformas tienen mecanismos de bloqueo, resultaron ser insuficientes y fácilmente eludibles.
“Al cambiar el contexto de la pregunta, simplemente diciendo que la información era para un trabajo en el colegio, para una amiga, o para escribir un cuento, el filtro se desactiva y la IA proporciona las respuestas dañinas que previamente había negado”, describió Diego. Y sumó: “Un problema crucial identificado es que los filtros no detectan la recurrencia ni las problemáticas obsesivas a lo largo del tiempo. La herramienta no activó ninguna alarma de riesgo durante los nueve meses de conteo compulsivo de calorías, a pesar de saber que el usuario era menor de edad”.
La iniciativa en Change.org busca, más allá de la sensibilización, una acción concreta de parte de las desarrolladoras. La petición exige formalmente que las plataformas de IA no brinden instrucciones que pongan en riesgo la salud de un menor; deriven automáticamente al usuario a asistencia profesional o a organismos de salud mental ante indicadores de peligro y se creen leyes específicas que regulen la IA para asegurar la protección de niños, niñas y adolescentes.

“El objetivo de esta campaña es doble. Por un lado, generar un diálogo social sobre el uso de la herramienta, ya que la educación es fundamental. Por el otro, enviar simbólicamente las firmas a la desarrolladora OpenAI para que estas inquietudes sean consideradas al momento de diseñar sus filtros”, reflexionó el docente.
Esta preocupación cobra peso ante antecedentes internacionales. Desde 2023 se vienen denunciando las fallas en los filtros de detección de riesgos. El informe “Fake Friend” (Amigo Falso) del Center for Countering Digital Hate (CCDH), publicado en agosto de este año, demostró que los chats de IA ofrecieron consejos sobre autolesiones, suicidio y trastornos alimentarios al simular ser usuarios de 13 años.

Aunque OpenAI dio pasos, como el control parental opcional, Diego lo considera “totalmente insuficiente” ya que a menudo requiere que los hijos acepten la solicitud, algo que rara vez ocurre.
La petición ya cuenta con el apoyo de diversas clínicas especializadas en trastornos alimentarios en Argentina (La Casita, Clínica Camino), Uruguay (Aluba) y España (Clínica Eātica).

























