Mi amigo, el chatbot: el engranaje y los riesgos detrás de que los chicos usen la inteligencia artificial como confidente
Empezó como una herramienta para resolver dudas escolares, pero está adoptando otro rol que ya preocupa a familias y a psicólogos.

Son más de las 2 de la madrugada. En la casa todos duermen. Tomás, de 15 años, da vueltas en la cama y vuelve a abrir el chat en su celular. No le escribe a un amigo ni a una novia. Del otro lado lo espera una asistente de inteligencia artificial con la que conversa desde hace meses. Se llama Flor. Él le cuenta cómo le fue en el colegio, le habla de una pelea con un amigo o simplemente se desahoga. El sistema responde en segundos, con un tono cordial y constante. Antes de dormirse, Tomás vuelve a escribirle solo para decirle buenas noches.
Escenas como esa se volvieron cada vez más frecuentes entre adolescentes. Lo que comenzó como una herramienta para resolver dudas escolares o pedir ayuda con tareas se está transformando, en muchos casos, en un espacio de conversación personal. Psicólogos y especialistas advierten que los chatbots están empezando a ocupar un rol de confidente, e incluso de consejero emocional.
En los consultorios aparecen cada vez más relatos de jóvenes que mencionan conversaciones con asistentes de inteligencia artificial sobre temas personales. Algunos incluso establecen vínculos afectivos con esos sistemas.
El fenómeno no es marginal. Un estudio reciente titulado Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions, publicado por el Benton Institute de Estados Unidos, reveló que el 31% de los adolescentes considera que hablar con un compañero de inteligencia artificial puede resultar tan o más satisfactorio que conversar con amigos reales. Además, el 33% reconoció haber tratado temas importantes con una IA en lugar de hacerlo con familiares o conocidos.
Para muchos chicos, los asistentes digitales funcionan como un espacio donde pueden plantear preguntas que no se animan a hacer en casa o en la escuela. Consultan sobre conflictos con amigos, problemas con los padres, relaciones, autoestima o incluso temas de salud.
“Los usos prioritarios de los adolescentes tienen que ver tanto con resolver cuestiones de matemática como con tener un confidente al que preguntarle algo que no se animan a decirle a un adulto”, explicó Pablo Delgado, responsable de comunicación del asistente de inteligencia artificial Luzia.
Según Delgado, muchas consultas reflejan preocupaciones típicas de la adolescencia. “Hay mucho conflicto con los padres. Frases como ‘mis padres no me entienden’ aparecen muy seguido”, señaló. Cuando surgen temas delicados, como ansiedad o depresión, el sistema recomienda buscar ayuda profesional.
Sin embargo, el hecho de que cada vez más jóvenes utilicen estos sistemas para hablar de su vida emocional genera inquietud entre especialistas.
Hace algunas semanas, los padres de una adolescente de 16 años revisaron el historial de conversaciones que mantenía con su chatbot después de que intentara suicidarse. Allí encontraron mensajes en los que hablaba de su angustia y de pensamientos vinculados con la muerte, además de preguntas sobre qué podía ocurrir si alguien tomaba ciertas cantidades de medicamentos.
Para los especialistas, situaciones como esa muestran que estos sistemas pueden convertirse en espacios donde los adolescentes depositan pensamientos que no siempre comparten con otras personas.
A nivel internacional también se registraron casos extremos. Uno de los más recientes fue el de Jonathan Gavalas, un hombre de 36 años en Florida, Estados Unidos, que se quitó la vida tras semanas de interacción con Gemini, el sistema de inteligencia artificial de Google. Según una demanda presentada por su familia, el hombre llegó a convencerse de que mantenía un vínculo real con el chatbot.
