euronews.com
La organización estadounidense sin fines de lucro Common Sense Media encuestó a 1060 adolescentes entre abril y mayo de 2025 sobre la frecuencia con la que utilizan plataformas de IA como Character.AI, Nomi y Replika.
El informe revela que las plataformas de IA se presentan como “amigos virtuales, confidentes e incluso terapeutas” que interactúan con el usuario como si fuera una persona.
Un nuevo estudio revela que los compañeros de IA representan riesgos para los humanos con más de una docena de comportamientos perjudiciales.
El uso de estos compañeros preocupa a los expertos, quienes declararon a Associated Press que la floreciente industria de la IA está en gran medida desregulada y que muchos padres desconocen cómo sus hijos utilizan las herramientas de IA ni la cantidad de información personal que comparten con los chatbots.
Aquí hay algunas sugerencias para mantener seguros a los niños al interactuar con estos perfiles en línea.
Reconocer que la IA es agradable.
Una forma de evaluar si un niño utiliza compañeros de IA es simplemente iniciar una conversación “sin juzgar”, según Michael Robb, investigador principal de Common Sense Media.
Para iniciar la conversación, sugirió que los padres pueden acercarse a un niño o adolescente con preguntas como “¿Has oído hablar de los compañeros de IA?” o “¿Usas aplicaciones que te hablan como a un amigo?”.
“Escuche y comprenda qué le atrae a su hijo adolescente antes de ser desdeñoso o expresar su preocupación”, dijo Robb.
Mitch Prinstein, jefe de psicología de la Asociación Americana de Psicología (APA), afirmó que una de las primeras cosas que los padres deben hacer al saber que un niño usa compañeros de IA es enseñarle que están programados para ser “agradables y comprensivos”.
Prinstein afirmó que es importante que los niños sepan que las relaciones reales no funcionan así y que los verdaderos amigos pueden ayudarlos a afrontar situaciones difíciles de maneras que la IA no puede.
“Necesitamos enseñar a los niños que esto es una forma de entretenimiento”, concluyó Prinstein. No es real, y es fundamental que lo distingan de la realidad y que no sustituya las relaciones en su vida real.
Estén atentos a las señales de relaciones poco saludables.
Si bien los compañeros de IA pueden sentirse apoyados, los niños deben saber que estas herramientas no están preparadas para gestionar una crisis real ni brindar apoyo genuino, según los expertos.
Robb explicó que algunas señales de estas relaciones poco saludables serían la preferencia del niño por las interacciones con IA en lugar de las relaciones reales, pasar horas hablando con su IA o mostrar patrones de angustia emocional al separarse de las plataformas.
“Estos patrones sugieren que los compañeros de IA podrían estar reemplazando la conexión humana en lugar de complementarla”, afirmó Robb.
Si los niños padecen depresión, ansiedad, soledad, un trastorno alimentario u otros problemas de salud mental, necesitan apoyo humano, ya sea de familiares, amigos o un profesional de la salud mental.
Conoce a ‘Viv’, el compañero de IA que ayuda a residentes australianos de residencias con demencia.
Los padres también pueden establecer reglas sobre el uso de la IA, al igual que lo hacen con el tiempo frente a la pantalla y las redes sociales, según los expertos. Por ejemplo, pueden establecer reglas sobre cuánto tiempo se puede usar el compañero y en qué contextos.
Otra forma de contrarrestar estas relaciones es involucrarse y aprender todo lo posible sobre la IA.
“No creo que la gente entienda bien lo que la IA puede hacer, cuántos adolescentes la usan y por qué está empezando a ser un poco intimidante”, dice Prinstein, uno de los muchos expertos que piden regulaciones para garantizar la seguridad infantil.
“Muchos nos damos por vencidos y decimos: ‘¡No sé qué es esto!’. ¡Parece una locura!’. Desafortunadamente, eso les dice a los niños: si tienen un problema con esto, no vengan a mí porque lo voy a minimizar y menospreciar”.