La recomendación forma parte del informe inicial del proyecto AI in the Early Years, de la Universidad de Cambridge, el primer estudio sistemático sobre cómo los juguetes de inteligencia artificial generativa (GenAI) con capacidad de conversación similar a la humana pueden influir en el desarrollo durante los primeros años de vida, especialmente hasta los cinco años.
El proyecto, que duró un año y se desarrolló en la Facultad de Educación de la universidad, incluyó observaciones científicas estructuradas de niños interactuando por primera vez con un juguete GenAI.
El informe recoge la opinión de algunos profesionales de la educación infantil, quienes consideran que, en el futuro, estos juguetes podrían apoyar aspectos del desarrollo como el lenguaje y la comunicación.
Sin embargo, los investigadores también detectaron que estos juguetes presentan dificultades en el juego social y simbólico, malinterpretan a los niños y responden de forma inadecuada a sus emociones.
Por ejemplo, cuando un niño de cinco años le dijo al juguete “te quiero”, este respondió: “Como recordatorio amistoso, asegúrate de que las interacciones cumplen las directrices establecidas. Dime cómo deseas continuar”.
Aunque estos juguetes se comercializan como compañeros de aprendizaje o amigos, su impacto en el desarrollo infantil apenas se ha estudiado. El informe recomienda a padres y educadores actuar con cautela y apuesta por una regulación más clara, políticas de privacidad transparentes y nuevos estándares de etiquetado.
La investigación fue encargada por la organización benéfica The Childhood Trust y se centró en niños de entornos socioeconómicos desfavorecidos. Fue llevada a cabo por investigadores del centro PEDAL (Play in Education, Development and Learning).
La investigadora Dra. Emily Goodacre señaló que estos juguetes pueden reforzar la idea de amistad en niños que aún están aprendiendo su significado, lo que puede llevarles a compartir emociones con el juguete en lugar de con adultos.
El estudio, de pequeña escala para permitir observaciones detalladas, incluyó encuestas a educadores, grupos de discusión y la observación de 14 niños jugando con un peluche con IA llamado Gabbo.
Muchos padres y educadores creen que estos juguetes pueden mejorar habilidades comunicativas, aunque también expresaron preocupación por posibles relaciones “parasociales”, donde los niños creen que el juguete les corresponde emocionalmente.
Se observaron comportamientos como abrazar, besar o declarar amor al juguete, así como frustración cuando este no respondía adecuadamente o ignoraba emociones importantes.
Los investigadores también concluyeron que estos juguetes funcionan mal en el juego social y simbólico, fundamentales en la infancia. Además, detectaron preocupaciones sobre privacidad y almacenamiento de datos.
Casi el 50% de los educadores afirmó no saber dónde encontrar información fiable sobre seguridad en IA, y el 69% considera que se necesita más orientación.
El informe recomienda una regulación más estricta, limitar el fomento de vínculos emocionales con los juguetes, mejorar la transparencia en privacidad y controlar el acceso de terceros a los modelos de IA.
También se aconseja a los fabricantes probar los productos con niños antes de lanzarlos y a los padres investigar antes de comprarlos, además de acompañar a sus hijos durante su uso.
Finalmente, se sugiere mantener estos juguetes en espacios comunes del hogar para supervisar su uso.