Imagen
Niño y la matrix
Fecha

Infancias en riesgo ante videos hechos con IA

Subtítulo
Videos generados con IA en YouTube son un peligro para la niñez; urge vigilancia digital

Comparte:

En la era digital, el acceso de niñas y niños a plataformas como YouTube y YouTube Kids es casi inevitable. Estos espacios, que deberían ser refugios seguros de aprendizaje y esparcimiento, hoy están invadidos por videos generados con inteligencia artificial (IA) que, bajo la apariencia de personajes adorables y caricaturescos, esconden contenidos aberrantes, traumáticos y perturbadores.

El problema es crítico: el algoritmo de plataformas y sus sistemas de moderación no logran identificar muchos de estos riesgos —contenido disfrazado de inocente, pero profundamente dañino para el desarrollo mental y emocional infantil (Dwivedi et al., 2023; Kaur et al., 2024; Lee et al., 2024).

Diversos estudios científicos han documentado la proliferación de videos en YouTube Kids que, pese a ser etiquetados como aptos para menores, incluyen escenas de violencia gráfica, sonidos atemorizantes, imágenes surrealistas e incluso material sexualizado o manipulador (Kaur et al., 2024; Lee et al., 2024; O’Connor et al., 2022). El fenómeno no es casual: la producción masiva y automática mediante IA permite a creadores maliciosos inundar la red con estos videos a una escala imposible en la era pre-IA.

Las herramientas actuales priorizan el filtrado automático de pornografía o derechos de autor, pero las narrativas, la atmósfera y los elementos visuales perturbadores muchas veces pasan inadvertidos al escrutinio algorítmico (Dwivedi et al., 2023; Lee et al., 2024). Esto deja a la infancia expuesta a una dieta de estímulos digitales que pueden provocar desde temor nocturno hasta trastornos de ansiedad o insensibilidad ante la violencia (Sánchez et al., 2025; Villanueva, 2024).

El problema va más allá de la habilidad tecnológica —o la falta de ella— de los sistemas de moderación. Investigadores advierten que gran parte del contenido dañino permanece al alcance de los niños durante semanas o meses antes de que, en algunos casos, sea eliminado. Al personalizar y recomendar videos automáticamente, la IA amplifica esta amenaza, llevando a los menores de un video aparentemente inocente a una secuencia de contenidos inquietantes en cuestión de clics (Sánchez et al., 2025; Dwivedi et al., 2023). Y lo más alarmante: los propios niños carecen de criterios para distinguir entre lo seguro y lo perjudicial (O’Connor et al., 2022).

¿Qué pueden hacer familias y sociedad? Los expertos coinciden en que la protección de la infancia ante esta amenaza digital pasa por tres grandes vías: información, educación y supervisión. UNICEF y la comunidad académica recomiendan a madres, padres y cuidadores (UNICEF, 2023; Villanueva, 2024):

Supervisar activamente lo que ven los menores, no confiar ciegamente en plataformas ni en sus versiones “para niños”.
Utilizar controles parentales y herramientas diseñadas para filtrar contenido, pero sin delegar en ellas la responsabilidad total.
Generar un diálogo abierto en casa sobre lo que se ve y siente ante ciertos videos, prestando atención al impacto emocional infantil.
Fomentar el pensamiento crítico y la alfabetización digital desde edades tempranas, explicando que no todo lo que aparece en pantalla es seguro, real ni apropiado.
La sociedad también debe exigir mejores regulaciones y algoritmos más sofisticados capaces de analizar no sólo imágenes o palabras clave, sino la historia y el contexto global del contenido. Las autoridades educativas y los proveedores tecnológicos tienen el deber de colaborar activamente con expertos en salud mental infantil para garantizar ambientes virtuales sanos y seguros (Sánchez et al., 2025; UNESCO, 2023).

Aunque el panorama es inquietante, hay esperanza. La conciencia social respecto a los riesgos digitales crece, y el debate en torno a la educación mediática se visibiliza cada vez más en familias, escuelas y medios de comunicación. Apostar por una #CiudadDigital donde la niñez sea prioridad exige esfuerzo colectivo, innovación ética y, ante todo, el compromiso irrenunciable de custodiar el bienestar emocional y mental de las futuras generaciones.

Referencias
Dwivedi, Y. K., Ranjan, R., Taghizadeh, S. K., & Bach, F. (2023). Malicious or Benign? Towards Effective Content Moderation for Children's Videos. arXiv. 
Kaur, M., Alahakoon, D., & Alahakoon, D. (2024). Enhanced Multimodal Content Moderation of Children’s Videos using Audiovisual Fusion. arXiv. 
Lee, M. K., Zittrain, J. L., & Sandvig, C. (2024). YouTubers Not madeForKids: Detecting Channels Sharing Inappropriate Videos Targeting Children. arXiv. 
O’Connor, A., Li, H., & Luo, X. (2022). Disturbed YouTube for Kids: Characterizing and Detecting Inappropriate Videos Targeting Young Children. arXiv. 
Sánchez, M., Ramírez, J., & Fernández, C. (2025). Un estudio señala los peligros que supone la IA para la salud mental de niños y adolescentes. El País. 
UNICEF. (2023). 9 Consejos de UNICEF al Usar la IA |【Pódcast #TribuDeProfes】. YouTube. 
UNESCO. (2023). Protección infantil y regulación en entornos digitales. UNESCO Report. 
Villanueva, L. (2024). ¿Cómo afectará la inteligencia artificial (IA) a los niños? Healthy Children.

Facebook: https://www.facebook.com/jazjibe
Twitter: https://twitter.com/jazjibe
LinkedIn: https://www.linkedin.com/in/jazjibe/

Publicado originalmente en e-consulta.
Más información
Material gráfico
Misael Chirino Durán
Fotografía
Ramón Tecólt González

Solicita Información

Sexo
Motivo

CAPTCHA This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.