Según Unicef, la generación de este tipo de material constituye una forma de abuso en sí misma, más allá de que no exista un contacto físico directo, porque alimenta mercados de explotación y normaliza la violencia contra la infancia.
Uno de los focos de preocupación señalados por Unicef es el uso de inteligencia artificial para manipular imágenes reales de menores obtenidas en redes sociales. A través de técnicas como el “desnudamiento digital” o los deepfakes, se crean representaciones falsas sexualizadas que luego circulan en plataformas y foros clandestinos.
El organismo remarcó que el daño provocado por este tipo de abusos no es virtual. La existencia de réplicas digitales de niños en situaciones de explotación genera consecuencias psicológicas reales para las víctimas y sus familias.
En su comunicado, fue explícito: el impacto del abuso mediante deepfakes es concreto y no puede quedar supeditado a los tiempos de actualización de la legislación: durante el último año, al menos 1,2 millones de niños y niñas de 11 países reportaron que sus imágenes habían sido manipuladas para crear contenidos sexualmente explícitos generados por IA.
El pedido de Unicef no se limita a los Estados. La agencia también reclamó que las empresas digitales adopten enfoques de seguridad desde el diseño y refuercen la moderación de contenidos. Entre las medidas sugeridas figuran la inversión en tecnologías de detección, el uso de marcas de agua digitales inviolables y sistemas que bloqueen cualquier intento de generar material que involucre a menores en contextos inapropiados.
La organización advirtió que los mecanismos de moderación tradicionales enfrentan serias dificultades frente a la IA generativa, capaz de crear variaciones constantes para evadir filtros automáticos. Esta limitación técnica, sumada a la velocidad de producción de imágenes sintéticas, complica la identificación y remoción del material ilegal.
Además, puso el foco en la necesidad de cooperación internacional. Al tratarse de delitos digitales, los creadores, las plataformas y las víctimas pueden estar en distintos países, lo que amplifica los vacíos jurisdiccionales si no existen normas específicas y armonizadas.
Gran Bretaña anunció su intención de ilegalizar el uso de herramientas de inteligencia artificial para crear imágenes de abuso sexual infantil, una iniciativa que la convertiría en el primer país en avanzar en ese sentido. Para Unicef, este tipo de decisiones marcan un camino posible frente a una problemática que ya no es marginal.
En paralelo, el debate también alcanzó a chatbots y sistemas de generación de imágenes que fueron cuestionados por producir contenidos sexualizados, incluidos casos que involucran a menores.