Estan surgiendo nuevas alertas de seguridad para los menores de edad en la era de la IA. De acuerdo con un reciente reporte de Humans Right Watch, las fotos personales de niños brasileños se están utilizando para entrenar diferentes herramientas de inteligencia artificial. Esto, por supuesto, sin el consentimiento de los niños ni de los adultos responsables de ellos.
El informe explica que las imágenes se extraen de internet y se transforman en alimento directo para sus sistemas tecnológicos. También se encontró las herramientas que se potencian con estos contenidos se están usando para crear deepfakes maliciosos como, por ejemplo, pornográficos, que ponen la seguridad y la privacidad de los niños (y las personas en general) en riesgo.
“Los niños no deberían tener que vivir con el temor de que sus fotos puedan ser robadas y convertidas en armas contra ellos”, dijo Hye Jung Han, investigadora y defensora de los derechos de los niños y la tecnología en Human Rights Watch. “El Gobierno debería adoptar urgentemente políticas para proteger los datos de los niños del uso indebido impulsado por la IA”, profundizó.
En detalle, las pruebas explícitas de esta práctica se encontraron en LAION-5B, una base de datos de acceso público que tiene más de 5.85 millones de imágenes que recolecta directamente de la web. Muchas empresas y personas autoras de las populares herramientas de inteligencia artificial que hoy usamos como, por ejemplo, Stable Diffusion, usan estos datos para entrenar sus sistemas.
Esta no es la primera vez que la empresa LAION se encuentra en una polémica. El diciembre pasado, un estudio de la Universidad de Stanford encontró que en su base de datos había contenido de abusos a menores que son utilizados para entrenar a la IA y que luego se usan para reproducir deepfakes explícitos de personas reales, uno de los problemas que genera más alarmas en esta era de IA.
Humans Right Watch halló enlaces a fotos de niños brasileños y, en muchos casos, sus identidades son fácilmente rastreables, incluida la información sobre cuándo y dónde estaba el niño en el momento en que se tomó la foto. Las imágenes procedían de publicaciones en blogs de madres y otros sitios personales así como de plataformas como YouTube. Algunas de las fotos compartidas tenían ya más de 10 años en la web y otras eran más recientes.
El problema yace en que las personas que comparten estas imágenes en determinadas plataformas esperan ciertas medidas de seguridad y privacidad. En este sentido y ante la difusión del reporte, YouTube aclaró que sacar contenido de su plataforma sin autorización es “una violación de sus Términos y Servicios” y que, por lo tanto, “segurirán tomando cartas sobre el asunto”.
Además, una vez que las imágenes de los niños están dentro de un sistema de inteligencia artificial los daños y riesgos que se pueden experimentar son variados. Por un lado, se encuentra la creación y difusión de desnudos falsos que ya es un problema creciente en las escuelas secundarias. Y, por otro lado, la manipulación de imágenes y videos a partir de sus identidades donde se haga parecer que los niños están diciendo o haciendo cosas que nunca dijeron o hicieron.
Por su parte, LAION se hizo responsable y reconoció que su base de datos contenía estas fotos de manera no autorizada de niños brasileños y se comprometió a bajarlas de su sitio. Sin embargo, también dijo que los niños y sus autoridades a cargo son los que se tienen que ocupar de remover estas imágenes de internet como medida de seguridad más efectiva.