El uso indebido más común de las herramientas de inteligencia artificial es la creación de contenidos falsos - RED/ACCIÓN

El uso indebido más común de las herramientas de inteligencia artificial es la creación de contenidos falsos

 Una iniciativa de Dircoms + INFOMEDIA

Así lo detalla un nuevo estudio de Google DeepMind. No se tratan de ataques cibernéticos sofisticados, sino la creación de deepfakes con herramientas de fácil acceso.

El uso indebido más común de las herramientas de inteligencia artificial es la creación de contenidos falsos

Woman editing video on her laptop. Microphone on the table. Working from home

Mientras muchos expertos se preocupan por el riesgo de las herramientas de inteligencia artificial para la ciberseguridad, muchas veces la manipulación de contenidos no requieren ningún conocimiento técnico.  De hecho, una nueva investigación de Google DeepMind destaca un creciente desafío en el ámbito tecnológico: el mal uso de la IA generativa para crear deepfakes.

Los autores del estudio hicieron un análisis cualitativo de 200 incidentes de mal uso de las plataformas observados entre enero de 2023 y marzo de 2024. Así delinearon cómo estas tecnologías están siendo explotadas para fines fraudulentos y manipulativos, con profundos impactos sociales. Los creación de deepfakes ocuparon el primer puesto. En segundo lugar y con mucha distancia, se encuentra la falsificación de información mediante herramientas basadas en texto.

Definidos en el estudio como "reproducciones audiovisuales generadas que imitan con precisión la apariencia y voz de personas reales", estos contenidos son preocupantes por su capacidad de engañar los sentidos humanos. Por ejemplo, una de las revelaciones más alarmantes del informe es el uso de estos contenidos falsos para personificar a figuras públicas.

Un ejemplo claro se dio a comienzos de este año, cuando en la localidad de New Hampshire, Estados Unidos entre 5 y 25 mil votantes registraron falsas llamadas robóticas con la voz de Joe Biden, que buscaban desincentivar la práctica democrática con el fin de beneficiar al partido opositor de Donald Trump. 

En diálogo con el Financial Times, Ardi Janjeva, investigador asociado del Instituto Alan Turing, dijo: “Incluso si no estamos seguros del impacto que tienen los deepfakes en el comportamiento de voto, esta distorsión puede ser más difícil de detectar a corto plazo y plantea riesgos a largo plazo para nuestras democracias".

Además, preocupa la apropiación indebida de la imagen de individuos sin su consentimiento. En situaciones detalladas en el estudio se crearon videos y fotos que colocaron a personas en contextos difamatorios o comprometedores. Taylor Swift transitó una situación de estas circunstancias cuando se difundieron imágenes falsas explícitas de ella en redes sociales. 

A su vez, estas tácticas maliciosas perjudican los procesos judiciales, ya qeue se detectaron casos donde los contenidos falsos se utilizaron para crear "pruebas" en situaciones legales o para extorsionar a individuos.

Los autores también notaron fraudes económicos. Un caso destacado fue la creación de un video deepfake de un CEO pidiendo transferencias urgentes de fondos, lo que resultó en pérdidas financieras significativas para la empresa implicada.