La inteligencia artificial, además de proveernos herramientas que son beneficiosas para nuestra vida diaria, también presenta riesgos. Uno de ellos, considerado el más importante, es la desinformación. Seguramente sabés de qué hablo: ¿acaso no dudaste si una foto o un video creado por IA era totalmente real?
En esa línea, la reciente edición anual del estudio Riesgos Globales desarrollado por el Foro Económico Mundial afirma que la información falsa y engañosa generada con inteligencia artificial amenaza con manipular a las personas, dañar las economías y fracturar a las sociedades de numerosas maneras en los próximos dos años. Y que es la principal amenaza a nivel global en el corto plazo (los próximos dos años) y el segundo mayor riesgo en la próxima década (por detrás del cambio climático).
Esto se debe a que, principalmente, todas las interfaces y plataformas de inteligencia artificial hoy en día son muy fáciles de usar para todo el mundo. De hecho, ya han permitido una explosión de información (o desinformación) y, también, la creación de los llamados contenidos “sintéticos”, más conocidos como los deepfakes.
Esto se clarificó especialmente cuando, a principios de año, se divulgaron fotos falsas del Papa con una campera de Balenciaga o incluso de Trump arrestado por la Policía. El fenómeno generó grandes dudas y, si bien no causó un daño mayor, evidenció la posibilidad y la facilidad de hacerlo. Hoy, las herramientas evolucionaron y permiten incluso hacer doblajes muy sofisticados.
Democracia e inteligencia artificial
El filósofo Yuval Harari planteó recientemente esta cuestión en una discusión con Yann LeCun, jefe de investigación de Meta, para la revista francesa Le Point. “La pregunta es ¿en manos de quién está?”, cuestionó el escritor “Podría ser maravilloso pero en las manos incorrectas podría destruir la democracia”, concluyó.
En un año donde habrá más de 50 elecciones (entre ellas las de Estados Unidos, India y Rusia), el estudio especifica que, para combatir los crecientes riesgos, los Gobiernos están empezando a desplegar nuevas medidas y regulaciones.
Estas apuntan tanto a los creadores de desinformación en línea como a los contenidos ilegales. Por ejemplo, en China, todos los contenidos generados con inteligencia artificial deben llevar obligatoriamente una marca de agua que indica que fueron creados con esta tecnología.
En un contexto electoral, el desafío para los Gobiernos es actuar a tiempo para proteger de la desinformación pero, a la vez, cuidar la libertad de expresión. Carolina Klint, líder de gestión de riesgos en Marsh, cuya empresa matriz Marsh McLennan es coautora del informe con Zurich Insurance Group, explicó para The Associated Press que las sociedades podrían polarizarse aún más ya que a la gente le resulta más difícil verificar los hechos.
Además, según Klimt, la información falsa también podría utilizarse para cuestionar la legitimidad de los Gobiernos electos. “Los procesos democráticos podrían verse erosionados", profundiza la investigadora.
Aunque la desinformación sea considerada el riesgo global principal, hay otra clase de crímenes que pueden emerger a partir de la evolución de la tecnología. Por ejemplo, la pornografía no consensuada potenciada por los deepfakes o la manipulación falsa de acciones del mercado.