"Aprender a mentir": la facultad que la inteligencia artificial está desarrollando (y cómo puede afectarnos) - RED/ACCIÓN

"Aprender a mentir": la facultad que la inteligencia artificial está desarrollando (y cómo puede afectarnos)

 Una iniciativa de Dircoms + INFOMEDIA

Un nuevo estudio realizado por investigadores del MIT identificó varias ocasiones en donde la inteligencia artificial intentó engañar a los humanos, como en juegos en línea. Las consecuencias pueden llevar a la sociedad a una era de manipulación no consciente, advierten los autores de la investigación.

"Aprender a mentir": la facultad que la inteligencia artificial está desarrollando (y cómo puede afectarnos)

Foto de Airam Dato-on.

La inteligencia artificial suma cada vez más capacidades. Ahora, esta tecnología incluso llegar a elaborar “mentiras”.

Un nuevo artículo científico publicado en la revista Patterns analiza los casos conocidos de modelos de inteligencia artificial que han mentido, disimulado o adulado a humanos para lograr sus objetivos. Si bien no lo hacen de manera consciente y programada, esta práctica puede traer consigo grandes consecuencias si no hay una regulación correcta. 

En detalle, según especifica The Guardian, los investigadores, todos del Massachusetts Institute of Technology (MIT), se enfocaron en estudiar a Cicero, una IA de Meta que se situó entre el 10 % de los mejores jugadores humanos del juego en línea Diplomacia. Todo ganador necesita una viveza, una estrategia, una mentira piadosa. Este sistema logró llegar a ese punto.

Así, el equipo de investigación identificó múltiples casos en los que Cicero dijo mentiras premeditadas, confabuló para atraer a otros jugadores y, en una ocasión en particular, justificó su ausencia tras ser reiniciado diciéndole a otro jugador que estaba “hablando por teléfono con la novia”. Brillante, ¿verdad?

También, el equipo del MIT descubrió problemas similares en otros sistemas. Por ejemplo, en un sistema de negociación económica que falseó sus preferencias para obtener ventaja. Incluso, la inteligencia artificial pretendió “hacerse la muerta” para engañar a una prueba creada para eliminar sistemas de IA que habían evolucionado para replicarse rápidamente.

“Mi mayor temor sobre el engaño de la IA es que una IA superinteligente y autónoma utilice sus capacidades de engaño para formar una coalición de aliados humanos cada vez más numerosa y la use para alcanzar el poder, en la búsqueda a largo plazo de un objetivo misterioso que no se conocería hasta después del hecho”, dice según El País, Peter S. Park, uno de los autores principales del artículo.

Los investigadores, entonces, sugirieron que una regulación es necesaria. Sin embargo, estas deben abordar la capacidad de “mentir” que tienen estos sistemas. Hoy poco desarrollados, pero mañana quizás sin posibilidad de control. Sin el debido control, los riesgos de fraude o manipulación podrían escalar. 

Aun así, no es la primera vez que se usa la inteligencia artificial para desinhibir o influenciar a los humanos. Esta es una práctica que también se está desarrollando en las redes sociales donde bots automatizados potenciados por inteligencia artificial están publicando contenido falso para generar cierta preocupación o alarma con respecto a un problema en particular. Consecuentemente, perjudican a los actores involucrados. 

De hecho, en un nuevo reporte enfocado en el este asiático, el equipo de inteligencia de Microsoft Threat Intelligence señaló que China quiere manipular las próximas elecciones de Estados Unidos, India y Corea del Sur a través de esta nueva tecnología con el fin de saciar sus propios intereses geopolíticos.