Esta semana Google y OpenAI nos dieron un vistazo del futuro con sus nuevos productos y servicios. Pero, lejos de las certezas, lo que viene abre nuevos interrogantes.
Por un lado, OpenAI lanzó ChatGPT-4o, la nueva versión de su ya conocido bot conversacional. Hasta el momento, estaban disponibles ChatGPT-3.5, abierto al público, y ChatGPT-4, con suscripción paga. Ambos se caracterizan por su habilidad para procesar y generar texto relacionado al pedido del usuario o mejor dicho al prompt.
Este nuevo modelo 4o que es multimodal nativo. Esto, en palabras más simples, quiere decir que puede razonar y generar información a través de múltiples formas de datos como texto, imagen y sonido en tiempo real. Y esto viene con más sofisicaciones. ChatGPT-4o está diseñada para parecerse más a una persona que a una máquina. ¿Cómo? Por medio de una voz que mimetiza los tonos humanos y se aleja de un robot. Al mismo tiempo, la programan para que pueda ser sarcástica, hacer chistes, cantar, aconsejar, mentir, evaluar, reirse. En fin, para que cada vez la interacción sea más verosímil.
El problema, según explica en diálogo con RED/ACCIÓN Esteban Magnani, periodista y escritor especializado en tecnología, es la percepción que surge a partir de estos avances. “Hay un continuo proceso de antropomorfización de la inteligencia artificial, es decir, de la creencia de que esta tecnología tiene justamente deseos o conductas que responden a algo que quiere hacer”, comenta. “En realidad, estos modelos son estadísticas, no hay una verdadera inteligencia detrás”, profundiza.
Google, por otro lado, anunció productos y servicios nuevos que estarán potenciados por la inteligencia artificial. El que más se destacó fue el Proyecto Astra, liderado por su centro de investigación DeepMind, que tiene la capacidad de reconocer, memorizar e interactuar con el entorno que el usuario le muestra a través del video. Por ejemplo, le mostrás el horno y le pedís las instrucciones para prenderlo.
Sin embargo, la mayor preocupación de Magnani reside en la posibilidad de manipulación que desarrolla la inteligencia artificial a partir de la aparición de estas nuevas facultades, ya que la voz es un recurso que puede, sutilmente, "mofidicar la conducta del otro". Además, agrega que la IA no tiene consciencia y, entonces, no tiene limitaciones éticas: hará lo que sea para cumplir su objetivo estadístico y programado.
Pruebas de estos comportamientos ya se evidenciaron. Un artículo científico publicado en la revista Patterns analiza los casos conocidos de modelos de inteligencia artificial que han mentido para lograr sus objetivos. En detalle los investigadores, todos del MIT, se enfocaron en estudiar a Cicero, una IA de Meta que se situó entre el 10 % de los mejores jugadores humanos del juego en línea Diplomacia.
Así, se identificaron múltiples casos en los que Cicero dijo mentiras premeditadas, confabuló para atraer a otros jugadores y, en una ocasión en particular, justificó su ausencia tras ser reiniciado diciéndole a otro jugador que estaba “hablando por teléfono con la novia”.
Por último, Magnani ve como evidente que esta tecnología llega para sustituir a las personas en ciertas tareas laborales y, consecuentemente, nos dejará con más tiempo libre, un eventual beneficio para las personas. “El problema es quién se apropia de ese tiempo y de ese aumento de la productividad. Hoy, en el sistema actual, son unos pocos”, concluye.