OpenAI, la empresa creadora de ChatGPT, revolucionó las redes sociales la última semana con la presentación de Sora, su nueva herramienta de inteligencia artificial, que crea videos a partir de texto. También fue tendencia por los dichos de su CEO Sam Altman, quién reflexionó sobre los riesgos de esta nueva tecnología y cómo minimizarlos.
El empresario se expresó por videollamada en la Cumbre Mundial de los Gobiernos (WGS, por sus siglas en inglés), un evento anual desarrollado en Dubai. Cada año, se plantea una agenda diferente en relación al contexto global. En esta edición, se hizo foco en la inteligencia artificial.
Altman opinó que no nos damos cuenta lo limitados que estamos en materia de inteligencia artificial. Estos nuevos modelos podrían materializarse en tutores personalizados e incluso para descubrir curas a problemas médicos, dijo.
Además expuso que, a diferencia de muchos titulares, su principal temor no es que los robots dominen el mundo y nos maten, sino más bien los pequeños y sutiles "desalineamientos sociales" que pueden surgir de una inteligencia artificial no regulada.
De acuerdo con un artículo publicado por el National Bureau of Economic Research, las "alineaciones sociales" se producen cuando un sistema de IA persigue fines que son coherentes con los objetivos más amplios de la sociedad, teniendo en cuenta el bienestar de todas las personas que podrían ser afectadas.
En este sentido, en los últimos años hemos sido testigos de un número creciente de casos de desalineamientos sociales como, por ejemplo, sistemas de decisión automatizados con sesgos contra los grupos desfavorecidos.
Una nota de Forbes explica que en el mundo de la inteligencia artificial el "problema de la alineación" se refiere también a los desafíos provocados por el hecho de que las máquinas simplemente no tienen los mismos valores que los humanos y, por ende, puede generar una escasez de sensibilidad en el mundo real.
“¿Cómo podemos esperar que (las máquinas) entiendan que, por ejemplo, deben hacerlo de una manera que no implique prejuicios hacia las personas de una determinada raza, sexo o sexualidad? ¿O que la búsqueda de la velocidad, la eficacia o el beneficio debe hacerse respetando la inviolabilidad de la vida humana?”, reflexiona el artículo.
En este sentido, Altman hizo un particular llamado a una normativa internacional. "A menudo utilizo el ejemplo del OIEA, el Organismo Internacional de la Energía Atómica, como modelo para gestionar el impacto de los sistemas de IA más potentes. Establecer medidas de auditoría y seguridad antes de desplegar superinteligencia o inteligencia general artificial (AGI) es crucial", informó Gulf News.