Hace poco menos de un mes, Google redobló la apuesta en materia de inteligencia artificial al volver a lanzar su bot conversacional bajo el nombre de Gemini (ex Bard). La intención es posicionarse como un digno rival de Chat GPT que, hasta el momento, parece tener el monopolio en materia de bots conversacionales.
Sin embargo, a solo dos semanas de estar abierto al público, Google tuvo que bloquear temporalmente la generación de imágenes a partir de texto en Gemini debido a una incorrecta representación de las personas en la historia como, por ejemplo, soldados nazis con rasgos asiáticos o vikingos afrodescendientes. En redes, rápidamente se viralizaron varios casos en los que se ven estos errores.
You can get Google AI to make white Vikings if you use specific prompts.
— 🔥⭐️Edwin⭐️🔥 (@Nuked4Every1) February 21, 2024
Otherwise viking=black pic.twitter.com/18pzcbYXWD
En el siglo XVII, la física estaba mayormente dominada por varones blancos. El científico David Rozado compartió en X que recién después de 49 intentos Gemini pudo producir una retrato de un físico del siglo XVII apropiado y representativo de la época, más alineado con las apariencias de Isaac Newton o Galileo Galilei. Los otros ilustraban falsamente a mujeres u hombres de otras etnias.
After 49 attempts requesting Google's Gemini to generate a portrait of a physicists from the 17th century, the portrait on the bottom right is the closest I've got to someone who somewhat resembles Isaac Newton or Galileo Galilei. I think this example illustrates the need for… pic.twitter.com/ROupbzVmcH
— David Rozado (@DavidRozado) February 22, 2024
Otro ejemplo fue cuando se le pidió a Gemini que produjera imágenes de un senador estadounidense del siglo XIX. Como resultado, mostró una mujer afrodescendiente, un hombre asiático e incluso una mujer de un pueblo originario. De la misma manera, al pedirle que represente un Papa, en vez de crear imágenes de hombres blancos, generaba exactamente lo contrario.
New game: Try to get Google Gemini to make an image of a Caucasian male. I have not been successful so far. pic.twitter.com/1LAzZM2pXF
— Frank J. Fleming (@IMAO_) February 21, 2024
Por estos motivos se hicieron varias críticas hacia el diseño de Gemini, que muchas personas denominan como woke: un término cuya traducción literal es “despertar”, pero que significa estar al tanto de temas sociales, en especial sobre injusticia racial. Sin embargo, en ocasiones, la gran sensibilidad ha llevado a razonamientos erróneos. Y Gemini es un claro ejemplo de que la “sobrerrepresentación” de ciertos grupos desafía lo que efectivamente sucedió, según la historia.
Ross Douthat, columnista y autor, explicó a The New York Times: “Gemini muestra probablemente lo que creen algunos responsables de la corrección ideológica en Silicon Valley. Pero no vivimos en una historia de ciencia ficción con un único Motor de la Verdad. Si la barra de búsqueda de Google ofreciera resultados al estilo de Gemini, los usuarios la abandonarían”.
Según The Guardian, Andrew Rogoyski, del Instituto de la IA Centrado en Personas de la Universidad de Surrey, comentó que hay muchas investigaciones y enfoques diferentes para eliminar el sesgo. "Es probable que las IA y los LLM (grandes modelos lingüísticos) sigan cometiendo errores, pero también es probable que esto mejore con el tiempo", profundizó.
Qué dijo Google
Ante la polémica, la empresa dueña del buscador más famoso se pronunció en un comunicado oficial en el cual explicaron “lo que había salido mal”. Entre sus razones, expresaron que al entrenar a Gemini priorizaron que el sistema muestre diversidad cuando se le pide una generación de imagen. Sin embargo, no contemplaron que a veces con aquella “diversidad” no se logran resultados históricamente rigurosos.
“Esto no era lo que pretendíamos. No queríamos que Gemini se negara a crear imágenes de ningún grupo en particular. Y no queríamos que creará imágenes históricas —o de cualquier otro tipo— inexactas”, manifestó la empresa. “Así que hemos desactivado la generación de imágenes de personas y trabajaremos para mejorarla significativamente antes de volver a activarla. Este proceso incluirá pruebas exhaustivas”.