La inteligencia artificial estará presente en todas las prestaciones de Google: cuáles son los riesgos de esta revolución tecnológica - RED/ACCIÓN

La inteligencia artificial estará presente en todas las prestaciones de Google: cuáles son los riesgos de esta revolución tecnológica

 Una iniciativa de Dircoms + INFOMEDIA

La empresa anunció varias innovaciones tecnológicas para este año y describió a este fenómeno como su “Era Gemini”. Muchos de ellos buscan funcionar como asistentes y potenciar nuestras capacidades. Sin embargo, esto genera preguntas en relación a la privacidad y seguridad de los datos de las personas.

La inteligencia artificial estará presente en todas las prestaciones de Google: cuáles son los riesgos de esta revolución tecnológica

Crédito: Google.

En su evento anual Google I/O, la empresa presentó su nueva “Era Gemini”, en donde todos sus productos y servicios se verán, de alguna manera u otra, entrelazados con la inteligencia artificial. Desde nuevas versiones más sofisticadas de su bot conversacional hasta un prototipo que logra reconocer, explicar y recordar los objetos en tu entorno físico a partir de un video. 

Los cambios son varios y superan cualquier expectativa. Pero ¿qué se esconde detrás de la euforia de la revolución tecnológica? ¿Cuáles son sus posibles efectos negativos?

Muchos de los nuevos productos y servicios presentados, como Proyecto Astra, tienen como innovador la interacción con humanos por medio de la voz o la imágen. Leandro Zanoni, periodista y escritor especializado en tecnología, asegura en diálogo con RED/ACCIÓN que uno de los problemas en esta nueva etapa es la seguridad y privacidad del usuario.

“Con las nuevas funciones de voz y video, la información personal de millones de usuarios queda aún más al descubierto”, manifiesta Zanoni. Además, agrega que para que estos nuevos sistemas funcionen bien, Google necesita entrenar sus IA con millones de imágenes y, ahora, con videos y voces humanas. “Este es un asunto sensible y crítico, será el tema principal a tratar no solo por las empresas sino mediante leyes y normas que nos protejan”, profundiza. 

En esta línea, lo que genera alarmas es la falta de transparencia acerca del origen de los datos con los que se alimenta la inteligencia artificial. Para hacer un sistema cada vez más humano, se necesita contenido de los humanos: cómo hablan, cómo se ríen, cómo hacen chistes. Y, generalmente, toda esa información ahora se encuentra en nuestras redes sociales. 

Jesse Doge, investigadora para el Instituo Allen de IA, explica para Scientific American que la mayoría de los datos que pueden ser visualizados de manera pública en un buscador y que no requieren de un inicio de sesión por parte del usuario son utilizados para alimentar a estos sistemas. Por ejemplo, un perfil público de LinkedIn, blogs personales, portfolios profesionales. 

Pero, también, las empresas tecnológicas pueden entrenar a sus modelos de inteligencia artificial con los datos internos de la empresa. El ejemplo perfecto es Meta, que confesó públicamente que su última IA fue parcialmente entrenada con publicaciones consensuadamente abiertas en Facebook o Instagram. ¿Cómo controlamos nuestra privacidad si ellos mismos la controlan?

Otro de los temas que preocupan es la desinformación y el mal uso de esta tecnología. Hoy en día, ya somos testigos de estas prácticas: las imágenes falsas inundan las redes sociales e incluso se registran llamadas falsas generadas con IA que buscan estafar a las personas. En este marco, Google presentó tres nuevas herramientas de inteligencia artificial generativa: Lyria —para música—, Veo —para video— e Imagen 3 —para imágenes—. 

A la par, la compañía también detalló que está ampliado sus innovaciones técnicas de marca de agua, como SynthID tanto en texto y vídeo, para que el contenido generado por IA sea más fácil de identificar. En esta línea, Matías Albertotti, Manager de IA del Centro de Servicios Globales, expresa en diálogo con RED/ACCIÓN que en esta nueva era hay algo fundamental: la transparencia. “Las personas tienen que saber distinguir cuando se está hablando con una persona o con un humano”, asegura. 

Sin embargo, el uso de marcas de agua no parece ser una medida suficiente. Daniel Leufer, analista político de la organización de derechos digitales Access Now, explicó a MIT Technology Review que, por ejemplo, poner marcas de agua en todos los contenidos es, por un lado, imposible de realizar y, por otro, es contraproducente, ya que todos los usuarios tiene acceso al código fuente del modelo y  pueden eliminar cualquier cosa que no deseen.

Además, según Zanoni, el usuario va a rechazar profundamente este tipo de clasificación: “Las personas van a priorizar las aplicaciones que no dejen marcas en sus contenidos. El uso responsable de la IA tiene que ser regulado mediante leyes que penalizan los delitos que se puedan cometer con estos contenidos”. 

Por último, el bienestar ambiental también entra en la ecuación de las preocupaciones. Cada día que nace una inteligencia artificial también nace un consumo excesivo de energía. De hecho, Zanoni lo identifica como uno de los desafíos más grandes en esta nueva etapa de coexistencia entre los humanos y el avance de la tecnología, particularmente en el contexto de la crisis climática. 

Un nuevo informe de Green Groups confirma que la creciente demanda de electricidad de la IA significa que la duplicación de los centros de datos para seguir el ritmo de la industria provocará un aumento del 80 % de las emisiones de calor del planeta. De hecho, ya hay pruebas de este fenómeno en Estados Unidos, donde se está prolongando la vida de las centrales eléctricas de carbón para satisfacer la creciente demanda de energía. En solo tres años, estos podrían consumir tanta energía como Suecia, según un estudio independiente.