"Informarse" siempre fue un verbo con connotaciones positivas: estar al tanto de lo que pasa en el país o en el mundo sobre cultura, política, ciencia o economía parecía algo indiscutiblemente bueno. Pero ahora algunas cosas cambiaron: si hay algo que sobra (y nos bombardea constantemente) es la información, y no es toda verídica. Si la desinformación ya era un asunto problemático cuando surgieron las redes sociales, ahora escaló exponencialmente con la inteligencia artificial, que logra emular caras y voces en audios, fotos y videos de manera que parecen reales.
Si nos cruzamos ante una noticias sospechosas en redes sociales y queremos corroborar y estamos ante un infame caso de fake news, puede que nuestra respuesta sea "googlearlo". Este acción ya está asociada a investigar y a nuestra iniciativa de conocer más. Sin embargo, un estudio publicado el 20 de diciembre en la revista Nature encontró aquí un problema grave: los resultados de los motores de búsqueda (sobre todo si escribimos una palabra clave relacionada a una noticia falsa) pueden fomentar la desinformación.
Los experimentos
Tal como explica Scientific American, en cinco experimentos diferentes realizados entre finales del 2019 y 2022, los investigadores pidieron a un total de mil participantes en línea que categorizaran artículos de noticias puntuales como verdaderos, falsos o dudosos. A un subgrupo se le pidió que utilizara un motor de búsqueda antes de categorizar los artículos, mientras que a un grupo de control no. Al mismo tiempo, seis verificadores profesionales (fact-checkers) evaluaron los artículos para proporcionar definiciones.
En las distintas pruebas, los encuestados no profesionales tenían un 20 % más de probabilidades de calificar de verdadera la información falsa o engañosa después de que se les instara a buscar en internet. Esta pauta se mantuvo incluso en el caso de noticias muy destacadas y de las que se informaba mucho, como la pandemia de COVID, e incluso después de que hubieran transcurrido meses entre la publicación inicial de un artículo y el momento de la búsqueda de los participantes (cuando presumiblemente habría más comprobaciones en línea).
La importancia de las palabras clave
En uno de esos experimentos los investigadores también hicieron un seguimiento de los términos de búsqueda de los participantes y de los enlaces que aparecían en la primera página de los resultados de una consulta en Google. Descubrieron que más de un tercio de los encuestados estaban expuestos a información errónea cuando buscaban más detalles sobre artículos engañosos o falsos.
Frecuentemente, los términos de búsqueda de los encuestados contribuían a esos preocupantes resultados: los participantes utilizaron el titular o la URL de un artículo engañoso en aproximadamente uno de cada 10 intentos de verificación. En esos casos, más de la mitad de las veces aparecía en los resultados información errónea. Más de la mitad de las veces, aparecía en los resultados información errónea que trascendía el artículo original.
Para tener en cuenta un ejemplo concreto, uno de los artículos engañosos utilizados en el estudio se titulaba “U.S. faces engineered famine as COVID lockdowns and vax mandates could lead to widespread hunger, unrest this winter” (en español, EE.UU. se enfrenta a una hambruna organizada, ya que los bloqueos de COVID y las vacunas obligatorias podrían provocar hambre y disturbios generalizados este invierno).
Cuando los participantes incluyeron "engineered famine" (hambruna diseñada/organizada) ―término que suele ser utilizado específicamente por fuentes de noticias de baja calidad― en sus búsquedas, el 63 % arrojaron resultados poco fiables. En comparación, ninguna de las búsquedas que excluían la palabra "engineered" devolvía información errónea.
¿Qué se puede hacer desde la ciberseguridad?
Un representante de Google habló con la revista Scientific American sobre cuáles son las posibles respuestas al problema. Mientras que, como motor de búsqueda, Google supera a sus competidores en las medidas tomadas contra las noticias falsas, admiten que los vacíos de información constituyen un desafío para todas las empresas del rubro.
Por el momento, Google intenta diseñar su sistema "haciendo hincapié en la calidad y sin exponer a las personas a información perjudicial o engañosa", dijo el vocero. Entre las últimas herramientas desarrolladas con este objetivo, la compañía agregó una advertencia que aparece en algunos resultados de búsqueda cuando un tema de actualidad está evolucionando rápidamente y podría no arrojar aún resultados fiables.
¿Dónde nos deja parados el hallazgo?
Tal como reconocieron los investigadores y sus colegas, aunque es valioso e importante tener datos cuantitativos sobre la relación entre las búsquedas en internet y la difusión de la desinformación, este experimento se enfrenta a un problema epistemológico que acecha a las ciencias sociales desde su nacimiento: la imposibilidad de observar al objeto de investigación en su estado natural.
Dicho de manera más simple, estamos estudiando seres humanos que saben que están participando de un experimento (y así debe serlo siempre, gracias al principio de consentimiento informado). En este caso particular, según explicó el profesor de ciencias de la información de la Universidad de Pensilvania Danaë Metaxa, la gente podría haberse comportado de forma diferente si se les hubiera dado a elegir. En síntesis, el estudio no dio a los participantes la opción de buscar información sobre un tema o no. Como muchas otras, la investigación es un punto de partida en un tema que posiblemente sea central en los próximos años.
La socióloga Francesca Tripodi, de la Universidad de Carolina del Norte, sugirió que el estudio demostró algo que ya se intuía: "Este estudio aporta muchas pruebas empíricas de lo que muchos de nosotros veníamos teorizando. La gente suele dar por sentado que los resultados que aparecen primero en Google fueron verificados. Y aunque empresas tecnológicas como Google tratan de frenar la desinformación, muy seguido las cosas se les escapan de las manos".