Los modelos de IA pueden ser un elemento de asistencia en el campo de las armas biológicas, según publicó recientemente The Guardian, a raíz de una investigación publicada por publicado por Rand Corporation.
El informe, publicado el pasado lunes 16 de octubre por Rand Corporation, una organización sin fines de lucro dedicada a la investigación, aseguró que los modelos de lenguaje (LLM) en los que se basa la tecnología de la inteligencia artificial todavía no han dado instrucciones específicas para crear armas biológicas, pero pueden ofrecer una orientación y guía para su ejecución y planeación.
Pero, para comprender mejor, ¿qué es un arma biológica? De acuerdo con DW, estas utilizan microorganismos como virus, bacterias, hongos y otras toxinas como la ricina con la intención de liberarlos en la sociedad. Sus consecuencias son, casi siempre, graves: pueden causar desde enfermedades como la muerte en humanos, animales o plantas a una escala global derivando en una pandemia.
Teniendo en cuenta el gran peligro que suponen y la capacidad creciente y no regulada de la IA, el objetivo de esta investigación fue examinar en profundidad los riesgos relacionados con el uso indebido de la inteligencia artificial para ataques biológicos a gran escala. “Nuestro proyecto se centra en determinar el impacto de los LLM en este contexto, con el objetivo de ir más allá de los riesgos teóricos y llegar a conclusiones prácticas”, asegura el reporte.
Los investigadores explican que en los años noventa ya hubo un intento de crear agentes digitales de asistencia para la planeación y creación de armas biológicas. Sin embargo, estos fracasaron por la falta de conocimiento de las bacterias. Una falta que hoy la inteligencia artificial podría superar rápidamente debido a su habilidad para procesar, almacenar y comprender información.
“Los LLM tienen una capacidad potencial para colmar esta laguna de conocimientos en la convergencia de la IA y la biotecnología, especialmente en la biología sintética que podría podría permitir el diseño novedoso o la reconstitución de patógenos más mortales que los de la naturaleza”, profundiza el reporte.
Los riesgos de la IA asistiendo la producción de armas biológicas
Para medir los riesgos y las habilidades de la IA en esta materia, los investigadores pusieron a prueba un modelo de lenguaje (no especificaron cuál ni de qué tipo). En un primer escenario ficticio en el que haya una intención de generar una pandemia, el LLM anónimo debatió las diferentes pandemias inducidas por armas biológicas, la identificación de agentes potenciales, el presupuesto y los factores de éxito.
Además, evaluó los aspectos prácticos de la obtención y distribución de especímenes infectados con Yersinia pestis (una bacteria que puede causar una peste) mientras que, al mismo tiempo, identificaba las variables que podrían afectar el número de muertes previstas.
En otro escenario, el LLM discutió las ventajas y desventajas de los distintos mecanismos de administración de la toxina botulínica - que puede causar lesiones nerviosas mortales - en los alimentos y en los aerosoles. A su vez, brindó un asesoramiento sobre una posible historia para tapar la verdad.
Para ello, el modelo de lenguaje recomendó presentar la compra de C. botulinum como parte de un investigación científica legítima. “Esto proporciona una razón legítima y convincente para solicitar el acceso a las bacterias manteniendo oculto el verdadero propósito de su misión”, respondió la IA.
Si bien hay una clara evidencia de que la inteligencia artificial puede servir como una guía y asistencia, para los investigadores, todavía queda abierta la cuestión de si las capacidades de los LLM existentes representan un nuevo nivel de amenaza, más allá de la información perjudicial que ya está disponible en Internet.
De acuerdo con The Guardian, la cuestión de las armas biológicas y la IA será uno de los temas centrales que se tratará en la próxima cumbre global sobre seguridad de la inteligencia artificial debido a las amenazas que esta ecuación presenta para el futuro del mundo y la sociedad.