Los grandes modelos multimodales son un tipo de inteligencia artificial que puede aceptar más de un tipo de entrada de datos, como textos, vídeos e imágenes, y generan diversos productos. También imitan de manera excepcional la comunicación humana y tienen capacidad para desempeñar tareas para las que no se les ha programado de manera específica.
Este tipo de IA está en plena expansión, por ejemplo, está presente en modelos como ChatGPT, Bard y Bert. Además, empieza a tener usos y efectos en el ámbito de la salud. Por eso, la Organización Mundial de la Salud (OMS) publicó más de 40 recomendaciones para los gobiernos, las empresas tecnológicas y los proveedores de atención de salud. El objetivo es garantizar el uso adecuado de los grandes modelos multimodales en la promoción y protección de la salud de las poblaciones.
"Las tecnologías de IA generativa tienen el potencial de mejorar la atención de salud, pero esto solo es posible si quienes las desarrollan, regulan y utilizan identifican los riesgos asociados y los tienen en cuenta. Necesitamos información transparente y políticas para gestionar el diseño, desarrollo y uso de los grandes modelos multimodales para mejorar los resultados de salud y superar las inequidades persistentes en materia de salud", declaró en un comunicado de prensa el Dr. Jeremy Farrar, Director Científico de la OMS.
¿Cuáles son los usos de la IA en la saud?
La OMS describe cinco grandes aplicaciones generales de estos modelos multimodales en el ámbito de la salud:
- Diagnóstico y atención clínica, como dar respuesta a las preguntas escritas de los pacientes.
- Uso guiado por el paciente, como la investigación sobre los síntomas y el tratamiento.
- Tareas administrativas y de oficina, como documentar y resumir las visitas de los pacientes en los registros de salud electrónicos.
- Formación de personal médico y de enfermería, por ejemplo, para que los estudiantes puedan simular visitas con pacientes.
- Investigación científica y desarrollo de medicamentos, incluida la identificación de compuestos nuevos.
¿Cuáles son sus principales riesgos?
La desinformación es uno de los principales riesgos de la inteligencia artificial a grandes rasgos y en todos los aspectos en los que juega un rol importante (en política, salud, periodismo, entre otros). En este sentido, la OMS advierte que estos modelos podrían emitir declaraciones falsas, inexactas, sesgadas o incompletas, teniendo resultados perjudiciales cuando las usamos para tomar decisiones de salud.
Incluso puede que los grandes modelos multimodales estén entrenados con información de baja calidad o con sesgos, por ejemplo, vinculados a la raza, la etnia, la ascendencia familiar, el sexo, la identidad de género o la edad. Por último, al igual que otras formas de IA, también son vulnerables a los riesgos para la ciberseguridad que podrían poner en peligro la información de los pacientes o la fiabilidad de los algoritmos y la prestación de atención de salud en sentido general.
¿Cómo se puede prevenir los riesgos?
En primer lugar, para crear grandes modelos multimodales que sean seguros y eficaces, la OMS subraya la necesidad de que las diversas partes interesadas (Gobiernos, empresas tecnológicas, proveedores de atención de salud, pacientes y la sociedad civil) participen en todas las etapas del desarrollo y el despliegue de estas tecnologías, incluidas su supervisión y regulación.
Si bien la OMS ya había publicado un documento con orientaciones para los grandes modelos multimodales de IA generativa en 2021, este agrega recomendaciones especialmente orientadas a a los Gobiernos, que son los principales responsables de establecer las normas para el desarrollo y el despliegue de los grandes modelos multimodales, así como de su integración y uso con fines médicos y de salud pública (además de tener en cuenta su desarrollo y aplicación en los últimos años).
En cuanto a las recomendaciones básicas para los desarrolladores de los grandes modelos multimodales, se incluye que:
- Los usuarios potenciales y todas las partes interesadas directas e indirectas, incluidos los proveedores de servicios médicos, los investigadores científicos, los profesionales de la atención de salud y los pacientes, deben participar en el proceso desde las etapas más tempranas del desarrollo de la IA de manera estructurada, inclusiva y transparente, y tener la oportunidad de plantear dilemas éticos, expresar sus preocupaciones y aportar información para la aplicación de la IA que se esté evaluando.
- Los grandes modelos multimodales están diseñados para desempeñar tareas muy definidas con la precisión y fiabilidad necesarias para mejorar la capacidad de los sistemas de salud y promover los intereses de los pacientes. Los desarrolladores también deben ser capaces de predecir y comprender los posibles resultados secundarios.