Temor o esperanza. Progreso o involución. Dependencia o independencia. Esos son los debates que hoy giran alrededor de la inteligencia artificial. A partir del lanzamiento al público de herramientas como Chat GPT de Open IA o Bard de Google, las discusiones se acentuaron en los medios de comunicación y en los encuentros sociales.
Tal es el caso que la revista Le Point, de Francia, decidió convocar a un debate a dos referentes del momento. Por un lado, Yuval Harari, el filósofo y escritor de Sapiens - best-seller mundial - y, por otro lado, Yann LeCun, informático y jefe de investigación de Meta. En la entrevista online, uno desde Jerusalém y otro de Nueva York, ambos expresaron sus opiniones y, spoiler, no estuvieron tan de acuerdo.
Para comenzar el encuentro, ambos dieron su definición de la inteligencia. Para LeCun la inteligencia es ser capaz de percibir una situación, planificar una respuesta y actuar para alcanzar un objetivo. Mientras que Harari planteó que la inteligencia es la capacidad de resolver problemas.
Aclaró que esta inteligencia se puede ver en organismos como las plantas y las máquinas pero que lo que continúa distinguiendo a los seres humanos es su conciencia y la capacidad que tienen de sentir dolor, angustia, tristeza, felicidad. LeCun contradijo esta afirmación y dijo que todavía las máquinas no tienen esa facultad, pero que pronto sí y que incluso podrían ser más inteligentes que los humanos. “Si tienen la habilidad de planear objetivos también tendrán la equivalencia de tener sentimientos ya que muy a menudo las emociones no son más que una anticipación de los resultados”.
Harari, desde el conocimiento de la evolución del hombre, afirmó en el debate: “Las máquinas están progresando en otro camino de la evolución. En los humanos, como los mamíferos y los pájaros, la conciencia y la inteligencia van de la mano en la medida en que resolvemos problemas al tener sentimientos”. En cualquier caso, el pensador explicó que podría haber otras rutas para la inteligencia que sea superior a la humana pero que aún así no incluye sentimientos.
Así, la pregunta viró hacia cuál es el riesgo de esta evolución para los humanos. LeCun tiene una visión muy positiva de la polémica: no considera que la IA pueda ser peligrosa para la democracia, por ejemplo. La gente no debería sentirse amenazada sino que más bien empoderada por este progreso. Sin embargo, para él, el peligro principal reside en que estas herramientas no estén abiertas al público y que la gente no las pueda entender ni estudiar.
“La pregunta es, ¿en qué manos de quién está?”, retrucó Harari. “Podría ser maravilloso pero en las manos incorrectas podría destruir la democracia”. Sobre este punto desarrolló el hecho de que si la conversación humana entre dos personas está intervenida por la IA eso “destruiría” el sistema democrático.
El disparador siguiente para los expertos se orientó a la idea de que los humanos dejen el poder que tienen de decisión y lo depositen en una máquina de IA. LeCun comenzó su reflexión diciendo que hoy en día ya hay muchas de las decisiones (no tan importantes) que son tomadas por máquinas. “Toda herramienta puede usarse para cosas buenas o cosas malas. Al final, es el usuario quién determina lo que hacen los algoritmos, porque estos se adaptan automáticamente a los deseos de los usuarios”.
Harari contradijo esto fuertemente. Desglosó la metáfora utilizada por el informático y dijo: “La decisión siempre está en las manos de los humanos”. En esta línea, explicó que la inteligencia artificial es la primera herramienta que potencialmente nos puede reemplazar en la toma de decisiones: “El peligro acá es sustancial porque es más probable que hagamos errores”, continuó.
Los grandes temores que están en auge en la sociedad son con respecto al “reemplazo” del ser humano en ciertas tareas. Sobre esta polémica, LeCun coincide que las tecnologías desplazan el trabajo humano pero, a la vez, los hace más productivos. “La cantidad de ingresos producidos por hora aumenta. Al final, la gente estará haciendo más plata”. Harari confirmó que nuevos trabajos aparecerán y que otros se extinguirán. Lo que a él le preocupa es el “proceso de transición” ya que muchas personas podrían sufrir en el camino.
La pregunta es entonces: ¿es necesaria una pausa? LeCun, desde su perspectiva como jefe de investigación, explicó que una “pausa” no detendría ningún peligro. Para Harari, sí es necesaria una pausa para que la sociedad pueda identificar los daños y decidir que hacer al respecto. “Hemos lanzado estas nuevas herramientas de IA y tomará años para la sociedad entender el impacto en dimensiones como la política, economía”, confesó.
A su vez, ¿es necesaria una regulación como con las armas nucleares? Para LeCun esta idea puede sonar un poco lejana. “La IA ayuda a las personas a ser más inteligentes y creativas, mientras que las armas nucleares matan personas”. Mientras que Harari si explica implícitamente que necesita una regulación. “¿Diseñamos la IA para hacer a las personas más inteligentes o para controlarlas?”
Por último, ¿estamos en control de esta tecnología? Aún así, según el filósofo israelí, pero podríamos no estarlo en muy poco tiempo. Para completar su afirmación profundiza que la IA es la primera herramienta en la historia que toma decisiones por sí misma, puede crear contenido e ideas.
Estas conversaciones nos brindan un panorama más amplio sobre los peligros, riesgos, advertencias de la IA. Invitan a pensar y a poder comprender con más profundidad un tema que está alcanzando todas las dimensiones de nuestra vida.