Elon Musk la quiere detener y a la vez desarrollar. Los peligros de liberar o dominar la Inteligencia Artificial

Pasó de ser "un riesgo profundo para la humanidad" al mejor negocio del siglo. Qué está en juego detrás de esta nueva tecnología. Todo lo que tenés que saber sobre la investigación que no se detuvo.

En marzo de 2022, Elon Musk pidió detener la investigación en Inteligencia Artificial (IA) junto a otros líderes tecnológicos. A través de una carta dijeron que este desarrollo significaba “riesgos profundos para la sociedad y la humanidad”. Desde un aumento en el desempleo hasta la sublevación robótica, el imaginario colectivo teme a las consecuencias de esta línea de investigación. Sin embargo, no parece que esta vaya a detenerse pronto. De hecho, en abril Musk anunció el lanzamiento de su propio proyecto de IA.

Cabe responder algunas preguntas: ¿Cuáles son los modelos de IA que tanto están dando que hablar? ¿Cuáles son los riesgos de seguir investigando? ¿Es posible detener la investigación?

Las redes neuronales

En los años 70, la inteligencia artificial funcionaba como cualquier otro programa de computadora: una serie de instrucciones escritas por un ser humano en un lenguaje particular. Su único rasgo distintivo era que las instrucciones en estos programas describían cómo resolver un problema “intelectual”.

Por ejemplo, para construir una IA que pudiera detectar una infección bacteriana, había que escribir todas las preguntas que el sistema tenía que hacer, y especificar cada diagnóstico a responder una vez procesadas las respuestas del paciente. Por ejemplo, la programadora debía escribir “si el paciente responde que tiene fiebre, dolor en el pecho y tos, diagnosticar neumonía”. Estos modelos se llamaban “sistemas expertos”, porque programarlos requería conocimiento experto. Sin embargo, no era suficiente contar con un especialista en la tarea a automatizar: Hacía falta poder describir con lujo de detalle cómo ejecutar la tarea.

Hay muchas tareas que no podemos describir de esta manera. Por ejemplo, no podemos verbalizar las instrucciones precisas para andar en bicicleta. Tampoco podemos exponer cómo identificar una emoción en un rostro o qué estamos haciendo al escribir y responder texto. Son cosas que hacemos por práctica e intuición, pero nos es imposible aprenderlas al escuchar instrucciones.

En Cenital nos importa que entiendas. Por eso nos propusimos contar de manera sencilla una realidad compleja. Si te gusta lo que hacemos, ayudanos a seguir. Sumate a nuestro círculo de Mejores amigos.

Para poder automatizar este tipo de tareas, en los años 80 un científico llamado Geoffrey Hinton decidió apostar por una idea concebida 30 años antes por Marvin Minsky, y todavía recibida con escepticismo por la comunidad científica: las redes neuronales.

La idea detrás de las redes neuronales es dejar de intentar simular nuestras mentes para pasar a simular nuestros cerebros. Así, no hace falta saber describir precisamente cómo identificar un rostro. Basta crear un conjunto de neuronas al que se le puedan mostrar imágenes de rostros hasta que el sistema aprenda a reconocerlos por su cuenta.

Para ello, hay que programar solamente dos cosas:

  1. La forma en que se conectan un montón de neuronas artificiales (qué neuronas se conectan con qué neuronas).
  2. La forma en que se actualiza la “fuerza” con que una neurona recibe la señal de su neurona vecina (así aprenden las redes neuronales).

Una vez programadas estas dos reglas, el sistema se entrena usando datos. Si se equivoca al resolver un problema, fortalece algunas conexiones y debilita otras, hasta que la interacción de las señales en la red neuronal termine resolviendo el problema adecuadamente.

Con las redes neuronales, nació el problema de la opacidad de la Inteligencia Artificial. Antes del desarrollo de esta tecnología, leer el programa de un sistema experto permitía saber cómo actuaría en cualquier situación, porque llevaba escritas todas las instrucciones con lujo de detalle. Lo que pasa ahora es que el programa de una red neuronal solo muestra un conjunto de neuronas conectadas, y eso lo vuelve incomprensible, impredecible, y por lo tanto, peligroso.

En mayo del 2022, cincuenta años después de comenzar esta línea de investigación, Geoffrey Hinton abandonó su cargo en Google para poder hablar libremente contra los riesgos de su obra.

Los grandes modelos de lenguaje

En el año 2017, se introdujo una nueva arquitectura para las redes neuronales. En otras palabras, se descubrió un modo nuevo de conectar neuronas entre sí: los transformers. Estos modelos incorporan grupos de neuronas entrenados para “abstraer” información, volviéndose extremadamente eficaces para procesar texto. Resulta que, como lo observaba Jorge Luis Borges en Funes el memorioso, olvidar los detalles es fundamental para aprender.

En 2018, Open AI introdujo el primer modelo de GPT y Google introdujo BERT, dos modelos de lenguaje basados en transformers. Por el gran tamaño de estas redes neuronales y la enorme cantidad de datos requeridos para entrenarlas, se los llama “Grandes Modelos de Lenguaje” o LLMs (por las siglas en inglés de Large Language Models).

Estos modelos son excelentes procesadores de texto. Y dar instrucciones, tomar una decisión, escribir un programa, una fórmula de Excel, un informe o un artículo periodístico son tareas de procesamiento de texto. Notablemente, gran parte de las tareas de oficina pueden reducirse a procesamiento de texto.

A fines de 2022, Open AI presentó ChatGPT, una plataforma conversacional que permite darle indicaciones de lo que queremos que haga usando lenguaje natural. La tecnología generó un interés explosivo a nivel mundial. Ahora, diversas organizaciones piden detener la investigación antes de que sea demasiado tarde.

El problema de la investigación

En mayo de 2022, Elon Musk y 1.000 líderes de la industria firmaron la carta abierta del Future of Life Institute, pidiendo seis meses de pausa a la investigación en IA. Curiosamente, Elon fue cofundador de Open AI, la empresa que desarrolló ChatGPT, pero tuvo que abandonar su cargo tras una puja de poder.

La carta alegaba que estas herramientas presentaban “riesgos profundos” para la humanidad, y que las empresas están “encerradas en una carrera descontrolada para desarrollar e implementar mentes digitales cada vez más poderosas que nadie –ni siquiera sus creadores — pueden comprender, predecir o controlar”. Esta última observación se refiere a la opacidad de las redes neuronales.

Los firmantes pedían establecer protocolos compartidos entre empresas, y proponían que si la pausa no se efectuaba voluntariamente, los gobiernos debían intervenir para imponerla. En resumen, la investigación debería detenerse hasta que se tuvieran garantías de que los efectos de la investigación fueran positivos y los riesgos controlables.

Algunos días después, el 5 de abril del 2022, la Asociación para el Avance de la Inteligencia Artificial publicó su propia carta, enumerando una serie de riesgos asociados a la IA que incluyen los sesgos, la tendencia a las “alucinaciones”, la posibilidad de empoderar actores malvados, y su impacto potencial sobre nuestros trabajos.

Sam Altman, CEO de Open AI, no firmó ninguna de las dos cartas.

Los riesgos de continuar la investigación

Los riesgos enumerados por los expertos no son descabellados, tienen su razón de ser. Algunos se basan en límites técnicos de las redes neuronales. Otros, en sus habilidades extraordinarias. Algunos riesgos son genuinos, algunos son poco realistas, y algunos parecen alarmas convenientes para preservar intereses.

Veamos de qué se tratan los riesgos más conocidos de la inteligencia artificial.

  • Los sesgos

Las redes neuronales se entrenan automáticamente. Aprenden solas, a partir de los datos con que las alimentamos. Si entrenamos una IA con las sentencias judiciales de los últimos 20 años, nuestra IA va a recomendar sentencias tan racistas y/o machistas como las que usó para aprender. Los grandes modelos de lenguaje están entrenados con información de internet, que está plagada de discursos de odio.

Además, algunos sesgos son difíciles de identificar. Es fácil observar un sesgo que esperamos ver, pero ¿quién se daría cuenta si nuestra IA discrimina contra las personas que prefieren el té al café, o las personas que nacen en invierno en lugar de en primavera?

  • La corrección política

Comercializar una inteligencia artificial abiertamente racista sería difícil. Por eso, Open AI se ocupó de clasificar como incorrectas las conclusiones que consideró sesgadas durante el proceso de entrenamiento. Como resultado, ChatGPT solo dice lo que para sus dueños es conocimiento objetivo.

Por supuesto, distintas personas discrepan en qué es objetivo y qué no. Definir qué dice la inteligencia artificial consultada por todo el mundo implicará un poder extraordinario. En oposición a ello, Elon Musk anunció Truth GPT, una IA que, según él, no tendrá la corrección política como imposición.

  • Las alucinaciones

Las redes neuronales aprenden de los datos. Luego se observa cómo responden a una serie de preguntas para ver si aciertan. De no acertar, se las vuelve a entrenar, hasta considerar que funcionan bien.

Eventualmente, estos modelos salen al mundo, pero todavía pueden equivocarse. A diferencia de los sistemas expertos, no se puede predecir qué harán en cualquier situación. Cuando un modelo de lenguaje se equivoca, puede hacer una recomendación errada o comunicarnos un dato equivocado. Dependiendo de cómo se use y cuánto se confíe en la IA, estas alucinaciones pueden generar grandes daños.

  • Los usos indebidos

Uno de los riesgos más citados por los líderes de la academia y la industria es que la IA podría distribuir poder que no debería ser distribuido. Por ejemplo, podría ayudar a cualquiera a comprar armas ilegales o planificar un atentado terrorista.

Esta posibilidad fue lo primero que Open AI eliminó de ChatGPT.

El temor a los usos indebidos es frecuente ante tecnologías de gran impacto. Por ejemplo, con el surgimiento de Crispr y la biología sintética se temió el uso terrorista por la fácil modificación genética para la producción de armas biológicas. Autores como Nick Bostrom han llegado a esgrimir estos riesgos en favor de la vigilancia global. En la práctica, el principal efecto de dichas tecnologías fue acrecentar el poder de empresas como Monsanto.

  • La automatización

Mucha gente teme más al uso debido que al indebido. Automatizar el trabajo podría aumentar el desempleo y la pobreza, o en su defecto, generar una nueva ola de concentración de poder económico.

Los trabajos en mayor riesgo de ser automatizados por modelos de lenguaje son los que se pueden reducir a procesamiento de texto (dame texto, te devuelvo texto). Managers, programadores, analistas, y la mayor parte de los trabajos de oficina entran en esta categoría.

Los trabajos manuales aún están a salvo, porque la motricidad fina del ser humano es difícil de automatizar. Los transformers, la arquitectura detrás de los grandes modelos de lenguaje, no han tenido aplicaciones tan exitosas en robótica.

  • La sublevación robótica

Después, está el temor a una IA rebelde, suelta o incontrolable, que no podamos apagar aunque queramos. Un temor a lo Ex Machina, o tantas obras de ciencia ficción muy lejanas a la realidad.

En general, este miedo está asociado a la inteligencia artificial general. La IA general no solo es capaz de hacer muy bien una tarea específica, como crear una imagen o procesar un texto, sino que, como las personas, es capaz de cambiar de contexto y tarea de acuerdo a sus necesidades para cumplir un objetivo.

Sin embargo, la IA general todavía está lejos.

Lo cierto es que las personas tendemos a antropomorfizar las cosas. Así como nos es muy fácil ver rostros en objetos inanimados, nos es fácil ver inteligencia aparentemente humana en procesadores de texto. Podemos inclinarnos a pensar que la capacidad de procesar texto se traslada a otras áreas, pero no es así. ChatGPT es un procesador de texto. Exagerando mucho sus capacidades, podría hacer todos los oficios y tareas vinculadas a procesar texto, pero nada más.

Open AI ya anunció que tienen un “killswitch” para ChatGPT, es decir, la capacidad de apagarla en caso de que algo funcione mal, lo cual eliminaría la amenaza del robot sublevado que nadie puede detener: no existe no poder apagar un procesador de texto. Existe no querer apagarlo.

Es por esto que no es un riesgo que ChatGPT se subleve. Sí es un riesgo que tenga efectos adversos para algunas personas, y beneficios demasiado extraordinarios para otros, como para que sus dueños o la sociedad le pongan un freno. Algo similar a lo que ocurre con otro tipo de industrias.

  • El Winner Takes All

El riesgo menos mencionado por quienes propusieron detener la investigación es la dinámica de Winner Takes All (en castellano, “el ganador se lleva todo). Que básicamente significa que quien primero domina una tecnología se queda con el mercado.

Esta dinámica se da en todos los negocios en los cuales tener más usuarios da ventaja para obtener aún más usuarios. El ejemplo más claro son las redes sociales: si una red social tiene el doble de usuarios que otra, permite conectarse con más gente, lo que nos inclina más a usarla. Por ese motivo, la red va a obtener más usuarios aún. A la larga, todos tienden a usar la misma plataforma. Luego, el riesgo a la venta de datos personales como el de Cambridge Analytica, o unos términos y condiciones abusivos, son preferibles a ir a una red social que no usa nadie.

El Winner Takes All se suele dar en las plataformas cuyo servicio es conectarnos con otras personas, porque las que tienen más usuarios nos conectan con más personas (como MercadoLibre, Rappi, Uber, Facebook o TikTok). Pero también existe cuando tener más usuarios permite darle un mejor servicio a todos ellos.

Por ejemplo, una plataforma de streaming con diez usuarios no puede ofrecer muchas películas, pero una con cien millones de usuarios puede comprar y hasta crear su propio contenido. Esto lleva a que las personas terminemos usando la plataforma que más usuarios tiene.

En la inteligencia artificial, esta dinámica se da en el proceso de aprendizaje por refuerzo: en él, las personas comunican si la inteligencia artificial ejecutó correctamente su tarea. Cuanto más se usa una IA, más puede mejorar su servicio. El mejor servicio permite atraer más usuarios.

La primera empresa en conseguir usuarios regulares amenaza quedarse con todo. El resto de los líderes de la industria no tiene otra opción que pedir seis meses de prórroga.

¿Se puede dejar de investigar?

Se puede dejar de investigar. Sólo hace falta apagar la computadora. El problema es que no se puede garantizar que otros dejen de hacerlo.

Incluso si hoy los laboratorios acuerdan que lo mejor sería andar más lento, a ninguno le conviene ser el primero en hacerlo. Si el de al lado no se detiene, o no se detiene tanto, obtendrá ventaja para conquistar el poder extraordinario que dará la IA.

A nivel internacional, la desconfianza mutua entre potencias como los Estados Unidos, Rusia y China dificultan la regulación estatal. Basta con que un país desconfíe de que su vecino haya detenido la investigación para que comience a investigar: de otro modo, le estaría dando una ventaja sustancial en un juego en que el ganador se lleva todo.

Salvo que haya confianza plena en el resto, lo racional sería traicionar el trato. Las condiciones no están dadas para la confianza.

Filósofo y computólogo, apasionado por entender y mejorar la relación entre tecnología y sociedad.