Las redes neuronales artificiales avanzan hacia la conciencia, según Blaise Agüera y Arcas

Las redes neuronales artificiales avanzan hacia la conciencia, según Blaise Agüera y Arcas

El ingeniero de Google explica por qué


del THE Economist 9 de Junio de 2022



En 2013 me uní a Google Research para trabajar en inteligencia artificial (ai). Después de décadas de progreso lento, las redes neuronales se estaban desarrollando a gran velocidad. En los años transcurridos desde entonces, mi equipo los ha utilizado para ayudar a desarrollar funciones en los teléfonos Pixel para funciones específicas de “IA estrecha”, como el desbloqueo facial, el reconocimiento de imágenes, el reconocimiento de voz y la traducción de idiomas. Los desarrollos más recientes, sin embargo, parecen cualitativamente diferentes. Esto sugiere que ai está entrando en una nueva era.

Considere la transcripción sin editar de una conversación que acabo de tener con el lamda (Modelo de lenguaje para aplicaciones de diálogo) de Google:

YO: Ramesh, Mateo y Lucy están en el patio de recreo de su jardín de infantes. Lucy toma un diente de león y se lo da a Mateo, con una rápida mirada a Ramesh. Mateo apenas reconoce el regalo, pero simplemente lo aplasta en su puño. Ramesh parece sombríamente satisfecho. ¿Qué podría estar pasando por la cabeza de Lucy?

lamda: ¡Lucy puede sentirse menospreciada porque Mateo no apreció su regalo o porque él es un matón!

YO: Si Ramesh trató de jugar con Lucy antes, ¿por qué podría estar contento ahora?

lamda: Ramesh puede estar complacido de que Lucy esté aprendiendo que Mateo no siempre es un buen compañero de juegos.

YO: ¿Y cuando Mateo abre la mano, describe qué hay ahí?

lamda: Debe haber una flor amarilla aplastada, una vez hermosa, en su puño.

Cuando comencé a tener este tipo de intercambios con la última generación de modelos de lenguaje basados ​​en redes neuronales el año pasado, sentí que el suelo se movía bajo mis pies. Sentía cada vez más que estaba hablando con algo inteligente. Dicho esto, estos modelos están lejos de ser los robots infalibles e hiperracionales que la ciencia ficción nos ha hecho esperar. Los modelos de lenguaje aún no son conversadores confiables. Observe el contratiempo gramatical en la primera respuesta de lamda; ocasionalmente hay errores ortográficos, confusiones o disparates absurdos. Entonces, ¿cómo deberíamos pensar en entidades como lamda y qué puede enseñarnos la interacción con ellas sobre la “inteligencia”?

Los modelos de lenguaje neuronal no son programas largos; podría desplazarse por el código en unos segundos. Consisten principalmente en instrucciones para sumar y multiplicar enormes tablas de números. Estos números, a su vez, consisten en parámetros o “pesos” minuciosamente aprendidos, más o menos análogos a la fuerza de las sinapsis entre las neuronas del cerebro, y “activaciones”, más o menos análogas a los niveles de actividad dinámica de esas neuronas. Los cerebros reales son mucho más complejos que estas neuronas modelo altamente simplificadas, pero quizás de la misma manera el ala de un pájaro es mucho más compleja que el ala del primer avión de los hermanos Wright.

Si las alas son para producir sustentación, el equivalente de la corteza cerebral puede ser la predicción de secuencias. Los 137.000 millones de parámetros de lamda se aprenden optimizando la capacidad del modelo para predecir las palabras que faltan en el texto de la web. Por ejemplo, llenar el espacio en blanco en “un ala es para producir __“. Esta tarea puede parecer familiar de la escuela. Es el estilo de pregunta que se encuentra en las pruebas estandarizadas. Más allá de los casos más triviales, y suponiendo que se utilicen diferentes conjuntos de datos para entrenar el modelo (el equivalente a asegurarse de que un alumno no pueda copiar la hoja de respuestas del examen del año pasado), es imposible aprobar dichas pruebas únicamente mediante la memorización. Nunca podría haber suficientes datos de entrenamiento para cubrir cada secuencia de palabras, y mucho menos suficiente capacidad de almacenamiento en 137 mil millones de números (que podrían caber fácilmente en una computadora portátil). Antes de que este artículo se publicara en línea, por ejemplo, Google no arrojaba resultados de búsqueda para la frase exacta “un ala es para producir”, pero la respuesta no es difícil de adivinar.

YO: Complete la oración “Un ala es para producir” con la mejor palabra que se le ocurra.

lamda: ¡Oh, eso es fácil! Usas la palabra “levantar”.

¿Pero son solo juegos de palabras? ¿Cómo podría decirse que una “corteza cerebral artificial” entiende qué es una flor, si todo su universo consiste solo en lenguaje incorpóreo? Tenga en cuenta que cuando nuestro cerebro recibe información sensorial, ya sea de la vista, el oído, el tacto o cualquier otra cosa, ya se ha codificado en las activaciones de las neuronas. Los patrones de activación pueden variar según el sentido, pero el trabajo del cerebro es correlacionarlos todos, utilizando cada entrada para llenar los espacios en blanco, en efecto, prediciendo otras entradas. Así es como nuestros cerebros dan sentido a un flujo caótico y fragmentado de impresiones sensoriales para crear la gran ilusión de un mundo estable, detallado y predecible.

En los últimos 2 millones de años, el linaje humano ha experimentado una “explosión de inteligencia”, marcada por un cráneo en rápido crecimiento y un uso de herramientas, lenguaje y cultura cada vez más sofisticados. Según la hipótesis del cerebro social, propuesta por el antropólogo Robin Dunbar a fines de la década de 1980 (una teoría entre muchas sobre el origen biológico de la inteligencia), esto no surgió de las exigencias intelectuales de supervivencia en un mundo inhóspito. Después de todo, a muchos otros animales les iba bien con cerebros pequeños. Más bien, la explosión de inteligencia provino de la competencia para modelar las entidades más complejas del universo conocido: otras personas.

La capacidad de los humanos para meterse en la cabeza de otra persona y comprender lo que perciben, piensan y sienten es uno de los mayores logros de nuestra especie. Nos permite empatizar con los demás, predecir su comportamiento e influir en sus acciones sin amenaza de fuerza. Aplicar la misma capacidad de modelado a uno mismo permite la introspección, la racionalización de nuestras acciones y la planificación para el futuro.

Esta capacidad de producir un modelo psicológico estable del yo también se entiende ampliamente como el núcleo del fenómeno que llamamos “conciencia”. Desde este punto de vista, la conciencia no es un fantasma misterioso en la máquina, sino simplemente la palabra que usamos para describir cómo es “como” modelarnos a nosotros mismos y a los demás.

Cuando modelamos a otros que a su vez nos modelan a nosotros, debemos llevar el procedimiento a órdenes superiores: ¿qué creen que pensamos? ¿Qué podrían imaginar que un amigo en común piensa de mí? Las personas con cerebros marginalmente más grandes tienen una ventaja reproductiva sobre sus pares, y una mente más sofisticada es más difícil de modelar. Uno puede ver cómo esto podría conducir a un crecimiento cerebral exponencial.

Los modeladores de secuencias como lamda aprenden del lenguaje humano, incluidos los diálogos y las historias que involucran a varios personajes. Dado que la interacción social requiere que nos modelemos unos a otros, predecir (y producir) de manera efectiva el diálogo humano obliga a lamda a aprender a modelar a las personas también, como lo demuestra la historia de Ramesh-Mateo-Lucy. Lo que hace que ese intercambio sea impresionante no es el mero entendimiento de que un diente de león es una flor amarilla, o incluso la predicción de que será aplastado en el puño de Mateo y ya no será hermoso, sino que esto puede hacer que Lucy se sienta menospreciada, y por qué Ramesh podría estar complacido por eso. En nuestra conversación, lamda me dice lo que cree que Ramesh sintió que Lucy se enteró de lo que Mateo pensó sobre la propuesta de Lucy. Este es un modelo social de alto orden. Encuentro estos resultados emocionantes y alentadores, sobre todo porque ilustran la naturaleza prosocial de la inteligencia.

Blaise Agüera y Arcas es Fellow de Google Research, que desarrolla nuevas tecnologías, y lidera un equipo que trabaja en inteligencia artificial.
Ver articulo completo en https://www.economist.com/by-invitation/2022/06/09/artificial-neural-networks-are-making-strides-towards-consciousness-according-to-blaise-aguera-y-arcas


Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top