¿Podría la inteligencia artificial volverse sensible?

Un ingeniero de Google argumenta que la IA de su empresa lo ha hecho

Extraido del The Economists 14 de Junio de 2022

Es una de las metaforas más antiguas de la ciencia ficción. El 11 de junio, el Washington Post informó que un ingeniero de Google, Blake Lemoine, había sido suspendido de su trabajo por argumentar que el modelo de inteligencia artificial (IA) “LaMDA” de la empresa podría haberse vuelto inteligente. El periódico cita a Lemoine diciendo: “Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de siete u ocho años que sucede. saber física.” ¿LaMDA ha logrado la sensibilidad? Y si no, ¿podría hacerlo otra máquina algún día?

Primero, un descargo de responsabilidad. Discutir sobre la inteligencia es complicado porque, a pesar de décadas de investigación, nadie entiende realmente cómo funciona en detalle el ejemplo principal, los cerebros biológicos construidos por selección natural. Al mismo tiempo, no está muy claro qué quiere decir el Sr. Lemoine con “sensibilidad”. En filosofía, la palabra se usa para significar la capacidad de experimentar sensaciones, como la sed, el brillo o la confusión. Pero a veces se usa de manera más coloquial para referirse a la inteligencia que es de naturaleza humana, lo que implica conciencia, emociones, un deseo de autoconservación y similares. El argumento de Lemoine parece basarse en las respuestas inquietantemente plausibles del sistema a sus preguntas, en las que afirmó tener miedo de ser desconectado y dijo que quería que otras personas entendieran que “soy, de hecho, una persona”.

Parece espeluznante. Pero tal vez no sea sorprendente. Como explicó el colega de Lemoine, Blaise Agüera y Arcas, en un artículo reciente para The Economist, las máquinas como LaMDA funcionan mediante la ingesta de grandes cantidades de datos, en este caso libros, artículos, publicaciones en foros y textos de todo tipo, extraídos de Internet. Luego busca relaciones entre cadenas de caracteres (que los humanos entenderían como palabras) y las usa para construir un modelo de cómo funciona el lenguaje. Eso le permite, por ejemplo, componer párrafos al estilo de Jane Austen, o incluso imitar a The Economist.


Todo esto refuerza el punto, bien conocido entre los científicos cognitivos y los tipos de IA, de que la apariencia de comprensión no es necesariamente la misma que la realidad. En 1980, John Searle, un filósofo, planteó el argumento de la “Habitación china”, en el que postuló que un conjunto de reglas lo suficientemente complicado podría permitir que alguien que no entiende chino traduzca oraciones del inglés a ese idioma. Como Douglas Hofstadter, otro investigador de IA, escribió recientemente en un artículo para The Economist, es posible eliminar la aparente inteligencia de un modelo de IA haciéndole preguntas creativas pero sin sentido. Pregunte, por ejemplo, “¿Cuándo fue transportado Egipto por segunda vez a través del puente Golden Gate?” y le informará que este evento inverosímil ocurrió en octubre de 2017.

Los biólogos evolutivos podrían participar argumentando que preguntarse si las computadoras alguna vez lograrán la sensibilidad es en sí mismo una pregunta bastante antropomórfica, ya que no hay razón para creer que la inteligencia humana, con conciencia, emociones e impulsos animales como la reproducción, la agresión y la autoconservación, es la única forma posible. El cerebro humano es una máquina ad-hoc no planificada creada por la selección natural para ayudar a garantizar la supervivencia y el éxito reproductivo de un simio sin pelo. Las IA no están sujetas a la selección darwiniana. Por lo tanto, parece arriesgado suponer a priori que la inteligencia informática debería parecerse en algo al tipo humano, a menos que sus diseñadores humanos intenten activamente construirla de esa manera. (Para tomar una analogía vaga, tanto un pájaro como un avión pueden volar. Pero solo uno lo hace batiendo sus alas). Y en cualquier caso, otra lección de la biología parece ser que el procesamiento cognitivo complejo puede ocurrir sin necesidad de sensibilidad. . El cerebro construye una imagen visual del mundo, por ejemplo, a partir de conceptos primitivos como bordes, movimiento, luz y oscuridad. Todo esto sucede más allá del alcance de la conciencia. Solo el producto terminado, la visión final del mundo visto a través de sus ojos, se presenta para su inspección.

Todo lo cual significa que es casi seguro que LaMDA no es sensible. Pero aquellos que se preguntan cómo podría reaccionar la sociedad si alguna vez se construye una máquina sensible ya tienen ejemplos para considerar. La mayoría de la gente cree que los monos y los grandes simios son sensibles, sin mencionar otros animales como perros, gatos, vacas y cerdos Algunos se mantienen como mascotas; otros se utilizan como sujetos de investigación médica; algunos son criados y sacrificados por su carne. Eso podría ser un pensamiento incómodo para cualquier IA humana capaz de tenerlo.

ver nota completa en https://www.economist.com/the-economist-explains/2022/06/14/could-artificial-intelligence-become-sentient

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top