Los LLM* transformarán la medicina, los medios de comunicación y más
(*) Por sus siglas en ingles de GRANDES MODELOS DE LENGUAJE

Extraido del The Economist del 13 de Agosto de 2024
La inteligencia artificial (IA) puede describirse como el arte de lograr que las computadoras hagan cosas que a los humanos les parecen inteligentes. En este sentido, ya es omnipresente.
El software de navegación por satélite utiliza algoritmos de búsqueda para encontrar la ruta más rápida desde su casa hasta ese nuevo restaurante; los aviones aterrizan solos; las cámaras de tráfico utilizan el reconocimiento óptico de caracteres para identificar las letras de la matrícula de un automóvil que va a toda velocidad; los termostatos ajustan sus configuraciones de temperatura en función de quién está en casa.
Todo esto es IA, incluso si no se comercializa como tal.
Cuando la IA funciona de manera consistente y confiable, dice un viejo chiste, simplemente se llama ingeniería. (A la inversa, dice otro chiste, la IA es lo que aún no funciona del todo).
La IA que acapara tanta atención mundial ahora, y absorbe enormes cantidades de potencia informática y electricidad, se basa en una técnica llamada “deep learning” (aprendizaje profundo). En el “deep learning”, se utilizan el álgebra lineal (en concreto, las multiplicaciones de matrices) y las estadísticas para extraer, y así aprender, patrones de grandes conjuntos de datos durante el proceso de entrenamiento. Los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) como Gemini de Google o GPT de OpenAI se han entrenado con grandes cantidades de texto, imágenes y vídeos y han desarrollado muchas capacidades, incluidas algunas “emergentes” para las que no se habían entrenado explícitamente (con implicaciones prometedoras, pero también preocupantes).
Ahora existen versiones más especializadas y específicas de dominio de dichos modelos para imágenes, música, robótica, genómica, medicina, clima, tiempo atmosférico, codificación de software y más.

Más allá de la comprensión humana
El rápido progreso en este campo ha llevado a predicciones de que la IA está “tomando el control del desarrollo de fármacos”, que “transformará todos los aspectos de la narración de historias de Hollywood” y que podría “transformar la ciencia misma” (todas afirmaciones hechas en este periódico durante el año pasado).
Se dice que la IA acelerará el descubrimiento científico, automatizará el tedio de los trabajos de oficina y conducirá a innovaciones maravillosas que aún no se pueden imaginar.
Se espera que la IA mejore la eficiencia e impulse el crecimiento económico. También podría desplazar puestos de trabajo, poner en peligro la privacidad y la seguridad y dar lugar a dilemas éticos. Ya ha superado la comprensión humana de lo que está haciendo.
Los investigadores todavía están tratando de entender lo que la IA podrá y no podrá hacer. Hasta ahora, los modelos más grandes, entrenados con más datos, han demostrado ser más capaces. Esto ha alentado la creencia de que seguir agregando más dará como resultado una mejor IA. Se han realizado investigaciones sobre “leyes de escala” que muestran cómo el tamaño del modelo y el volumen de datos de entrenamiento interactúan para mejorar los LLM. Pero ¿qué es un LLM “mejor”? ¿Es uno que responde correctamente a las preguntas o que presenta ideas creativas?

También es difícil predecir qué tan bien los sistemas y procesos existentes podrán hacer uso de la IA. Hasta ahora, el poder de la IA es más evidente en tareas discretas. Dale imágenes de una turba alborotadora y un modelo de IA, entrenado para este propósito específico, puede identificar rostros en la multitud para las autoridades. Si a un estudiante de derecho se le da un examen de derecho, obtendrá mejores resultados que a un estudiante de secundaria promedio. Pero el desempeño en tareas abiertas es más difícil de evaluar. Los grandes modelos de IA del momento son muy buenos para generar cosas, desde poesía hasta imágenes fotorrealistas, basándose en patrones representados en sus datos de entrenamiento. Pero esos modelos son menos buenos para decidir cuáles de las cosas que han generado tienen más sentido o son las más apropiadas en una situación dada. Son menos buenos en lógica y razonamiento. No está claro si más datos desbloquearán la capacidad de razonar de manera consistente, o si se necesitarán tipos de modelos completamente diferentes. Es posible que durante mucho tiempo los límites de la IA sean tales que se requiera el razonamiento de los humanos para aprovechar su poder.

Determinar cuáles son esos límites será importante en áreas como la atención médica. Si se usa correctamente, la IA puede detectar el cáncer antes, ampliar el acceso a los servicios, mejorar el diagnóstico y personalizar el tratamiento. Los algoritmos de IA pueden superar a los médicos humanos en esas tareas, según un metaanálisis publicado en abril en npj Digital Medicine. Pero su entrenamiento puede llevarlos por mal camino de maneras que sugieren el valor de la intervención humana. Por ejemplo, los modelos de IA son propensos a exacerbar el sesgo humano debido a los “cambios en la distribución de datos”; un modelo de diagnóstico puede cometer errores si se entrena principalmente con imágenes de la piel de personas blancas y luego se le da una imagen de la piel de una persona negra. La combinación de IA con un humano calificado resultó ser la más eficaz. El artículo mostró que los médicos que usaban IA pudieron aumentar la proporción de personas a las que diagnosticaron correctamente cáncer del 81,1% al 86,1%, al tiempo que aumentaron la proporción de personas a las que se les dijo correctamente que no tenían cáncer. Debido a que los modelos de IA tienden a hacer que los modelos de IA sean más efectivos, los modelos de diagnóstico pueden ser más efectivos si se les da una imagen de la piel de una persona negra.


A diferencia de los errores de los humanos, se ha visto que las asociaciones entre IA y humanos superan tanto a la IA como a los humanos solos.
El método robótico
Los humanos podrían ser menos necesarios para explorar nuevas hipótesis en la ciencia. En 2009, Ross King, de la Universidad de Cambridge, dijo que su objetivo final era diseñar un sistema que funcionara como un laboratorio autónomo o como un “científico robot”.
El científico de IA del Dr. King, llamado Adam, fue diseñado para elaborar hipótesis, utilizar su brazo robótico para realizar experimentos, recopilar resultados con sus sensores y analizarlos. A diferencia de los estudiantes de posgrado y los posdoctorados, Adam nunca necesita tomarse un descanso para comer o dormir. Pero los sistemas de IA de este tipo están (por ahora) restringidos a dominios relativamente estrechos, como el descubrimiento de fármacos y la ciencia de los materiales. Sigue sin estar claro si proporcionarán mucho más que ganancias incrementales con respecto a la investigación dirigida por humanos.

O pensemos en AlphaFold, una red neuronal profunda desarrollada por Google DeepMind. https://deepmind.google/ Entrenada con una enorme base de datos de proteínas, puede predecir de forma rápida y precisa las formas tridimensionales de las proteínas, una tarea que antes requería días de cuidadosa experimentación y medición por parte de los humanos. GNoME, otro sistema de IA desarrollado por DeepMind, está destinado a ayudar en el descubrimiento de nuevos materiales con propiedades químicas específicas
La IA también puede ayudar a dar sentido a grandes flujos de datos que de otro modo serían abrumadores para los investigadores, ya sea que se trate de examinar los resultados de un colisionador de partículas para identificar nuevas partículas subatómicas o mantenerse al día con la literatura científica. Es bastante imposible para cualquier humano, sin importar lo exigente que sea su lectura, digerir todos los artículos científicos que podrían ser relevantes para su trabajo.

Aun así, los modelos de IA no pueden crear ni resolver problemas por sí solos (o al menos todavía no). Son meros fragmentos de software elaborados, no sensibles ni autónomos. Dependen de que los usuarios humanos los invoquen y los soliciten, y luego apliquen o descarten los resultados. La capacidad revolucionaria de la IA, para bien o para mal, todavía depende de los humanos y del juicio humano.■
VER ARTICULO COMPLETO EN https://www.economist.com/schools-brief/2024/08/13/llms-will-transform-medicine-media-and-more