Hay investigadores de IA que creen que las falsificaciones serán indetectables

De The Economist del 17 de Enero de 202

Rishi Sunak es el primer ministro de Gran Bretaña. Si se puede confiar en algunos anuncios en Facebook (cosa que no es así), también parece estar criticando planes de enriquecimiento rápido. Uno de esos anuncios muestra al Sr. Sunak respaldando una aplicación supuestamente desarrollada por Elon Musk, un hombre de negocios, en la que los espectadores pueden hacer “ahorros” regularmente. El vídeo es falso.
Generado con la ayuda de IA, es sólo uno de los 143 anuncios de este tipo catalogados por Fenimore Harper Communications, https://www.fenimoreharper.com/  una empresa británica, que se publicó en diciembre y enero.
No son sólo aquellos que están en el ojo público quienes pueden utilizar sus imágenes para fines dudosos. En junio de 2023, la Oficina Federal de Investigaciones de Estados Unidos advirtió al público sobre “actores maliciosos” que utilizan la IA para crear vídeos e imágenes falsos de temática sexual de personas comunes y corrientes con el fin de extorsionar.
Cómo detectar tales engaños es un tema candente entre los investigadores de la IA, muchos de los cuales asistieron a Neurips https://nips.cc/ , una de las conferencias más importantes del campo, celebrada en Nueva Orleans en diciembre. Una gran cantidad de empresas, desde nuevas empresas hasta gigantes tecnológicos establecidos como Intel y Microsoft, ofrecen software cuyo objetivo es detectar medios generados por máquinas. Mientras tanto, los fabricantes de grandes modelos de inteligencia artificial están buscando formas de poner marcas de agua en sus resultados para que las imágenes, videos o textos reales puedan distinguirse fácilmente de los generados por máquinas.

Pero hasta ahora estas tecnologías no han demostrado ser confiables. Los ai cognoscenti parecen pesimistas acerca de sus perspectivas. The Economist llevó a cabo una encuesta (profundamente poco científica) entre los delegados de Neurips. De 23 personas preguntadas, 17 pensaron que los medios generados por IA eventualmente se volverían indetectables. Sólo uno creía que sería posible una detección fiable. (Los otros cinco objetaron y prefirieron esperar y ver). El software de detección se basa en la idea de que los modelos de IA dejarán un rastro. O no podrán reproducir algún aspecto de imágenes y videos reales, o de texto generado por humanos, o agregarán algo superfluo, y lo harán con la frecuencia suficiente para permitir que otro software detecte el error. Durante un tiempo, los humanos pudieron hacer el trabajo. Hasta mediados de 2023, por ejemplo, los algoritmos de generación de imágenes a menudo producían personas con manos malformadas o acertaban con los números en cosas como las esferas de los relojes. Hoy en día, los mejores ya no sirven. Pero estos indicios a menudo todavía existen, incluso si cada vez son más difíciles de detectar para los humanos. Así como se pueden entrenar máquinas para identificar de manera confiable gatos o tumores cancerosos en escáneres médicos, también se pueden entrenar para diferenciar entre imágenes reales y imágenes generadas por inteligencia artificial.

Sin embargo, parece que no pueden hacerlo del todo bien.
El software de detección es propenso a generar falsos positivos (marcar erróneamente el contenido humano como generado por IA) y falsos negativos (permitir que el material generado por máquinas pase sin ser detectado). Una preimpresión publicada en septiembre por Zeyu Lu, un científico informático de la Universidad Jiao Tong de Shanghai, encontró que el programa con mejor rendimiento no lograba detectar correctamente imágenes generadas por computadora el 13% de las veces (aunque eso era mejor que los humanos, que se equivocó en el 39% de los casos). Las cosas no van mucho mejor cuando se trata de texto. Un análisis, publicado en diciembre en el International Journal of Educational Integrity, comparó 14 herramientas y encontró que ninguna logró una precisión superior al 80%. Si intentar detectar medios generados por computadora a posteriori es demasiado complicado, otra opción es etiquetarlos de antemano con una marca de agua digital. Al igual que con la clasificación del papel, la idea es agregar una característica distintiva que sea lo suficientemente sutil como para no comprometer la calidad del texto o la imagen, pero que sea obvia para cualquiera que la busque.

Ver nota completa en https://www.economist.com/science-and-technology/2024/01/17/many-ai-researchers-think-fakes-will-become-undetectable

Scroll to Top