Los vehiculos autonomos conducen “a ciegas”

Por Julia Angwin Colaboradora de Opinión y periodista de investigación en The New York Times del 11 de Octubre de 2023

Este mes en San Francisco, una mujer sufrió lesiones traumáticas al ser atropellada por un conductor y arrojada al camino de uno de los cientos de vehículos autónomos que deambulaban por las calles de la ciudad. La jefa de bomberos de San Francisco, Jeanine Nicholson, testificó recientemente que hasta agosto, los vehículos autónomos interfirieron con las tareas de extinción de incendios 55 veces este año. El software de piloto automático de Tesla, un sistema de asistencia al conductor, ha estado involucrado en 736 accidentes y 17 muertes en todo el país desde 2019.

A pesar de todo el revuelo sobre la posibilidad de que la inteligencia artificial amenace a la humanidad algún día, hay muy poca discusión sobre las formas en que está amenazando a la humanidad en este momento. Cuando se trata de vehículos autónomos, conducimos a ciegas.

La razón es simple: no existen estándares federales de prueba de seguridad de software para vehículos autónomos, una laguna jurídica lo suficientemente grande como para que Elon Musk, General Motors y Waymo conduzcan miles de automóviles. La Administración Nacional de Seguridad del Tráfico en las Carreteras regula el hardware (como limpiaparabrisas, bolsas de aire y espejos) de los automóviles vendidos en los Estados Unidos. Y los estados son responsables de otorgar licencias a los conductores humanos. Para ganarnos el derecho a conducir un automóvil, la mayoría de nosotros en algún momento tenemos que aprobar un examen de la vista, un examen escrito y un examen de manejo. La IA no se somete a tal escrutinio gubernamental antes de tomar el mando. En California, las empresas pueden obtener un permiso para operar automóviles sin conductor declarando que sus vehículos han sido probados y que “el fabricante ha determinado razonablemente que es seguro operar el vehículo”.


“Existe una extraña brecha entre quién está a cargo de otorgar la licencia de un controlador de computadora: ¿es la N.H.T.S.A. ¿O el Estado?” pregunta Missy Cummings, profesora y directora del Centro Mason de Robótica y Autonomía de la Universidad George Mason. Hay una ironía en esto: muchos titulares se han centrado en el temor de que las computadoras se vuelvan demasiado inteligentes y arrebaten el control del mundo a los humanos, pero en nuestra realidad, las computadoras a menudo son demasiado tontas para evitar hacernos daño. Las empresas de vehículos autónomos argumentan que, a pesar de sus mal funcionamiento publicitados, su software sigue siendo mejor que el de los conductores humanos. Eso podría ser cierto (después de todo, los vehículos autónomos no se cansan, no conducen ebrios ni envían mensajes de texto y conducen), pero aún no tenemos los datos para tomar esa determinación. Los autos autónomos cometen otro tipo de errores, como detenerse de manera que bloqueen a las ambulancias y inmovilizar a la víctima de un accidente.

El mes pasado, los representantes Nancy Pelosi y Kevin Mullin escribieron una carta a la N.H.T.S.A. pidiendo a la agencia que exija más datos sobre incidentes de vehículos autónomos, particularmente aquellos que involucran vehículos detenidos que obstaculizan a los trabajadores de emergencia. También sería útil disponer de más datos comparativos sobre accidentes automovilísticos provocados por personas; la N.H.T.S.A. proporciona sólo estimaciones de accidentes basadas en muestreo.
Pero ¿por qué no podemos ir más allá de la recopilación de datos?
Después de todo, la A.I. A menudo comete errores sorprendentes. Este año, uno de los autos Cruise de GM se estrelló contra un autobús articulado después de predecir incorrectamente su movimiento. GM actualizó el software después del incidente. El año pasado, un automóvil autónomo frenó bruscamente mientras giraba a la izquierda porque parecía haber pensado que un automóvil que se aproximaba iba a girar a la derecha en su camino. En cambio, el vehículo que venía en sentido contrario chocó contra el vehículo sin conductor detenido. Los pasajeros de ambos coches resultaron heridos.
“Los sistemas de visión por ordenador de estos coches son extremadamente frágiles. Fracasarán de maneras que simplemente no entendemos”, dice el Dr. Cummings, quien ha escrito que A.I. debe estar sujeto a requisitos de licencia equivalentes a las pruebas de visión y rendimiento a las que se someten los pilotos y conductores. Por supuesto, el problema no se limita a los coches. Cada día aprendemos sobre una forma diferente en que la A.I. Los chatbots están fracasando, ya sea inventando jurisprudencia o acosando sexualmente a sus usuarios. Y llevamos mucho tiempo lidiando con los fallos de la IA. sistemas de recomendación, que en ocasiones han recomendado piezas de armas y parafernalia de drogas en Amazon, que restringe dichos artículos, o han impulsado contenido ideológicamente sesgado en YouTube.
A pesar de todos estos ejemplos de daño del mundo real, muchos reguladores siguen distraídos por los escenarios de desastre distantes y, en algunos casos, inverosímiles, creados por la IA.

Ver nota completa en https://www.nytimes.com/2023/10/11/opinion/driverless-cars-san-francisco.html?smid=nytcore-ios-share&referringSource=articleShare

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top