Leyendo:
Aseguran que los accidentes por culpa de la inteligencia artificial se multiplicarán este año
Artículo Completo 6 minutos de lectura

Aseguran que los accidentes por culpa de la inteligencia artificial se multiplicarán este año

Por Rob Minto, de Newsweek

A medida que el mundo comienza a ampliar los límites y el uso de los sistemas de IA, hay un aumento correspondiente en los accidentes, casi accidentes e incluso muertes creados por la IA. Dichos incidentes, que van desde accidentes automovilísticos sin conductor hasta sistemas de chat que crean contenido racista, aumentarán rápidamente, según los expertos que rastrean los problemas de IA.

El desarrollo y la implementación de los sistemas de IA en 2023 es notable: desde que OpenAI lanzó chatGPT, ha habido prisa por crear modelos de aprendizaje en muchos campos, incluida la generación de imágenes, tareas automatizadas, finanzas y otras áreas. Pero con el aumento exponencial en el despliegue de IA viene un rastro correspondiente de lo que podría describirse mejor como “eventos desafortunados”, algunos con consecuencias trágicas.

¿La inteligencia artificial está poniendo en riesgo a la humanidad? Elon Musk pide frenar su desarrollo

La base de datos de incidentes de IA rastrea errores, cuasi accidentes e incidentes críticos causados por los sistemas de IA y abarca algunos eventos impactantes. En general, hay más de 500 incidentes y, como muestra el gráfico a continuación, están aumentando rápidamente. Para 2022, la base de datos tiene 90 incidentes. Solo durante los primeros tres meses de 2023, ya hay 45, lo que significa que, al ritmo actual, estamos en camino de alcanzar alrededor de 180 en 2023, si el uso de la IA se mantuviera constante, lo que claramente no es así.

Sean McGregor, fundador del proyecto AI Incident Database y Ph.D. en aprendizaje automático, le dijo a Newsweek: “Esperamos que los incidentes de IA se dupliquen con creces en 2023 y nos estamos preparando para un mundo en el que es probable que los incidentes de IA sigan alguna versión de la ley de Moore».

En 2018 un avión de Lion Air se estrelló por un error en su computadora de navegación (AFP PHOTO / SONNY TUMBELAKA, via NA)

La ley de Moore fue la predicción del cofundador de Intel, Gordon Moore, en 1965 de que la cantidad de transistores en un circuito se duplicaría cada dos años y, por lo tanto, la velocidad y la capacidad informática aumentarían como resultado de la misma manera. La trayectoria de los incidentes relacionados con la IA es clara.

El uso más generalizado de la IA creará más oportunidades de error, pero como explicó McGregor, no hay forma de medir cuánta IA se está implementando en este momento como se puede hacer en otros sectores comerciales: «Por milla, la aviación es más segura que nunca. El problema con el análisis de tendencias de incidentes de IA es que nadie tiene una gran medida de la ‘distancia’ que recorre la IA. Sabemos que la cantidad de sistemas inteligentes en el mundo se está disparando, pero nadie puede decir: ‘La IA es un 30% más seguro que el año anterior’, porque solo observamos los fracasos y no los éxitos».

Algunas de esas fallas son socialmente inaceptables pero no fatales, como cuando el software de Google Fotos etiquetó a las personas negras como «gorilas» en 2015, o una herramienta de reclutamiento que Amazon tuvo que cerrar en 2018 por ser sexista cuando marcó a las candidatas.

Otros son fatales: un robot de la planta de Volkswagen mató a un trabajador al sujetarlo a una placa de metal; y en 2019, un conductor de un Tesla Model S en modo de piloto automático supuestamente pasó una luz roja y chocó contra otro automóvil, matando a dos personas en Gardena, Los Ángeles.

También se incluye en la lista el vuelo fatal de Lion Air de 2018 que mató a las 189 personas a bordo. El Boeing 737 se estrelló en el mar después de que los datos defectuosos del sensor provocaran que un sistema de maniobra automatizado empujara repetidamente la nariz del avión hacia abajo.

La base de datos comienza con un caso en el que nos salvamos por milagro y que habría sido mucho más importante que cualquier cosa que la humanidad haya enfrentado: lo más cerca que ha estado el mundo de una guerra nuclear total. En septiembre de 1983, un teniente coronel soviético de la Fuerza de Defensa Aérea llamado Stanislav Petrov decidió que el sistema de alerta de misiles que había determinó cinco misiles estadounidenses que se dirigían a la Unión Soviética era una falsa alarma.

Por qué Bill Gates no quiere que se detenga el desarrollo de la inteligencia artificial

Si hubiera informado de la advertencia como un ataque, el sistema existente en ese momento habría provocado una represalia inmediata con misiles nucleares. No hubo tiempo para verificar, y mucho menos para intentar canales diplomáticos, y la guerra nuclear habría comenzado entre los EEUU y la Unión Soviética, causando muchos millones de muertes y el fin de gran parte de la civilización. No es exagerado decir que Petrov «salvó el mundo» tal como lo conocemos.

¿La causa del error? El sistema confundió la luz del sol reflejada en las nubes. Sin embargo, Petrov fue reprendido por sus superiores y reasignado a un puesto de menor importancia.

McGregor dijo: «Una gran parte de lo que estamos haciendo en este momento es prepararnos para un mundo donde los incidentes de IA son increíblemente comunes… Corresponde a los responsables políticos, los actores comerciales y la humanidad en general que construyamos la infraestructura social necesaria para doblar esa curva hacia abajo».

La base de datos de incidentes de IA está a cargo de The Responsible AI Collaborative, una organización sin fines de lucro creada para ayudar a que la IA sea más segura. La base de datos es de código abierto y cuenta con una red de voluntarios en todo el mundo.

Publicado en cooperación con Newsweek

Ingresa las palabras claves y pulsa enter.