Leyendo:
“Tengo un amigo negro”: la inteligencia artificial generativa, el “sesgo” y la agenda «woke»
Artículo Completo 4 minutos de lectura

“Tengo un amigo negro”: la inteligencia artificial generativa, el “sesgo” y la agenda «woke»

Por Lalo Zanoni

En junio de 2015 un usuario descubrió que en Google Photos, la aplicación etiquetó automáticamente a dos de sus amigos negros afroamericanos como “gorilas”. En aquel momento la IA de Google no podía distinguir la piel oscura de una persona con la de un mono, un gorila o un chimpancé. Fue un gran escándalo, que hizo que Google pidiera disculpas públicas y se comprometiera a solucionar el error (lo hizo en 2017).

El culpable fue un sesgo algorítmico, que ahora, con el boom de la IA generativa, vuelve a estar en las agendas de las empresas tech, los medios y los eventos. ¿Qué son?

The New York Post puso a prueba el sesgo en Gemini y los resultados fueron sorprendentes

Se produce un sesgo cuando un sistema refleja los valores y la cultura de los humanos que lo desarrollaron y también en los datos usados para entrenar ese algoritmo. Hay sesgos raciales, de género, culturales, idiomáticos, étnicos y sexuales, entre otros.

Por ejemplo, si en una base de datos para una búsqueda de personal, el algoritmo evalúa, selecciona, elige y descarta currículums según criterios, estereotipos y preferencias de una persona humana, ese algoritmo contendrá los sesgos de esa persona. Sí, la IA también puede discriminar.

La semana pasada Google tuvo de nuevo un episodio con el sesgo. Pero esta vez no fue para discriminar a la raza negra sino a la blanca. Resulta que Gemini, su nueva plataforma de IA generativa, no genera imágenes de hombres blancos.

Inteligencia artificial generativa en la nube: datos y asistentes virtuales serán la clave del 2024

Para evitar que esta raza estuviera sobrerrepresentada, los programadores de Google se fueron al otro extremo de la corrección política y cancelaron a las personas blancas. Entonces los medios conservadores los acusaron de woke e izquierdistas.

El tema escaló hasta la portada del New York Post. “Lío en la historia! La IA de Google hace a los vikingos negros y al papa mujer”, titularon. Ahora Google puso una pausa en la generación de imágenes hasta solucionar el tema.

Mid Journey, Dall-e y otras plataformas generativas de imágenes también arrojan resultados con sesgos. Firefly, la IA de Adobe (Photoshop), por ejemplo, genera siempre personas sonriendo.

Los ejemplos sobran. El año pasado la periodista Caroline Mimbs Nyce de The Atlantic hizo una investigación que consistía en pedirle imágenes de mujeres y hombres sin ninguna especificación de edad, color de piel, pelo ni ojos a distintas plataformas. Los resultados en todos los casos fueron personas lindas, hegemónicas, casi modelos.

Cómo es Gemini, la nueva inteligencia artificial de Google «más grande y capaz»

Y otra investigación de Rest of the World de Victoria Turk analizó 3000 imágenes generadas con IA para demostrar que se propagan estereotipos de distintas culturas y países. Los resultados fueron sorprendentes.

Cuando le pidieron a la IA que genere imágenes de distintas muñecas Barbies de diferentes países, la del Líbano apareció posando entre escombros, la alemana con ropa militar y la de Sudán portaba un arma. Las personas indias tenían barba y las calles de Nueva Delhi eran todas de tierra, contaminadas y llenas de basura. En cambio, las personas “americanas” eran en su mayoría mujeres hegemónicas y blancas con banderas de EEUU de fondo.

Los sesgos en los algoritmos preocupan a gobiernos y organizaciones que intentan de alguna manera influir para regular y generar marcos legales. Uno es el Control de Protección de Datos Generales que la Unión Europea sancionó en 2018. Pero no alcanza.

Uno de los grandes desafíos que tiene la IA generativa respecto a sus sesgos es saber si las personas seremos capaces de desarrollar algoritmos y máquinas que no solo sean mejores que nosotros, sino más… humanos.

Ingresa las palabras claves y pulsa enter.