Leyendo:
“La violación de Taylor Swift”: el machismo, el delito y los límites de la inteligencia artificial
Artículo Completo 12 minutos de lectura

“La violación de Taylor Swift”: el machismo, el delito y los límites de la inteligencia artificial

Por Ryan Smith, de Newsweek

Las representaciones pornográficas de Taylor Swift en fotografías de inteligencia artificial (IA) que circularon en las redes sociales esta semana resaltan no solo un problema tecnológico floreciente, sino también la práctica centenaria de la simple misoginia.

En un momento en que la exitosa carrera de Swift la ha visto dominar el panorama de la cultura pop, la cantante se ha convertido en un tema de conversación sobre una serie de imágenes humillantes y sexualmente explícitas en las que aparece, a pesar de que no posó para ninguna de ellas.

Las imágenes fueron creadas con el uso de IA, generadas a través de software de inteligencia artificial mediante indicaciones de texto. Esto se puede hacer sin el consentimiento de una persona. El software para crear este tipo de imágenes está ampliamente disponible.

EEUU busca regular la inteligencia artificial usando una ley de la Guerra Fría

Entre las imágenes de inteligencia artificial de Swift que circularon había algunas que la mostraban posando de manera inapropiada mientras estaba en un juego de los Kansas City Chiefs, un guiño desagradable a su romance con el ala cerrada del equipo de la NFL, Travis Kelce.

Las imágenes ofensivas se originaron en el sitio web pornográfico de celebridades de AI Celeb Jihad el 15 de enero. Posteriormente fueron compartidas en X, anteriormente Twitter, esta semana, acumulando millones de visitas y provocando un animado debate antes de que se suspendieran las cuentas asociadas.

Poco después de que se eliminaran las imágenes de X, se informó que Swift está considerando emprender acciones legales. Newsweek se comunicó con un representante de Swift por correo electrónico para solicitar comentarios.

Si bien el sistema legal no se ha puesto al día con esta amenaza emergente de que este tipo de imágenes inunden los espacios de acceso público, eso podría cambiar con el tiempo. El martes, dos legisladores reintrodujeron un proyecto de ley que convertiría en delito federal el intercambio no consensuado de imágenes pornográficas alteradas digitalmente.

Creó una modelo con Inteligencia Artificial y los famosos la invitan a salir porque creen que es real

El representante Joseph Morelle, un demócrata de Nueva York, fue el primer autor de la «Ley de prevención de deepfakes de imágenes íntimas» en mayo de 2023, que según dijo en ese momento se creó «para proteger el derecho a la privacidad en línea en medio de un aumento de la inteligencia artificial y la tecnología digital». Contenido manipulado.» Desde entonces ha añadido al representante Tom Kean, un republicano de Nueva Jersey, como copatrocinador.

Sarah Klein, abogada de la firma Manly, Stewart & Finaldi, con sede en California, se encuentra entre quienes respaldan una demanda de Swift y le dijo a Newsweek que lo que le sucedió al músico «nunca debería sucederle a ninguna mujer. Es abuso, simple y llanamente». Taylor definitivamente debería emprender acciones legales».

Y si bien Swift puede salir victoriosa de un tribunal dentro de unos meses, es casi seguro que enfrenta una batalla de décadas para ser vista como algo más que un objeto sexual para sus detractores. Después de todo, innumerables mujeres de alto perfil antes que ella se han visto obligadas a soportar ese trato, aunque no sea a través de IA.

HUMILLAR A MUJERES DE ALTO PERFIL

Jeffrey R. Dudas, Ph.D., profesor de ciencias políticas en la Universidad de Connecticut, dijo a Newsweek que «desafortunadamente, este tipo de sexualización es común como medio para humillar o intentar disciplinar a mujeres de alto perfil”. “Consideremos, por ejemplo , con qué frecuencia [la representante de Nueva York] Alexandra Ocasio-Cortez ha sido blanco de esto exactamente, incluso por parte de miembros republicanos del Congreso».

Taylor Swift. Foto: REUTERS/Mario Anzuoni

Swift, dijo Dudas, ha tenido problemas con personas que se identifican con reinos muy alejados de su mundo musical. Y una facción de estas personas, incluidas mujeres, ha expresado su aparente disgusto retratando a la estrella como inferior.

«Creo que no es una coincidencia que este episodio en particular surja en el momento exacto en que Taylor ha sido cada vez más el blanco de la ira de la derecha», dijo Dudas, «tanto por su [bastante leve] defensa política como por su afiliación informal con la NFL, lo que realmente parece desencadenar la ira de un tipo particular de persona que visualiza el fútbol como una especie de bastión de la masculinidad pasada de moda.

«En todos los casos, este tipo de humillación/disciplina es una respuesta a una sensación [percibida] de amenaza: amenazas que tienen menos que ver con las mujeres mismas y más con lo que las mujeres representan, con la autonomía y la agencia femeninas. principal entre esas cosas».

Haciéndose eco de este sentimiento, Amanda Manyame, asesora en derecho y derechos digitales de Equality Now, dijo a Newsweek: «El abuso sexual basado en imágenes deepfake refleja los patrones históricos de explotación y abuso sexual experimentados por las mujeres. La explotación y el abuso sexual en los ámbitos físico y digital operan juntos en un Son parte de la misma estructura de violencia arraigada en la desigualdad de género y la misoginia sistémica que perpetúa la subordinación de las mujeres en la sociedad».

Cómo es «Maharaja in Denims», la película hecha íntegramente con inteligencia artificial

En 2014, Jennifer Lawrence, Kate Upton y Cara Delevingne estaban entre una serie de estrellas femeninas cuyas imágenes reales de desnudos fueron tomadas desde sus iClouds de Apple pirateados y filtradas en línea para el consumo público. Los detractores argumentaron que las fotos no podrían haberse filtrado si no se hubieran tomado. Otros retrocedieron, junto con las propias estrellas, insistiendo en que se les debería brindar privacidad como a cualquier otra persona.

Cuando Kamala Harris competía por su puesto como vicepresidenta en 2020, su mera participación en un debate contra el entonces titular Mike Pence provocó un aumento en el número de personas que buscaban su nombre en Google junto con términos como «desnudo», «traje de baño» y » bikini.»

Un estudio sobre la candidata a la vicepresidencia de 2008, Sarah Palin, publicado en el Journal of Experimental Social Psychology, encontró que objetivar a la ex gobernadora de Alaska centrándose en su apariencia la hacía parecer menos competente y menos «completamente humana» a los ojos de 133 participantes. También hizo que los voluntarios fueran menos propensos a votar por la candidatura de John McCain-Palin en las elecciones presidenciales de 2008.

Desafortunadamente, Swift sigue una línea larga.

TIEMPO PARA CAMBIAR

Evan Nierman, director ejecutivo de la firma global de relaciones públicas Red Banyan, dijo a Newsweek que este episodio degradante podría convertirse en una oportunidad para que Swift siente un precedente y dé la vuelta al proverbial barco.

Taylor Swift. Foto: REUTERS/Andrew Kelly/File Photo

Las imágenes de IA, dijo Nierman, «irónicamente pueden resultar una bendición, ya que probablemente serán el catalizador de políticas más rápidas y de mayor alcance para prevenir y actuar contra este tipo de contenido. Desafortunadamente, este molesto problema va a empeorar exponencialmente en los próximos años”.

«Como una de las personas más poderosas del planeta, Swift está en una posición única para llevar este importante desafío generado por la IA a la cima de la conciencia pública, exponiendo las peligrosas y repugnantes consecuencias de las imágenes falsas generadas por máquinas”.

«La IA provocará toda una nueva generación de problemas y amenazas, y el hecho de que Swift se haya visto envuelto en esta controversia tan pronto probablemente significará que el tema se convierta en un foco urgente de atención para las empresas de tecnología, los responsables políticos, los medios y el público en general”.

Manyame, de Equity Now, ve la controversia actual como un ensayo general de lo que está por venir, dada una tormenta perfecta de factores que incluyen las elecciones presidenciales de este año. Dado que la desinformación ya abunda en el panorama de las redes sociales, el uso indebido de la imagen de una persona famosa es una práctica que se prevé que aumentará. «Taylor’s no es el primero y definitivamente no será el último», dijo Manyame.

Siwei Lyu, profesor de informática e ingeniería de la Universidad de Buffalo, describió el problema como que la tecnología de IA «se ha vuelto deshonesta».

Atribuyó el aumento de imágenes de IA sexualizadas a tres factores: el desarrollo de modelos de IA más nuevos que no requieren grandes datos de entrenamiento ni mucho tiempo para entrenar; plataformas de redes sociales que proporcionan estos datos y permiten que las imágenes se difundan rápidamente; y la aparición de herramientas de inteligencia artificial que son fáciles de usar para alguien sin muchos conocimientos de programación.

«El problema es ciertamente motivo de gran preocupación debido al efecto de difamación», dijo Lyu a Newsweek.

«Si se utilizan contra individuos [conocido como pornografía de venganza], también pueden causar un tremendo trauma psicológico a las víctimas [casi todas las víctimas de la pornografía de venganza son mujeres]. Creo que la solución radica en (1) la tecnología para detectar y atribuir dichos deepfake imágenes; (2) leyes que protegen a las personas del uso no autorizado de sus imágenes o voz para crear pornografía ultrafalsa».

EFECTO PROFUNDO

Emma Pickering, jefa de abuso facilitado por la tecnología y empoderamiento económico en la organización sin fines de lucro Refuge de abuso doméstico del Reino Unido, señaló que también hay un factor humano involucrado en ese comportamiento que a menudo se pasa por alto.

Cuatro deudas de la inteligencia artificial

«Las imágenes íntimas falsificadas tienen un impacto profundo y duradero en los sobrevivientes», dijo Pickering a Newsweek. «Este tipo de imágenes falsas pueden dañar la salud y el bienestar de una persona al causar un trauma psicológico y sentimientos de humillación, miedo, vergüenza y vergüenza. Compartir estos deepfakes íntimos también puede dañar la reputación de una persona, afectar sus relaciones y afectar su empleabilidad”.

«Los supervivientes de deepfakes no consensuados u otros abusos de imágenes íntimas pueden temer por su seguridad personal, ya que experimentan un aumento del acoso, el acecho y las agresiones dentro y fuera de línea».

Dado el coro de siniestras advertencias sobre el dominio que la IA tendrá en el futuro cercano, la situación de Swift ha aumentado las expectativas de una pronta reforma legislativa.

El senador Mark Warner, demócrata de Virginia y presidente del Comité de Inteligencia del Senado, escribió en una publicación X el jueves que «la ley actual puede aislar a las plataformas y sitios web exactamente de este tipo de responsabilidad. Quiero aprobar la reforma de la Sección 230 para que podamos mantener «Las empresas tecnológicas son responsables de permitir que este contenido repugnante prolifere».

Aprobada en 1996, la Sección 230 de la Ley de Decencia en las Comunicaciones ofrece un grado de inmunidad a los sitios web respecto de cualquier contenido subido por terceros, ya sea en forma de publicación en redes sociales, anuncio clasificado o reseña de usuario. Otorga a los sitios que actúan de «buena fe» la protección para eliminar cualquier material objetable, independientemente de si está «protegido constitucionalmente». La ley es amplia y dice que las reglas se aplican a cualquier «proveedor o usuario de un servicio informático interactivo».

Las tres palabras clave de la inteligencia artificial, según Google

Sin embargo, la sección 230 no ofrece una protección general total y existen exenciones, lo que significa que es posible presentar demandas en casos penales y de propiedad intelectual.

Respaldando los llamados a la acción, Manyame dijo que existe «una necesidad urgente de marcos legales para confrontar y combatir el abuso sexual falso». Las medidas legales también deben reconocer y abordar el continuo daño experimentado por las mujeres.

«El contenido digital puede difundirse a través de múltiples plataformas y países, lo que dificulta su eliminación o seguimiento, y las leyes de protección en un país no serían suficientes para proteger a todas las víctimas en todo el mundo», afirmó.

«Las respuestas y mecanismos nacionales deben estar respaldados por respuestas internacionales fuertes e interconectadas. El sector tecnológico también debe desempeñar un papel al no promover este contenido en sus plataformas y eliminarlo, especialmente cuando se ha denunciado como contenido ofensivo».

Sin embargo, Nierman, autor de The Cancel Culture Curse y Crisis Averted, advierte que la IA ya tiene los pies firmemente debajo de la mesa de creación de contenidos.

«Las imágenes generadas por IA cambiarán la vida tal como la conocemos, acabando con la antigua noción de que ‘ver para creer’, dijo. «Es de esperar que surja un área legal completamente nueva a medida que el mundo se apresura a lidiar con la Implicaciones de un nuevo conjunto de problemas graves causados por la inteligencia artificial. No hay manera de volver a meter al genio de la IA en la botella, por lo que debemos apresurarnos a promulgar leyes y tácticas policiales basadas en tecnología para ponernos al día con esta nueva realidad».

Publicado en cooperación con Newsweek

Ingresa las palabras claves y pulsa enter.