«El algoritmo: ¿Quién decide por nosotros?», este es el título del cuarto libro del autor y divulgador tecnológico Joan Cwaik en el que nos invita a tomar conciencia y a reflexionar sobre el mundo tecnológico, un mundo que parece perfecto y hecho a nuestra medida para ofrecernos todo lo que deseamos, pero que según nos advierte en esta charla con Newsweek Argentina, está lleno de trampas invisibles, que definen quiénes somos, qué queremos y hacia dónde vamos.
¿Qué es un algoritmo?, vos das una definición técnica y una social
-El primer capítulo de este libro tiene por objetivo definir al algoritmo. Hay una definición genérica que es un conjunto de pasos necesarios para para llegar a un resultado determinado. Podríamos decir que el algoritmo es como una especie de receta.
En la práctica social esos pasos para llegar a un resultado determinado son cada vez más personalizados, cada vez más autónomos. Planteo una hipótesis provocadora propia, que es que entiendo al algoritmo como algo que está mediando el dato de la realidad constantemente.
Funcionan como arquitectos o guionistas invisibles de muchas decisiones que terminamos tomando nosotros, creyendo que son propias, pero que al fin y al cabo, están dirigidas por algo o por alguien que es superior a nosotros.
Esa injerencia social del algortimo, ¿Cómo influye en el día a día del ser humano?
-Creo que hoy en día estamos viviendo una brecha de desigualdad algorítmica porque si en el siglo XX quienes nos sabían leer y escribir quedaban afuera del sistema, en el siglo XXI toda la gente que no termina de entender de forma 100% clara cómo funcionan estos algoritmos, que tanto interfieren en nuestra vida cotidiana: desde los vínculos de amistad hasta qué político estamos eligiendo, terminan teniendo una vulnerabilidad que muestra una brecha muy grande de ese conocimiento algorítmico.
Son mucho más manipulables y si bien esa manipulación no es la primera vez que sucede, hoy está muy personalizada.
Hablás de trampas invisibles que manejan esas decisiones que en realidad el ser humano piensa que toma de manera autónoma. ¿Qué son esas trampas y cómo nos damos cuenta?
-Esas trampas son esos pequeños actos en los que terminamos cayendo todos nosotros todos los días y están vinculadas a la búsqueda de nuestra atención, para que permanezcamos en la aplicación, no vayamos a la «realidad» y nos quedemos en esa dimensión virtual.
Estamos viviendo en un mercado de la atención muy grande: todos están compitiendo por nuestra atención de una forma permanente y sino tenés las herramientas para entender a qué te estás sometiendo o la conciencia social o cultural quedás de alguna forma atrapado.
Esas trampas terminan redefiniendo muchas cosas de la vida cotidiana, lo que concebís como verdad, cómo te vinculás con la amistad, cómo entendés al amor, al político que vas a elegir.
Me refiero a las trampas como concepto metafórico de todos estos mecanismos de automatización que proponen las aplicaciones y las grandes plataformas por nuestra atención permanente.
Y si algo es gratis, lo estamos pagando con nuestro tiempo. Tampoco es algo nuevo en el mundo de la tecnología, pero hoy se marca cada vez más.
Otro concepto tuyo es el de dieta digital, que así como cuidamos lo que comemos, cuidemos lo que consumimos en las aplicaciones, ¿Pero por dónde empezar?
-Lo que pasa es que los algoritmos son muy apetecibles y muy cómodos. Por eso, el construir una dieta digital es un desafío que tenemos todos cuando las cosas están tan dadas en bandeja, es decir, van a mostrarme exactamente lo que estoy pensando, lo que voy a desear, la gente con la que más me vinculo o que más admiro, la ideología política con la que más afinidad tenga.
El concepto de dieta digital este año surgió sobre todo con el brain rot italiano, estos cocodrilos con zapatillas, son esas criaturas que en inglés significa podredumbre cerebral. Podemos ver cocodrilos con zapatillas un ratito un día, dos días, ahora si nuestra dieta digital se basa exclusivamente en eso, hay probablemente un problema ahí.
Esa dieta digital termina cambiando cómo percibimos el mundo. Por ejemplo, hace dos años yo borre X (antes Twitter) de mi teléfono porque no me quiero someter a tantos discursos de odio permanentemente, no quiero que eso forme parte de mi dieta digital, por lo que consumo X a través de la computadora.
Me di cuenta que teniéndolo tan al alcance de la mano y tan apetecible, estaba condicionando cómo yo concebía mi realidad y la realidad va mucho más allá de lo que pasa en X. Lo mismo con Tik Tok, no lo tengo en el teléfono porque era demasiado adictivo para mí, descubría demasiado rápido mis intereses.
Cuando hablamos de dieta digital es empezar a establecer límites sanos con nuestro consumo en el ámbito digital.
Planteas que delegamos libertad por conveniencia, ya que, lo automático es rentable y eficiente. ¿Somos concientes de esa libertad que entregamos, pero no nos importa porque prevalece el beneficio que nos da la tecnología?
-Creo que es como las dos pastillas de Matrix, la azul y la roja, una sería la conciencia y la otra, el confort. Esto es como una cebolla con múltiples capas de análisis en referencia a lo que estamos viviendo hoy en día a nivel diagnóstico. Es el precio de la conveniencia, qué estamos cediendo a cambio de tener las cosas tan cómodas.
Esa comodidad es aparente, es una ilusión porque no es una comodidad real, profunda, es como un living de Pinterest que es escenográfico.
Atrás de ir cediendo cada vez más autonomía, el ser humano vive una angustia existencial gigante y yo siempre me pregunto: ¿esa crisis existencial no estará ligada a un tiempo cada vez mayor en las pantallas y a cada vez poner menos el cuerpo en escena?
Cedemos cada vez más autonomía, más decisiones por angustias e inseguridades que tenemos como ser humano en un contexto con una presión por la verificación instantánea, el corto plazo. Vivimos con tanta ansiedad, impaciencia e incertidumbre que no hay tolerancia a los tiempos y a los procesos.
En este mundo instantáneo y cortoplacista, vos hablás de actos contraculturales
-Por ejemplo, hoy leer un libro es un acto contracultural en un mundo donde nos fomentan a ver videos en Tik Tok, que seguramente esos dos minutos del video de Tik Tok sean más divertidos que la primera página de un libro. ¿Por qué nos cuesta tanto ver una película o una serie sin mirar el teléfono? por que es todo mucho más fácil, los algoritmos nos conocen tanto, aparentemente mejor que nosotros mismos, que es mucho más fácil.
Ahora esa conveniencia creo que es una enorme ilusión, a mí me encanta la tecnología, pero creo que estamos pagando muy caro por esa conveniencia.
Al utilizar la tecnología, el ser humano gana nuevas habilidades.
Pero la gran preocupación es si nos estamos convirtiendo en seres humanos más estupidos producto de tanta dependencia tecnológica.
Hoy hay un dato super alarmante: entre el 25% y el 35% de las consultas mundiales a ChatGpt son de apoyo emocional y de usarlo como terapeuta. Aquí volvemos al precio de la conveniencia, es mucho más fácil preguntarle a ChatGpt y también lo que termina pasando es que la tecnología simula ser más humana que nosotros como humanos.
La inteligencia artifical a veces es mucho más empática que seres humanos que conocemos.
Hay una enorme parte de nuestra generación que está tan ansiosa, tan a las corridas, tan dedicada al corto plazo, que cuándo fue la última vez que alguien te preguntó en qué te puedo ayudar, cómo estás.
En este contexto, vos advertís sobre el riesgo de dejar de ser seres humanos para transformarnos en pérfiles de consumo
-A modo de ejemplo, si yo corto con mi novia, no quiero que ChatGpt me escriba la carta para decirsélo porque le falta alma. El texto desde lo gramatical puede ser perfecto y puede conocer a la persona a la perfección, pero le falta ese dejo de imperfección.
Y otra cosa que está pasando es que la tecnología va hacia un lado de mucha perfección y el ser humano es un ser altamente imperfecto, y las cosas que nos pasan en la vida son imperfectas. Hay cosas que la tecnología no puede replicar, no puede reemplazar la mirada de una persona frente a la otra, el latido de la voz. No se puede poner en palabras, pero falta un alma ahí que es difícil de explicar.
Hablás de un ser humano post tecnológico. ¿A qué te referís?
-La tecnología ya está totalmente insertada en nuestra vida cotidiana. El pasar a ser un ser humano post tecnológico es un concepto que abordo en mi tercer libro: «Postecnológicos» y se trata de un ser humano que ya integró tecnología, pero que vuelve a recuperar su condición humana en un mundo tecnológico.
En mi segundo libro: «El dilema humano: Del homo sapiens al Homo Tech», yo planteo la teoría de que el homo sapiens ya no nos distingue frente a otras especies y hoy en día estaríamos convirtiéndones teorícamente en humanos tecnológicos que tienen una relación imposible de separar con la tecnología que los rodea.
Ya vivimos esa relación de dependencia excesiva, ahora tenemos que pasar a un estadio de convertirnos en seres humanos post tecnológicos y para eso, tenemos que adquirir habilidades post tecnológicas, que son habilidades humanas en un mundo tan técnico. Entre ellas, el bienestar digital o la dieta digital.
Pasar de alfabetizarnos digitalmente a alfabetizarnos informacionalmente. Por eso, hoy en día yo hablo de analfabetismo algorítmico, tenemos que alfabetizarnos con las herramientas y con la información que tenemos disponibles.
Vos mencionás que nos dan tecnología, pero sin un manual de uso para saber cómo utilizarla
-A raíz de esa falta de manual de uso, surgen todos los debates que estamos viviendo hoy en día en el entretenimiento, en la economía, en la política, en el amor, en el concepto de la verdad, en la desinformación… en todo lo que estamos viviendo hoy a diario.
En este mundo cada vez tan tecnológico, vos destacás que las habilidades humanas van a seguir siendo irremplazables
-Cuando me preguntan qué habilidades específicas yo enseñaría hoy, una es hablar en público porque en un mundo tan mediado por pantallas, quien sepa hablar en público va a adquirir un montón de valor.
Otra habilidad, que va a ser que la persona se destaque frente a los otros, es el crear una marca personal y después, todas las habilidades blandas, como la escucha activa, me parece que van a ser cada vez más fundamentales.
Marcás que el algoritmo no es neutral y que tiene ideología. Mencionás también que premia más lo que es viral que lo que es verdadero, por lo que ahí surge un nuevo concepto de verdad.
-Hoy en día se habla de la geopolítica de la tecnología, además de la política tradicional, hay una geopolítica de la tecnología puntual. Nada es neutral porque todo es creado por seres humanos y los seres humanos estamos llenos de sesgos, de ideas, de complejidades y de cosmovisiones del mundo que son muy distintas.
El 8 de marzo «Día de la Mujer» se viralizó un trend en el que se le pedía a ChatGpt que creara la imagen del CEO de una compañia y respondía, ‘va a ser un hombre’. Luego, se le pedía que creara la imagen de un conductor de un camión y contestaba: ‘Va a ser un hombre’, pero cuando se le pidió que creara la imagen de alguien que se encargaba de una casa, dijo: ‘Va a ser una mujer’. Ahí se refuerzan mucho los sesgos que tenemos como sociedad.
Cuando la mentira es la verdad: «Hipnocracia» y otros nuevos desafíos de la inteligencia artificial
Tambíen tenemos que recordar que no todo lo que está ahí es 100% verdadero, mismo el algoritmo de Instagram no es neutral, un algoritmo que aparentemente es inofensivo tampoco es neutral, lo mismo con el de Spotify. Los algoritmos del entretenimiento refuerzan nuestros gustos, nuestra forma de ver el mundo.
Ahí advertís sobre el miedo de quedar atrapado en esa burbuja
-Sí y eso nos limita un montón, o sino no sucede lo contrario. Por ejemplo, con el conflicto bélico entre Irán e Israel, yo soy judío y me empezó a aparecer exclusivamente contenido anti Israel, contenido iraní, o sea, material compuestamente opuesto a lo que yo pienso y eso sucede para trabajar en el sesgo de confirmación de que lo que yo pienso es realmente verdad: me muestran las cosas que coinciden con lo que yo pienso u opuestamente lo contrario.
Entonces, si sigo girando en esa burbuja mi concepción del mundo, mi apertura a la creatividad, están cambiando.
“Por favor, ChatGPT”: ¿cuánto cuesta ser amable con la inteligencia artificial?
Son burbujas de personalización, que yo digo en el libro: «El algoritmo», que están ahí en forma permanente, pero nunca explotan. En el cápitulo de amistad, nombro un caso concreto: tenemos un amigo de la secundaria, nos conocemos hace 20 años y de repente Instagram decide no mostrármelo más por alguna razón. Eso le va a enviar una señal a mi cerebro de que ese vínculo es cada vez menos relevante en mi vida cotidiana, por algo que yo no elegí, que lo decidió un algoritmo.
Ahí se ve que el algortimo no es neutral porque le conviene mostrarme cosas de personas con las que yo tengo más afinidad, sea, intelectual, política, de consumo. Hay que recordar que atrás de todo hay un modelo de negocios.
Te escuché contar que un estudio indicó que adolescentes de entre 12 y 17 años liberan la misma cantidad de dopamina con un like que con un abrazo
-No hay que desmerecer la validación que sucede en el entorno de redes sociales y la carga que eso tiene. El estudio que vos me mencionás, que es de Stanford, tiene más de diez años y eso que muestra le pasa a los más chicos, pero también a los más grandes, es decir, nos pasa a todos en mayor o menor medida.
Estamos en un mundo que premia mucho la visibilidad y muchas veces terminamos cayendo en esa misma trampa. Hoy hasta hay gurús del algoritmo de Instagram o de Tik Tok que dicen que si la persona publica una determinada cantidad de reels o de historias con ciertos colores y en ciertos horarios, va a lograr tal aumento en su alcance.
Pocas veces en la historia de la humanidad, las interacciones de miles de millones de personas fueron manejadas por un grupo tan pequeño de individuos: estamos siendo ‘manejados’ por decisiones que toman un grupo de 100, 200 personas que afecta la vida de cinco mil millones de usuarios conectados a Internet.
Hablas de cómo la tecnología cambio la amistad
-En las amistades pasa un montón, yo en el libro cuento que conozco gente que le pide a sus amigos que le manden al mail fotos de dos copas, de una pileta, de una merienda, de lo que sea y en alta para después subirla a sus redes sociales como si fuese su vida. Crean ficciones de su vida en base a cosas que no vivieron.
Otra cosa que sucede es gente que no participa en los grupos de amigos salvo cuando tiene que pedir likes o comentarios, es decir, la única participación en el grupo es por una necesidad de interacción en redes sino no participa.
Cómo la inteligencia artificial puede contribuir al cambio social
También pasa que tenés un amigo con el que te mandás reels y un amigo de toda la vida con el que te juntás cada tres meses. Hay una especie de mega fragmentación de lo que es la amistad y lo que es el amor en el siglo XXI.
Creo que vivimos una crisis institucional en el concepto de amistad y de pareja mediada por redes sociales y algoritmos, hay una gran parte de la sociedad que está viviendo una enorme crisis por esta hiper mega fragmentación respecto a lo que entendemos por amigo y lo que entendemos por pareja. Los algoritmos no son neutrales en esa crisis, cuando hay gente que está pidiendo fotos en alta para simular su vida.
Otra cosa que pasa muchísimo es que hay gente que tiene dos cuentas: una para mejores amigos y otra pública, la foto de la merienda con amigas o una foto con la pareja la suben a la privada y a la pública no lo subo.
Creo que todo eso está ligado a una falta de compromiso a largo plazo producto de los algoritmos. Esa falta de compromiso es el no compromiso con el tiempo, a la exposición, a la falta de oportunidades, a lo que cuesta un poco más en profundidad.
Vivimos en un mundo que nos presupone que todo es efímero porque existe lo que yo llamó la arquitectura emocional de lo efímero. Antes escribíamos y permanecía, en cambio hoy podemos borrar, editar, mandar algo que es temporal y se autodestruye, entonces no terminamos escribiendo, terminamos diseñando una estrategia completa: si te hablo demasiado muestro demasiado interés, sino te hablo demasiado estoy con otra.
Otro concepto que desarollás es la polarización, lo marcaste por ejemplo, con la condena a Cristina Kirchner, es una postura o la otra, no hay un punto medio
-Es que al ser humano le es más cómodo mirar cosas con las que se siente identificado y si le muestran más material que confirma ese tipo de pensamiento, más tiempo va a permanecer la persona en la aplicación: si permanece más tiempo, potencialmente le va a hacer ganar más dinero a la plataforma, y así todos terminamos radicalizándonos sin darnos cuenta.
A los algoritmos no les convienen los grises, les conviene tener pérfiles de conducta, pérfiles de consumo lo más establecidos posible y así poder segmentar mejor. Entonces, si sos kirchnerista, mostrarte cosas de Cristina, si sos liberal mostrarte cosas del presidente, Javier Milei.
Con vista al futuro. ¿Cómo pensás que esto se va a desarrollar?
-Creo que los algoritmos nos van a conocer cada vez más, van a ser cada vez más personalizados y apetecibles. Siento también que la humanidad va tomando lecciones al respecto y estamos en un momento donde es una selva de descontrol: estamos haciendo lo mejor que podemos con todas las herramientas que tenemos, que nos empoderaron un montón, pero estamos haciendo lo mejor que podemos.
Vos subrayás que con ese empoderamiento hay una responsabilidad
-Hoy en día estamos siendo muy irresponsables en el uso de la tecnología que nos rodea, junto con un exceso de confianza muy grande.
Pero soy optimista de que vamos a un camino donde se empiezan a valorar otras cosas, en ese camino hay un montón de oportunidades que surgen, un montón de gente que puede usar todo eso a su favor.
Me preocupa los impactos a largo plazo que puede dejar esto en la generación que no tiene tantas herramientas para ser consciente al respecto, especialmente los más chicos y la gente de la tercera edad.
En los más chicos, está esa sensación de abundancia, de poder hacer lo que quieran y eso hace que se muera el aburrimiento y el aburrimiento es un lugar en el que surge mucho la imaginación y la creatividad y segundo, no hay tolerancia al fracaso.
Esa sensación de abundancia es una ilusión, pero baja el nivel de compromiso: para qué me voy a comprometer con tal cosa si tengo tantas otras opciones.