Què passa amb Taylor Swift, els muntatges pornogràfics i Twitter?

L'auge exponencial de l'ús d'intel·ligència artificial per a la pornografia mostra les carències de grans plataformes tecnològiques, com la d'Elon Musk, que prohibeixen l'exposició però són incapaces de frenar creacions "fake"

Taylor Swift, en imatge d'arxiu
Taylor Swift, en imatge d'arxiu | Europa Press
30 de gener del 2024
Actualitzat a les 18:19h
En només dos anys, la intel·ligència artificial (IA) ha passat de ser un element de ciència-ficció a formar part de les nostres vides digitals. Ara bé, encara que la seva implementació ha provocat una llarga llista de beneficis i elements positius, les IA provoquen situacions fosques amb conseqüències perverses, que ja estan passant factura a centenars de milers de persones arreu del món. Incloses les persones més famoses. Taylor Swift és la darrera celebritat afectada per una de les xacres més nocives creades per les intel·ligències artificials: elsdeepfakes pornogràfics. Des de la setmana passada, les xarxes socials van viure un terratrèmol en aparèixer una publicació on la cantant nord-americana patia una falsa exposició amb una imatge sexualment explícita. Ni Taylor Swift està fora de perill.

Per posar-ho en context, les conseqüències de l'aparició d'aquesta publicació prometen ser devastadores -especialment per a la plataforma X, l'anterior Twitter, propietat d'Elon Musk- i per a les xarxes socials que permeten aquesta mena de contingut. Moltes no tenen cap manera d'evitar que apareguin o triguen massa a esborrar-les, quan ja han transcendit a milions de persones. Només cal veure les xifres de la publicació sobre Swift: més de 35 milions de visualitzacions, 24.000 missatges reenviats i centenars de milers de likes abans que la plataforma intervingués per suspendre el compte de l'usuari verificat que l'havia compartit. Un usuari verificat amb el tic blau. 

La companyia de Musk ha decidit intervenir aquest dimarts al matí després de patir un vendaval de crítiques que han arribat de tots els indrets possibles. Fins i tot de la Casa Blanca. Karine Jean-Pierre, secretària de premsa de Joe Biden, va assegurar en roda de premsa que les imatges "eren alarmants" i va responsabilitzar les empreses tecnològiques que permeten que es propaguin aquestes fotografies falses. En resposta a tot plegat, i com a "mesura temporal", X va decidir prohibir les cerques sobre Taylor Swift. Des de Nació vam poder comprovar dilluns que la plataforma mostrava una pestanya de "problemes tècnics" i no permetia veure cap imatge ni vídeo. A partir d'aquest dimarts, però, tot ha tornat a la normalitat.


Joe Benarroch, cap d'operacions comercials d'X, va explicar a The Guardian que amb aquesta mesura "prioritzen la seguretat en aquest assumpte". Per contra, i des de fa molts anys, el contingut pornogràfic com a tal no estava prohibit a Twitter i tampoc ho està ara. Està permès, sempre que sigui consensuat amb les persones implicades. Les seves polítiques sí que deixen molt clar que "no es pot publicar ni compartir fotos o vídeos íntims d'una altra persona que s'hagin obtingut o distribuït sense el consentiment d'aquesta persona". El deepfake està explícitament prohibit a X. Així i tot, la imatge de Swift va arribar a les 47 milions d'impressions abans de ser esborrada.
 

Els "deepfakes" no tenen aturador

Ni els deepfakes són nous ni les famoses són les úniques en patir-ho. Una dada és clara: el 99% dels continguts pornogràfics creats amb IA és dirigit contra les dones. L'extens informe State of deepfakes 2023, fet per l'entitat Home Security Heroes, mostra significatius senyals d'alarma, a més d'alertar dels grans avenços tecnològics realitzats en molt poc temps, que obren la porta a la creació de deepfakes encara més precisos i perillosos. I l'objectiu no són només famoses: ara també ho poden ser totes les dones, gràcies a canals de Telegram amb IA incorporada, bots generadors d'imatges i altres tecnologies similars. El seu origen es remunta al 2007, al famós fòrum digital Reddit, on un usuari va començar a suplantar imatges pornogràfiques amb les cares d'actrius famoses dels Estats Units.

Casos com el d'Almendralejo, on desenes de menors d'edat d'un institut van ser víctimes de violència sexual en ser "despullades" pels seus companys gràcies a aquesta tecnologia, demostren el perill permanent d'aquesta nova eina. En els darrers anys, els cossos policials de l'estat espanyol i de Catalunya treballen per garantir-se de mètodes que puguin detectar aquestes pràctiques -en casos domèstics- i ja adverteixen a les seves xarxes d'aquestes pràctiques de deepfake.

Fins ara havien posat el focus en la suplantació d'identitat per a fins fraudulents (com per exemple imatges de famosos per vendre't un producte que és fals), però no en perspectiva pornogràfica. Els Mossos d'Esquadra tenen equips especialitzats en delictes digitals que aconsegueixen trobar l'origen de les imatges, qui ha l'ha creat i seguir el seu rastre de distribució.
  El cas de Taylor Swift és significatiu perquè ni la cantant més famosa del planeta pot escapar d'aquesta xacra, però també per un aspecte positiu: l'onada immensa de les seves fans han aconseguit, mitjançant la protesta, perseguir, eliminar i posar un altre cop el tema sobre la taula en el marc de la violència sexual que pateixen les dones.