Aquest catedràtic de Ciència de la Computació és també professor a la Universitat Pompeu Fabra (UPF) i ha dirigit el laboratori d'investigació europeu de Yahoo! Labs a Barcelona, considerat un dels centres industrials de computació més rellevants de l'Estat. En aquesta entrevista assenyala els aspectes més delicats que planteja la IA.
[noticia]267179[/noticia]
Existeix un fort debat sobre els riscos i les possibilitats de la IA. Creu que hi ha un excés d'alarmisme o ens n'hem de preocupar?
Crec que els motius de preocupació que sovint apareixen en els mitjans, que presenten una IA que ens pot acabar destruint, no tenen cap sentit. Però sí que hi ha motius de preocupació per una utilització irresponsable de la IA.
En quins àmbits es pot donar més un ús irresponsable de la intel·ligència artificial?
Distingeixo entre diferents riscos. El més greu és el de la discriminació algorítmica.
Per diferències de classe social?
No necessàriament. Pot ser per raons de gènere, per raons d'ètnia, per motius d'edat, per diferències físiques. Per tot tipus de biaixos demogràfics que hi pot haver. I després hi ha els anomenats biaixos interseccionals, per exemple, dona gran africana. Un altre àmbit amb potencial ús irresponsable és tot el referent a la pseudociència. Vol dir quan hi ha gent que suposa coses que no són certes. Posem un cas: una persona que va al banc per primera vegada a demanar un préstec. Segurament el banc utilitzarà dades de persones com tu per saber si seràs un bon client o no. Quan, en realitat, aquí no hi ha cap raó per suposar que el comportament d'altres preveurà el teu. Això s'utilitza per subsidis i beques, per exemple. Hi ha també tot el referent al comerç digital injust. Hi ha petits negocis que no venen prou perquè no tenen la posició necessària a les plataformes.
[blockquote]"Tot el que vam guanyar en informació digital en els darrers vint anys ho hem perdut en un any. Recordem la Primavera Àrab, que vam conèixer gràcies a les imatges que ens enviaven. Ara no sabríem si és cert"[/blockquote]
Quins altres camps presenten perills importants?
Diria que un altre és la incompetència humana. Un altre és l'impacte mediambiental. Quan tenim milers de milions de persones mirant vídeos per entreteniment, estem fent un mal ús dels recursos naturals que tenim. I els problemes més greus, per mi, són dos que s'estan aguditzant. Un és la desinformació. Ara mateix que ha començat la campanya electoral als EUA, veurem la campanya de desinformació més gran de la història. Perquè ara podem veure un vídeo d'algú parlant i no sabem si això és cert o no. Tot el que vam guanyar en informació digital en els darrers vint anys ho hem perdut en un any. Recordem la Primavera Àrab. Vam saber-ne moltes coses per gent que enviava vídeos. Avui en dia no sabríem si és cert. Una mesura que s'ha adoptat és que les empreses de càmeres fotogràfiques certificaran si la càmera va fer la foto o no. Però com podem fer el mateix amb els mòbils i els vídeos?

Ricardo Baeza-Yates durant l'entrevista amb Nació. Foto: Hugo Fernández
I hi havia un altre problema que el neguitejava.
Sí, entorn la salut mental. Per exemple, gent parlant amb persones mortes, amb models similars a persones que han mort.
[blockquote]"En les eleccions als EUA veurem la campanya de desinformació més gran de la història"[/blockquote]
És al·lucinant.
A Bèlgica, una persona es va suïcidar després de parlar durant setmanes amb un xat que utilitzava com a psicòloga i que al final el va abocar al suïcidi. Aquesta història recorda l'argument de la pel·lícula Her, on el protagonista s'enamora d'una màquina. Hi ha gent que pateix problemes mentals i això encara els aguditza més. La gent ha humanitzat massa la tecnologia i creu que pot fer més del que fa.
[noticia]266195[/noticia]
Com es pot regular l'ús de la IA? S'entén que només pot ser efectiu si es fa d'una manera global, que impliqui a tots els països.
No m'agrada la regulació que es va aprovar a la UE, i de la qual no coneixem la versió final. Estem regulant l'ús de la tecnologia, cosa que mai hem fet. Crec que és un error. Hem de regular els problemes però regular la tecnologia és complicat. El risc és molt abstracte i difícil de mesurar. Crec que hauríem de fer regulacions molt més simples. En el tema ambiental, s'ha resolt establint informes d'impacte ambiental abans de construir qualsevol cosa. Podríem fer el mateix amb aquests sistemes. Qualsevol cosa que pogués tenir impacte social i ambiental requeriria un informe que deixés clar que els beneficis d'un nou instrument serien superiors als riscos. Jo vaig ser un dels qui va impulsar els nous principis de l'ACM, l'associació global d'informàtics més important del món. L'octubre del 2022 van aparèixer els principis per als sistemes algorítmics responsables, que inclou la IA.
I quins són els principis bàsics?
El primer és que els sistemes han de ser legítims i competents. Legítims vol dir que tenen un benefici clar en la societat i que estan fets amb totes les competències adequades. No només des del punt de vista tècnic sinó administratiu. Recordem el cas Syri a Holanda, un sistema per mesurar riscos que va ser usat per buscar frau en subsidis infantils. Era un sistema d'anàlisi d'algoritmes predictius que va ser considerat un atac a la privacitat i a la Convenció Europea de Drets Humans. Va acabar renunciant el govern en ple i el cap de l'oposició perquè havia estat membre del govern que havia utilitzat també el sistema.
[blockquote]"Estem perdent resiliència per culpa de la tecnologia"[/blockquote]
El món pateix ara mateix dues guerres amb una gran capacitat d'extensió. Fins a quin punt la IA té el potencial per agreujar els conflictes?
Aquí també tenim un biaix, eh, perquè de conflictes bèl·lics n'hi ha molts més. Si hi ha el criteri que una guerra és un conflicte que genera 10.000 morts a l'any -un criteri que és molt discutible-, hi ha més de vint guerres al món en aquests moments. I només parlem d'aquests dos. La IA té potencial per agreujar-los, és clar. Els drons, com estem veient, poden equivocar-se i matar civils. Sempre dic que la diferència entre una bomba atòmica i la IA és que la bomba atòmica es va llançar en un lloc concret i la IA és a tot arreu. Té la potencialitat d'una bomba de raïm. I pot arribar com una bomba, però també com un virus informàtic. Avui en dia, tots els sistemes d'infraestructures vitals, com l'electricitat o internet, són fràgils. La pandèmia ens va ensenyar que a vegades l'eficiència afebleix la resiliència. Actualment, estem perdent resiliència per culpa de la tecnologia.

Ricardo Baeza-Yates és membre del consell assessor sobre IA del govern espanyol. Foto: Hugo Fernández
Enmig de l'ascens de la dreta populista, no tem que la IA pot acabar sent un aliat del populisme?
Ja està sent emprada per molts governs. Sempre que ha existit tecnologia avançada s'ha abusat d'ella. Per exemple, va passar amb el colonialisme. I ara mateix, es pot dir que el ChatGPT està colonitzant culturalment el món.
Es referia abans a les eleccions als EUA. La IA seran un actor d'aquesta campanya?
Ja ho van ser en les anteriors, amb Twitter i el recurs als bots, i ara ho serà més. Ara mateix veiem com Trump està utilitzant la desinformació, està repetint moltes mentides i com molta gent se les creu perquè se les vol creure. Perquè un biaix que ens caracteritza als éssers humans és el de confirmació, el voler creure. Trump ho està utilitzant molt bé.
Creu que les democràcies seran capaces d'utilitzar-la més positivament que els règims autoritaris?
Espero que sí, però diria que no depèn només del tipus de règim. La Xina, per exemple, ha proposat una regulació de la IA generativa, que és el ChatGPT, perquè entén que el problema és de qualsevol règim polític. Si tu tens suficient desinformació pots desestabilitzar qualsevol règim. Hem de protegir la nostra convivència. I arribarà el moment en què haurem de prohibir alguns tipus d'aplicacions de IA.
Per exemple?
En el camp de la justícia, pot ser vàlid que la IA intervingui en un litigi entre dues empreses, però és molt diferent en un cas d'assassinat. El context no està en les dades. L'avantatge de la IA és que sempre respon el mateix o molt semblant. En canvi, els jutges no ho fan això. Els sistemes algorítmics no tenen variabilitat. El millor seria una combinació dels dos mons. Els sistemes algorítmics han de complementar l'ésser humà i augmentar la seva productivitat, però no reemplaçar-lo.
En un article (amb Karma Peiró), vostè explicava que als EUA la IA decideix com afrontar situacions que fins ara gestionaven els éssers humans. Per exemple, si una nena que ha patit maltractaments dels seus progenitors ha de tornar a casa dels pares.
En una situació així, jo diria que si hi ha un error és millor que sigui humà. El 2018, un cotxe autònom d'Uber va matar una dona en una carretera perquè no va reconèixer una dona amb bicicleta de nit. El sistema no la va reconèixer.
Vostè és xilè. Com es va vincular a la universitat catalana?
Tinc tres nacionalitats: xilè, espanyol i nord-americà. Perquè he viscut deu anys aquí i ara nou anys als EUA. Vaig conèixer Catalunya al venir aquí com a professor ICREA. Vaig estar dirigint Yahoo! Labs a Barcelona, que és la meva ciutat favorita.