OpenAI, que compta amb Microsoft com a inversor, va llançar ChatGPT al mercat a finals del 2022 i, pocs dies després, ja tenia més d'un milió d'usuaris. Prèviament, el març del 2021, havia començat a donar accés al model de llenguatge GPT-3, el motor de l'eina. Ara, la nova versió d'aquest xat intel·ligent amb més de 175 trilions de paràmetres és capaç de generar codi, de resoldre equacions de forma ràpida o d'entendre i generar textos en diversos idiomes.
El xatbot permet conversar amb llenguatge natural i amb la sensació que a l'altra banda hi ha una persona, però no sempre és fiable i segur, segons assenyalen els i les especialistes consultades per l'ACN. De fet, a l'abril, treballadors de Samsung van filtrar informació confidencial sense saber-ho utilitzant ChatGPT per resoldre errors de codi dels seus productes, tal com va destapar The Economist.
Aquests riscos per a la seguretat industrial han provocat que "alguns països i companyies hagin prohibit l'ús del mòbil del treballador per qüestions de feina", explica la catedràtica i directora del Centre de Ciència de Dades i Intel·ligència Artificial (IDEAI) de la Universitat Politècnica de Catalunya, Karina Gibert. I és que, si se'n fa un mal ús, les dades confidencials de les empreses poden acabar en els servidors d'Open AI sense que se sàpiga ben bé quin és el recorregut o les proteccions que se segueixen.
Solucions davant dels riscos
Un altre dels problemes és que la interfície és molt còmoda i propicia a generar una "confiança indeguda" en una informació que no sempre és veraç. El director de la divisió de tecnologia digital d'Eurecat, Joan Mas Albaigès, apunta que ChatGPT "està condicionat pel càlcul probabilístic de la informació utilitzada per entrenar-lo". I avisa que "has de ser molt crític amb els resultats. No pots fer copiar i enganxar". Gibert coincideix i assenyala que "encara que la lògica del discurs estigui ben muntada i sembli que estigui ben estructurat, el contingut pot no ser cert. Si no tens clar que està dissenyat perquè et pensis que parles amb una persona, corres el risc d'acabar-ho creient. És important tenir control de quina informació compartim i si els canals establerts són segurs".Davant d'aquesta realitat, una de les solucions que s'imposa per no perdre el potencial que ofereixen aquestes eines és fer formacions als usuaris que han d'interactuar amb eines que s'han dissenyat amb "un punt de gamificació" per generar "una interacció fàcil i còmoda", afegeix la catedràtica, que també és degana del Col·legi Oficial d'Enginyeria Informàtica de Catalunya.
Precisament, un dels cursos que ha aparegut últimament és el de prompt engineering on s'aprèn a fer preguntes a l'eina. Alguns centres tecnològics com Eurecat estan "començant a idear" formacions perquè les empreses puguin extreure tot el valor que es pugui d'eines com ChatGPT, que, són "un gran ajut a la productivitat perquè fan desaparèixer la síndrome de la pàgina en blanc". Per la seva banda, el coordinador del Centre d'Innovació en Tecnologia de Dades i Intel·ligència Artificial (CIADAI), Albaigès, considera que no es pot ignorar l'existència d'aquesta revolució que suposa la IA avançada sinó "dominar-les i portar-les al nostre terreny".
[noticiadiari]2/254733[/noticiadiari]
Una altra opció és desenvolupar el seu propi model, com ha fet la multinacional Continental, que apostarà per crear el seu propi xatbot per als seus 3.000 empleats i empleades. "Les persones fan servir ChatGPT com si fos un amic i obliden que, a l'altre costat, es fa servir la informació per entrenar la xarxa perquè millori", apunta el director d'equips d'enginyers a Continental, Pedro Ramos.
Amb tot, aquesta aposta queda lluny de les pimes, que "difícilment tenen aquestes capacitats". Precisament, aquest és un altre motiu que complica l'ús segur de dades confidencials en eines com ChatGPT. Les petites i mitjanes empreses opten pel model de subcontractar la gestió de les dades a empreses especialitzades, i "cada cop que externalitzes, estàs delegant, i no és el mateix que ho vigilis tu, que ho faci un altre", exemplifica la catedràtica de la UPC.
Els perills d'un mercat no regulat
En aquest escenari de creixement d'ús exponencial i de mercat no regulat, altres empreses com Google o Antrohpic han anunciat la seva intenció de llançar un model propi de llenguatge, Bard i Claude. En aquesta línia, Gibert assenyala que "un dels problemes que té que el sector no estigui regulat és que tots treuen coses al mercat de qualsevol manera, i s'estan obrint al públic eines experimentals, que no van amb un manual d'instruccions", com és el cas de ChatGPT.Una de les conseqüències de no regular aquesta tecnologia es pot veure als Estats Units, on és legal elaborar un perfil a partir de dades de galetes no consentides i vendre-les a tercers, com headhunters o asseguradores. També pot passar que s'usin sense dir-t'ho per avaluar si estàs capacitat per a una feina o si t'han de fer una assegurança de cotxe o de vida. De fet, Catalunya va ser pionera a liderar la Declaració de Barcelona de la IA el 2017, amb més de 200 científics de la comunitat internacional adherits, fent una crida a la prudència perquè sempre hi hagués un humà supervisant les decisions de la intel·ligència artificial, després que aquesta tecnologia saltés de forma "insensata" al món productiu.
L'experta en intel·ligència artificial de la UPC afegeix que "no n'hi ha prou amb la regulació, que és massa lenta" per afrontar les conseqüències que provoca una indústria, la de la intel·ligència artificial generativa, que té un creixement exponencial i podria aportar fins a 4.400 milions d'euros aquest mateix any, segons un informe del portal McKinsey. Per això, planteja elaborar certificacions de dades i algoritmes que garanteixin que els productes que surtin al mercat siguin correctes i que es reforcin tant els codis deontològics dels desenvolupadors com que l'usuari final aprengui a ser menys naïf i no comenci "a regalar dades quan ningú sap què passa" amb elles, ha afegit Gibert.
Les verificacions podrien ser similars a les quals està sotmesa la indústria farmacèutica. "Abans que les empreses de software d'IA treguin un producte al mercat, hauria de ser provat i certificat per alguna institució perquè, si no, les coses aniran a pitjor molt ràpid", avisa Ramos. D'altra banda, tampoc queda clar a qui pertanyen els resultats generats gràcies a la intel·ligència artificial generativa. "Hi ha un gran buit legal amb la propietat intel·lectual", indica el director de serveis digitals d'Eurecat.
Controls del frau
Per aconseguir que la regulació europea de la intel·ligència artificial sigui efectiva, la Comissió Europea ha encarregat un pilot d'implantació que es farà a l'Estat a partir de l'octubre. Gibert és una de les expertes que participa en la revisió d'aquestes guies que ajudaran les empreses a aterrar la legislació. El procés està coordinat per la Secretaria d'Estat de Digitalització. El pilot generarà uns informes sobre les dificultats que les companyies trobin en la normativa i que Europa tindrà en compte per redactar la regulació definitiva.[noticiadiari]2/237326[/noticiadiari]
Per exemple, un dels aspectes de la regulació comunitària és la prohibició indiscriminada del reconeixement facial. Amb aquest pilot, s'haurà de demostrar quins mecanismes hi ha per detectar l'ús fraudulent, un dels principals reptes als quals s'enfronten les autoritats. "La IA no és una taula, un cotxe que el fabriques i viatja amb tren o avió, passa proves de certificació i duanes, i que quan surt al mercat s'ha provat. És intangible, viatja pel ciberespai on no hi ha fronteres. Com ho farem per estar segurs que ningú fa frau? No serà fàcil", avisa la degana del Col·legi Oficial d'Enginyeria Informàtica de Catalunya.
Sobre el potencial de la intel·ligència artificial, Ramos ha afegit: "Pot tenir l'impacte de la bomba atòmica o la premsa escrita, pot servir per democratitzar l'accés del coneixement o que sigui tan dolent que tot col·lapsi, però és a les nostres mans decidir i crec que per primer cop a la història la gent està sent prudent en el moment que toca, ara que està creixent", ha conclòs l'expert.