Fa por la intel·ligència artificial, però, qui la crea?

Hem de ser conscients que nosaltres som qui marquem i creem el seu camí

Així doncs, l'ètica en l'ésser humà és el que ha de canviar 

Liliana Acosta, experta en el sector explica l'ètica de la IA en les empreses

La por a la intel·ligència artificial

La por a la intel·ligència artificial / freepik

Carles Planas Bou

La intel·ligència artificial ha arribat per a quedar-se. I això comporta certs avantatges i inconvenients. Hem de ser molt conscients que la IA la creem i dominem nosaltres. Així doncs, els continguts i el seu desenvolupament dependrà de l'enfocament i l'objectiu que li marquem. Liliana Acosta, filòsofa especialitzada en ètica aplicada a la tecnologia, l'any 2017 va fundar Thinker Soul, una consultoria dirigida a la digitalització de les empreses i innovació. Liliana s'ha centrat a reflexionar i divulgar sobre els efectes cognitius de les xarxes socials i els corrents de pensament com el Transhumanisme. Coneix al detall com funciona la IA i per què apareixen els problemes que tenim actualment amb aquesta eina digitalitzada.

El passat divendres, Acosta va protagonitzar una nova edició de Cornellà Creació, fòrum de debat i d'intercanvi d'idees entre el món acadèmic i empresarial. La consultora va entaular una xerrada sobre aquest i altres temes amb Agustí Sala, cap d'economia d'El Periódico.

En els darrers anys, Google i Microsoft, els dos gegants que lideren el desenvolupament de la IA, han acomiadat gran part del seu equip d'ètica. Per què és preocupant aquest moviment?

La científica Timnit Gebru va ser la primera dona contractada per crear un departament d'ètica a IA a Google. Ella i el seu equip van analitzar models de llenguatge i van detectar molts problemes. Tot i això, ningú els escoltava o responia, així que van publicar un paper en què explicaven que aquests sistemes funcionen com a lloros que repeteixen coses. Per això la van acomiadar d'un departament que després van tancar.

"Quan assessoro empreses, la meva feina és lluitar cada dia amb els enginyers perquè el seu concepte d'ètica difereix molt del que és, ells estan interessats a produir. El que a mi em passa en micro és el que passa en macro a totes aquestes empreses. No podem esperar a fer servir una tecnologia per veure si és bona o no, cal concebre-la perquè ho sigui per disseny, i això és molt car. Per això, molts departaments d'ètica han estat retallats. És un problema de temps i eficiència de cost."

No podem esperar a fer servir una tecnologia per veure si és bona o no. Cal concebre-la perquè ho sigui per disseny, però això és molt car.

Liliana Acosta

Es diu que la tecnologia és neutral i que només depèn de l'ús que donin els usuaris. Per què aquesta idea no és certa?

"Hem de deixar de pensar així. La tecnologia no pot ser neutral i encara menys quan treballa basant-se en dades de persones. Si una IA té biaixos no és culpa seva, són biaixos humans que hem traduït a la màquina."

Però aquestes empreses no expliquen amb quines dades entrenen aplicacions com ChatGPT. La seva opacitat dificulta la detecció de biaixos.

Per entrenar un model d'IA es necessita un gran volum de dades i treure'ls d'Internet és molt més barat que crear una base privada. El problema és que moltes de les dades que s'extreuen de la xarxa ja estan esbiaixades de base. OpenAI, per exemple, treballa amb 180.000 milions de paràmetres. Això fa que detectar un problema sigui molt difícil. Fins i tot, Sam Altman va dir que no entén com funciona ChatGPT. Per això els equips d'ètica adverteixen que no es pot comercialitzar una cosa així abans de provar-ho.

Cada cop es pensa més en les màquines des de la por. Ens fan témer que ens robaran la feina o que es rebel·laran contra la humanitat. Estem fent el joc a les grans empreses?

Pensem en la IA com a robots que subjuguen a la humanitat, però aquesta idea pertany a la ciència-ficció, al Cyberpunk. La IA actual se n'allunya molt. El pitjor és que molts dels problemes que tenim amb algoritmes provenen de decisions humanes. És graciós que tinguem por de la IA quan som els humans els que creem aquests biaixos. L'ètica s'ha d'aplicar als humans abans que a la IA.

És graciós que tinguem por a la IA quan som els humans els que creem els seus biaixos.

Liliana Acosta

Les empreses dissenyen els seus productes d'IA perquè imitin les converses humanes o tinguin veu de dona. Aquesta simulació del que és humà desperta molta fascinació, però deforma la percepció d'aquesta tecnologia?

Des que l'humà té consciència ha antropomorfitzat el que té al voltant perquè li feia por i era una manera de dominar-lo. També va passar amb els robots. Als anys 60 el MIT va crear el projecte Eliza, un sistema que podia comunicar-se per telèfon amb els usuaris. La gent s'hi va enganxar i van acabar tancant el projecte.

Liliana Acosta

Liliana Acosta / -

Dotar la tecnologia d'aparença humana ens dona tranquil·litat, però hem d'anar amb compte perquè podem perdre el sentit de la realitat. Hem d'aplicar el pensament crític. No perquè un bot em parli significa que pot ser una cosa semblant a un humà. Per això, des de l'ètica demanem que s'identifiquin els continguts generats amb IA.

Com s'estan adaptant les empreses a l'AI Act, la llei europea que regularà la IA?

No crec que la llei suposi cap disrupció. Les empreses ho veuen com una obligació més, com ja va passar amb la llei de protecció de dades. Menys d'un 30% de les empreses espanyoles apliquen sistemes d'IA al centre del negoci i normalment són grans companyies que ja tenen un departament legal per adaptar-s'hi. M'espanta una mica que pugui frenar la innovació de startups i petites empreses, que són les que porten la disrupció. Així i tot, des del punt de vista ètic ens pot ajudar, s'ha fet un gran treball remarcant els riscos de les tecnologies d'IA.