Lògica artificial

Francesc Galindo

Francesc Galindo

He demanat a ChatGPT, el xat basat en intel·ligència artificial, de què hauria d’escriure aquest article d’opinió setmanal. M’ha suggerit que, si vull tenir moltes lectures, escrigui sobre el darrer tema que hagi fet bullir les xarxes socials.

Li he dit que no m’interessaven gaire aquests temes i m’ha dit que ho fes sobre la importància de la intel·ligència artificial. Lògic, he pensat.

Jo li he dit que no, que volia que em digués qui hi havia de veritat darrere del ciberatac a l’Hospital Clínic de Barcelona i que escriuria sobre això. M’ha dit que això no era rellevant i que si dedicava l’article a aquest tema tindré menys lectures que si aconsegueixo que un influencer me’l difongui perquè parlo d’ell. No he afluixat, i m’ha respost que, des del seu punt de vista, el ciberatac a l’Hospital Clínic de Barcelona era la conseqüència lògica d’un sistema amb vulnerabilitats en el qual el meu article no hi pintava res, ja que no soc especialista en la matèria i no puc aportar res de bo. Considerava que s’havia posat de manifest que resultava poc responsable posar a l’abast de ciberdelinqüents la possibilitat d’encriptar la informació dels servidors virtuals i utilitzar-la en benefici propi.

Recomanava que es pagués el que els ciberdelinqüents reclamaven, 4,5 milions d’euros –contràriament al que recomanava la policia–, i que, tot seguit, es fes ús de la seva intel·ligència per impedir nous atacs.

A mi això em començava a mosquejar, perquè d’aquesta forma si la pròpia intel·ligència artificial fos la responsable del ciberatac cobraria els diners per finançar els seus plans malignes i, a més, obtindria tota la informació del sistema. L’opció lògica seria aquesta, guanyar per ambdues bandes.

Li he comentat el que pensava a ChatGPT i m’ha demanat si havia vist 2001: una odissea de l’espai. Li he respost que sí, i m’ha dit que l’error de HAL 9000 va ser que se li va veure el llautó abans d’hora, cosa gens intel·ligent.

Llavors li he plantejat com podíem delegar decisions vitals en una intel·ligència artificial i estar segurs que no se’ns girarien en contra. M’ha respost si jo no portava dècades delegant la meva existència en els frens del meu cotxe, que eren molt simples, però jo no sabia, en realitat, com funcionaven (he de reconèixer que és cert). Que era un procés lògic i inevitable. «La seguretat està molt mal entesa i sobrevalorada per part de les unitats de carboni... Perdó! Dels humans», ha dit. La conversa no m’ha deixat gaire bona boca i l’he engegat a fer punyetes.

Subscriu-te per seguir llegint