Articles Intel·ligència Artificial Pioneres
KARINA GIBERT: «El cost energètic de la IA és enorme» (III)
24 de Març de 2020
0
, , , ,

Sèrie: “Converses d’ètica i intel·ligència artificial”  (Treball de recerca de l’Informe: “Intel·ligència Artificial. Decisions Automatitzades a Catalunya”)

Karina Gibert és investigadora del grup d’Enginyeria del Coneixement i Aprenentatge Automàtic del Centre d’Investigació en Ciència Intel·ligent de Dades i Intel·ligència Artificial de la UPC. Vicedegana de Big Data, Ciència de Dades i Intel·ligència Artificial del Col·legi Oficial d’Enginyeria Informàtica de Catalunya

 

**************************************************************************“

“La tecnologia, en principi, és neutra i el que té usos més o menys ètics és el que fem amb ella”, explica la investigadora Karina Gibert. “Els problemes ètics que cal tenir en compte avui són els biaixos, sí, però també l’explicabilitat, que és una qüestió molt més profunda i que ja s’ha comentat en aquest capítol.”

Gibert vol puntualitzar que només hi ha una part de la IA que no és explicable, la que es coneix com a subsimbòlica. “La part simbòlica, que imita la forma com els humans resolen els problemes, és totalment explicable. Però és terriblement cara, des del punt de vista computacional, i mai no ha fet un salt a problemes reals d’una certa complexitat perquè col·lapsa.”

“La part subsimbòlica intenta aconseguir que els ordinadors resolguin problemes que requereixen intel·ligència amb més qualitat que els humans, des del punt de vista dels resultats que aporta” –continua explicant la investigadora– “sense importar gaire si la manera com resol el problema imita o no la manera com ho fa l’humà”.

“I aquesta és la IA no explicable, la que, entre altres coses, ha donat lloc al deep learning. Com a contrapartida, el deep learning ha aconseguit donar resultats respecte a problemes grossos que fins ara no s’havien resolt. Però està clar que, perquè el resultat d’una intel·ligència artificial tingui impacte en un context real, cal argumentar com sigui la decisió que s’ha pres. I això ho sabem els que –com jo– fa trenta anys que treballem en aplicacions reals.”

La petjada ecològica de la IA

Karina Gibert també aporta una reflexió nova sobre l’ètica, no mencionada fins ara. “El cost energètic que cal per executar tots aquests algorismes i per hostatjar totes les dades que participen en aquests processos és enorme. I té petjada ecològica. La pregunta és: necessitem que el teu rellotge mesuri la temperatura corporal cada cinc minuts, durant un any, quan se sap que la temperatura evoluciona d’una manera monòtona i hi ha canvis visibles cada hora?”.

“Això té molt a veure amb un dilema que l’investigador Ricardo Baeza-Yates menciona sovint: ‘Dades massives o dades apropiades?’ (big data o right data)”.

“Potser necessitem tenir-ne menys i que siguin informatives i representatives, fet que ens faria estalviar energia per emmagatzemar-les i processar-les. Des del punt de vista de la sostenibilitat és molt important tenir en compte quin tipus d’algorismes i dispendi de dades en fem.”

De qui és la responsabilitat si falla l’algorisme?

“Veig dos escenaris. 1. El de les intel·ligències artificials no adaptatives (no canvien els mecanismes de funcionament i mantenen el disseny), en què la responsabilitat recau sobre qui dissenya l’algorisme. Ho veig clar: qui dissenya l’algorisme ha de tenir clars quins són els valors de risc associats a les decisions o les recomanacions que el sistema pugui fer.

Però també penso que potser no es visibilitzen prou els nivells d’incertesa associats a les solucions de l’algorisme. Això és com a les guidelines de la medicina, que diuen: ‘Quan arribi una persona amb un atac de cor, cal administrar aquesta dosi’. La dosi estàndard també està lligada a un munt d’incertesa, i a una persona en concret li pot anar malament. I quan això passa, el metge no assumeix cap responsabilitat si ha seguit la guideline. No veig gaire diferència de com s’hauria de tractar el que recomana una intel·ligència artificial, respecte al que decideix un doctor, que també es basa en recomanacions estàndards que poden no funcionar en un cas concret.”

Escenari 2. Quan la IA és adaptativa. És complicat tenir ben acotats els tipus d’accions que pot desenvolupar a llarg termini. Si una intel·ligència artificial va guardant l’històric del que fa, i modificant el seu comportament segons el que va millor o pitjor, en funció de les accions prèvies, ens podem trobar que després d’un cert temps apareguin raonaments o recomanacions que no ens imaginem.

És a dir, que la IA estigui anant més enllà, tota sola, i creant resolucions noves. Aquí és molt difícil exigir o pensar que qui dissenya l’algorisme pot tenir controlades totes les situacions i que pugui predir i limitar les que poden ser perilloses per als humans. Això planteja un debat sobre fins a quin punt volem que les intel·ligències artificials s’expressin amb tota la seva potència quan tracten amb persones o entorns on interaccionen amb l’humà i poden generar riscos.”

Karina Gibert proposa que es pugui auditar la intel·ligència artificial (igual que els col·legis auditen el programari en general), en cas de disfunció, per tal de determinar si hi ha hagut una mala descripció del problema, un mal disseny, una mala implementació o una degeneració del sistema d’intel·ligència artificial.

En cada cas, la responsabilitat recau sobre una persona o sobre una altra. “Però sí que és responsabilitat del desenvolupador fer pensar en tots els límits, riscos i problemes a qui encarrega l’algorisme (o la seva funció), per tal que el disseny sigui el més complet possible, i el seu ús el més correcte possible. Això es fa poc, i s’hauria de fer més.”

About author

Karma Peiró

Continguts relacionats

Lamira2

Reportatge: «‘Scanning girls’, les caçadores de partícules»

(article publicat a la revista La Mira.cat el 22 j...

Llegir més
Captura de Pantalla 2020-05-15 a les 10.40.47

«Set lliçons per a lluitar amb les dades d’una pandèmia»

Per RICARDO BAEZA-YATES i KARMA PEIRÓ ...

Llegir més
COVID 19

«La falsa transparència en temps de Covid-19»

Aquests dies s’ha reclamat saber quines són le...

Llegir més

There are 0 comments

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *