Articles
És possible acabar amb els biaixos dels algoritmes? (2a part)
22 de juny de 2019
0
, , , , , ,
(Continua de la primera part)

per Ricardo Baeza-Yates* i Karma Peiró.

Vivim en una societat cada dia més controlada per la intel·ligència artificial. El nostre futur l’estan construint els sistemes automàtics que ens estalvien temps i faciliten la vida. Però sabem que aquest funcionament ens mostra una realitat esbiaixada. Encara som a temps de canviar-la?  

 

Realitat o ficció?

Com deiem en la primera part d’aquest article, biaixos n’hi ha per donar i regalar, sobretot  de culturals i cognitius. Sent conscients d’aquesta situació, com saber què és realitat i què és ficció? Si col·lectivament i individualment fem un esforç continuat, encara hi som a temps de construir un futur més divers i just.

Karen Hao—periodista especialitzada en intel·ligència artificial del MIT Technology Review— va escriure recentment l’article This is how AI bias really happens, dedicat a detectar els problemes que ens plantegen els biaixos dels algoritmes per fases. Per fer un pas més a la seva aportació, proposem també possibles solucions per tal de minimitzar la discriminació dels algoritmes.

  1. Situar el problema El primer que fan els informàtics quan creen un model d’aprenentatge automàtic és decidir què volen aconseguir. Una companyia de targetes de crèdit pot voler predir la solvència creditícia d’un client, però això és un concepte ambigu. Per calcular-lo, potser es tenen en compte variables comercials que no responen a paràmetres imparcials o que discriminen. Una manera d’evitar aquest biaix seria convidar a experts externs, verificar les hipòtesis, consultar possibles afectats, etc.
  2. Recol·lectar millors dadesHi ha dos motius pels quals les dades d’entrenament d’un algoritme tenen biaix: perquè la informació recopilada no és representativa de la realitat o perquè reflecteixen prejudicis existents a la societat, comunitat o grup. Per exemple, si fa servir més fotos de cares blanques que de negres; o si en un procés de selecció de treball es descarten dones. A Amazon li va passar això: com històricament sempre s’havien contractat a més treballadors que treballadores, el sistema les excloïa. Una solució seria recol·lectar una mostra, analitzar-la i decidir quin tipus de dades recollir més o menys.
  3. Extreure millors atributs. Aquesta etapa consisteix a definir atributs perquè l’algoritme els tingui en compte. Per exemple, en el cas de la solvència creditícia els atributs podrien ser l’edat, l’ingrés o la quantitat de préstecs pagats pel client. En el cas de l’algoritme sexista d’Amazon, un atribut seria el gènere, els estudis o els anys d’experiència del candidat. “Quins atributs es fan servir o s’ignoren pot influir significativament en la qualitat de la predicció d’un algorisme. No obstant això, mentre que l’impacte en la qualitat és fàcil de mesurar, l’impacte en els biaixos de l’algorisme no ho és tant”, explica Karen Hao.

Aquestes tres solucions marquen el procés que segueixen els tècnics que creen algoritmes, però individualment també podem contribuir a eliminar els biaixos dels algoritmes. Com? Potenciant el que es coneix com a ‘filtrat col·laboratiu’. És a dir, podem agregar persones i productes nous que no són afins a nosaltres o que mai consumiríem, però que ens poden aportar visions diferents. Per exemple, a Twitter, Instagram o Facebook podríem seguir a gent que no ens interessa o amb la que no compartim ideologia. Els sistemes d’intel·ligència artificial es nodririen també d’altres continguts i mostrarien noves realitats.

  1. Tornar el control a l’usuari. Si l’usuari té més control sobre la interacció amb el sistema, pot ajudar-lo alhora a ser menys esbiaixat. Al mateix temps, el sistema pot contribuir al fet que la persona s’adoni dels seus propis biaixos cognitius. En aquest sentit, seria ideal que les xarxes socials o els cercadors, quan fan la tria d’un resultat, donessin una valoració de si la persona escull com la majoria o és una rara avis. També es podria mostrar més d’una opinió i diferents punts de vista. I, de pas, ens ajudaria a entendre millor el context en què cadascú es mou.

Ara que tenim detectats els biaixos i sabem com es produeixen, podem corregir la realitat i deixar de patir? Encara no, perquè les desviacions no sempre són òbvies. I quan es descobreixen, resulta molt complicat esbrinar on és el biaix. Davant d’això, la nostra proposta és fer moltes mostres i analitzar-les, abans deposar l’algoritme en pràctica. I revisar els resultats per veure si són semblants o heterogenis. En altres casos, caldrà determinar millor el context social correcte.

No tot és tan fàcil com sembla

Des del punt de vista individual encara queda una altra qüestió a resoldre: Què passa si no som conscients que un algoritme està prenent una decisió per nosaltres? Llavors, ni tan sols pots discutir si és just o no. Suposem que sabem que el banc, empresa, hospital o servei públic han decidit a partir d’un algoritme denegar-nos un crèdit, deixar-nos sense feina o posar-nos en una llista d’espera per a una operació quirúrgica urgent. Hi ha alguna legislació que ens doni el dret de saber per què ha actuat l’algoritme discriminant-nos?

L’Informe Automatitzant la societat: els algorismes de presa de decisions automàtiques a la UE  fou elaborat per un grup d’experts, i coordinat per les organitzacions AlgorithmWatch i Bertelsmann Stiftung. En ell s’avaluen una àmplia varietat d’usos de processos automatitzats i fan èmfasi en “les bretxes reglamentàries”, alhora que suggereixen una millor coordinació europea sobre el tema. En concret, s’esmenta que la Llei europea de Protecció de Dades (GDPR, en les seves sigles en anglès) mostra deficiències per abordar els desafiaments plantejats pels sistemes de decisió automàtica.

L’article 22 de la GDPR defineix tres condicions: 1) Quan la presa de decisions sigui completament automatitzada 2) quan es basa en dades personals i 3) quan les decisions tenen conseqüències legals significatives enla persona.  Però els experts puntuen que a la llei no queda clara la definició de ‘decisió’, ni què circumstàncies i quins ‘efectes legals’ han de donar-se perquè s’apliqui la prohibició de l’algoritme de decisió automàtica. Per tant, crítics i defensors dels drets veuen poc marge de maniobra quan es tracta de protegir els drets socials.

D’altra banda, sembla que hi ha certa preocupació per l’ús que es pugui fer de l’aplicació de certes tecnologies, inclús als Estats Units que sempre han estat menys amoïnats per la privacitat, o que les seves lleis han estat més laxes. Aquest mes de maig s’ha presentat un projecte de llei perquè l’ajuntament de San Francisco prohibeixi la vigilància facial, a més de la dels lectors automàtics de matrícules, el programari predictiu o les torres de vigilància de telèfons mòbils, entre altres. En cas d’aprovar-se la llei seria el primer municipi nord-americà en aplicar una mesura similar. El més interessant d’aquesta decisió és que San Francisco no fa servir el reconeixement facial, així que només podria assentar jurisprudència.

En l’àmbit internacional s’ha de mencionar també que l’Organització per a la Cooperació i Desenvolupament Econòmic (OCDE) va subscriure a finals de maig els Principis sobre la IA, al qual es van adherir els 36 països membres a més d’Argentina, Brasil, Colòmbia, Costa Rica, Perú i Romania. Aquests principis esmenten que la IA ha de respectar els drets humans, la diversitat i estar encapçalada per la transparència i divulgació responsable. Igualment, mencionen que els sistemes han de ser robustos i segurs, alhora  que fa responsables les organitzacions que les gestionen del seu funcionament. El seu objectiu és guiar als governs, organitzacions i ciutadans perquè el disseny i la gestió de la IA prioritzin els interessos de les persones.

Igualment cal esmentar que la Unió Europea va presentar a finals del 2018 una guia ètica sobre la ‘Intel·ligència Artificial Confiable“, on parteix del concepte ‘confiança’ per posar sobre la taula el que ens hi juguem en aquest procés tecnològic. “La IA confiable està basada en tres pilars, que s’han de complir al llarg de tot el cicle de vida del sistema: 1. Ha de ser legal, d’acord a les lleis aplicables; 2. Ha de ser ètic, garantint els principis i valors ètics; i 3. Ha de ser robust, ja que amb bones intencions, els sistemes d’intel·ligència artificial poden causar danys involuntaris”.

Tots dos documents esmentats són un vot a l’esperança en el sentit de respecte ètic amb el desenvolupament de la IA perquè van en la mateixa sintonia.

Conservar la privacitat

Recorden el primer exemple que encapçalava aquest article? El de la companyia finlandesa que recluta el seu personal a partir d’escrutar el seu correu electrònic? Si li asseguren que no emmagatzema cap dada per a realitzar la prova d’accessibilitat, hi accediria? I si afegim que el procés està controlat per un inspector de protecció de dades? Potser sí, oi? No obstant això, el sistema planteja un problema ètic i d’exclusió: Què passa amb tots aquells que igualment rebutgin l’accés als seus comptes, ja no opten a la feina? I els que no tenen correu electrònic?

Com a conclusió, només podem afegir que tenir consciència de l’existència dels biaixos dels algoritmes és el principal pas per canviar la situació actual. I quan diem ‘tenir consciència‘ volem dir fer-se qüestionaments dels valors i prejudicis que ens mouen cada dia. Perquè moltes persones asseguren no ser racistes però alhora no s’adonen dels comportaments discriminatoris que tenen cap a un col·lectiu d’una altra comunitat.

Tal com es menciona a l’estudi Discriminating systems. Gender, Race and Power, ens trobem en un moment molt crític perquè la indústria de la intel·ligència artificial decideixi què farà amb els biaixos i les seves conseqüències. Els sistemes d’AI ja estan integrats plenament a la societat i influeixen de manera molt predominant en els aspectes més íntims de les nostres vides: a la salut, la seguretat, educació i oportunitats laborals, per posar només uns exemples. “És imprescindible, doncs, avaluar les formes com aquests sistemes intel·ligents tracten la diferència. És a dir, a aquelles persones que pel seu gènere, raça, edat, estatuts social o lloc de naixement no formen part de la majoria que s’està tractant”.

Finalment, i responent a la pregunta inicial d’aquest article sobre si és possible acabar amb els biaixos dels algoritmes, s’ha de dir —sense ànim de desmoralitzar a ningú— que no. Perquè  són part de la nostra vida. Però sí que podem ser més conscients del que suposen i intentar reduir-los fent servir solucions com les mencionades. Després de tot l’exposat, les solucions només poden anar en una direcció: tenir gent més formada i educada, amb fonaments per prendre decisions. Altrament, viurem en bombolles cognitives fetes a la nostra mida. I perdrem de vista la realitat.

——————————————————————————————————–

** Ricardo Baeza-Yates és científic de dades i  CTO de NTENT, una companyia de tecnologia de cerca semàntica basada en Carlsbad, Califòrnia. A més és director dels programes de postgrau de ciència de dades de Northeastern University, campus Silicon Valley. És també fundador del Grup de Ciència de la Web i Computació Social en el Dept. de Tecnologies de la Informació i les Comunicacions de la Universitat Pompeu Fabra (UPF). Els seus interessos de recerca inclouen algorismes i estructures de dades, recuperació d’informació, cerca i mineria de dades en la Web a més de data science i visualització de dades. 

About author

Karma Peiró

Continguts relacionats

Captura de Pantalla 2019-07-14 a les 12.41.43

«Desprotegides, malgrat tot»

(Continua de la primera part) per Ricardo Baeza-Ya...

Llegir més
truman

És possible acabar amb els biaixos dels algorismes? (1a part)

(Article de Ricardo Baeza-Yates i Karma Peiró). ...

Llegir més
Captura de pantalla 2019-02-10 a les 20.24.31

«Blockchain: Fum o futur contra les fake news?»

(Continua de la primera part) per Ricardo Baeza-Ya...

Llegir més

There are 0 comments

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *