Articles Intel·ligència Artificial
ITZIAR DE LECUONA: “Cal moderar l’entusiasme tecnològic que vivim”
5 de Març de 2020
0
, , , , , ,

Sèrie: “Converses d’ètica i intel·ligència artificial” (2)

(Treball de recerca de l’Informe: “Intel·ligència Artificial. Decisions Automatitzades a Catalunya”).

Professora del Departament de Medicina de la Universitat de Barcelona (UB). Subdirectora de l’Observatori de Bioètica i Dret de la UB

ITZIAR DE LECUONA: “Cal moderar l’entusiasme tecnològic que vivim”

L’experta en els aspectes ètics i legals de la biomedicina alerta que, en l’àmbit de la recerca biomèdica, bona part dels projectes de recerca que s’avaluen estan basats en la convergència de tecnologies, entre les quals es troben la intel·ligència artificial i l’aplicació de l’analítica de dades massives.

“La intel·ligència artificial ja és aquí, i tots estem contribuint amb els nostres conjunts de dades personals al seu desenvolupament”, explica.

“Avui és possible explotar dades a escala massiva, per millorar la presa de decisions mitjançant el desenvolupament d’algorismes, que permetin –correlacionant les dades– permetin determinar patrons de comportament i predir conductes. I això ho volen fer tots: des de la iniciativa privada fins al sistema públic de salut. Per tenir sistemes de salut més eficients o perquè la ciutadania es beneficiï d’una medicina personalitzada. No fer-ho seria gravíssim des del punt de vista ètic”, afegeix De Lecuona.

El paper del ciutadà

Portem la intel·ligència artificial integrada en els aparells, com és el cas dels mòbils. Emetem dades contínuament des dels diferents dispositius digitals que utilitzem. També, hi ha sistemes més complexos en els quals s’exploten les nostres dades personals amb diversos objectius.

El problema és que es prenguin decisions sobre mi, mitjançant dades que són meves, però que jo mai no sabré qui les té, ni per a què s’estan fent servir”.

Cal fomentar l’alfabetització digital, per poder prendre decisions lliures i informades com a ciutadans. En aquest sentit, l’experta en aspectes ètics assenyala que són nombrosos els professionals i les empreses que, en tant que tercers, col·laboren en la recerca científica. Per tant, tenen responsabilitats sobre la programació dels algorismes i el tractament de les dades confidencials. Són, en la major part dels casos, professionals que tenen un coneixement expert, però no han rebut formació en ètica.

De Lecuona proposa revisar quins perfils –com ara els científics de dades– s’haurien d’incorporar en l’avaluació de la recerca biomèdica basada en intel·ligència artificial per part dels comitès d’ètica de la recerca. També planteja que s’analitzi quins coneixements i formació en ètica i protecció de la confidencialitat de les dades personals caldria que rebessin tots els agents que treballen en IA, per assegurar que s’hi compleixin els principis d’autonomia, beneficència, justícia i explicabilitat.

Mandra tecnològica

La subdirectora de l’Observatori de Bioètica i Dret de la UB destaca que a Catalunya tenim unes bases de dades de salut de qualitat, com ara la Història Clínica Compartida (HC3) o el SIDIAP. El repte ara és que la informació que hi contenen sigui interoperable i es pugui reutilitzar. Però De Lecuona posa èmfasi en el fet que “cal moderar l’entusiasme tecnològic que tenim i evitar una confiança cega en la IA en salut. La decisió final –especialment en l’àmbit biomèdic– ha de romandre en el professional, no en la màquina. Els algorismes per se no poden tenir el poder de decisió”.

Des del punt de vista individual, Itziar de Lecuona proposa que ens espolsem la mandra tecnològica que arrosseguem i que ens informem sobre com actuen els sistemes automatitzats que afecten la nostra vida quotidiana. Cal evitar que l’algorisme contribueixi a fomentar les desigualtats i les discriminacions, o a perpetuar-les.

“No podem continuar pensant que nosaltres i els nostres conjunts de dades no són importants, i que ens és igual qui hi pugui accedir”.

Som rellevants, de tant en tant contribuïm a generar ontologies per dissenyar i perfeccionar la intel·ligència artificial mitjançant els nostres conjunts de dades. Hem de ser curosos i promoure una cultura de respecte de la intimitat. En la societat digital, protegir les dades personals és protegir les persones.”

About author

Karma Peiró

Continguts relacionats

Lamira2

Reportatge: «‘Scanning girls’, les caçadores de partícules»

(article publicat a la revista La Mira.cat el 22 j...

Llegir més
Captura de Pantalla 2020-05-15 a les 10.40.47

«Set lliçons per a lluitar amb les dades d’una pandèmia»

Per RICARDO BAEZA-YATES i KARMA PEIRÓ ...

Llegir més
COVID 19

«La falsa transparència en temps de Covid-19»

Aquests dies s’ha reclamat saber quines són le...

Llegir més

There are 0 comments

Deixa un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *