ARGIA.eus

Itzulpen automatikoa / Machine translation

2023-04-14 13:23

Administrazioak erabiltzen dituen algoritmoen erregistro publiko bat sortzearen inguruan hitz egin dute nazioarteko lau adituk Eusko Legebiltzarrean, EH Bilduko Lore Martinez Axpek proposatuta. Artikulu sorta batean haiek esandakoak laburbiltzen ari gara eta egunero bat argitaratu dugu (hemen lehenengoa, bigarrena eta hirugarrena). Laugarren hitzaldia Bartzelonako Gemma Galdón Clavell-ek eman du. Doktorea, etika teknologikoan eta erantzukizun algoritmikoan aditua da Galdón, baita Eticas Tech Fundazioaren sortzaile eta zuzendaria ere.

Eticas Tech Fundazioak 10 urte daramatza algoritmoak auditatzen. Administrazio publiko eta sektore pribatuarekin lan egiten dute. Une honetan, Europako Parlamentua adimen artifiziala erregulatzeko prestatzen ari den Adimen Artifizialaren Legearen osaketan parte hartzen ari dira. Lege honek algoritmoak auditatzea aurreikusten du, eta arrisku handiko sei sektore identifikatzen ditu: hezkuntza, medikuntza, gizarte zerbitzuak, mugikortasuna, segurtasuna eta justizia.

Galdónen esanetan, esparru horietan badaude dagoeneko erabakiak hartzen laguntzen duten adimen artifizialeko sistemak. Adibidez, Espainiako Estatuan horrelako gomendio sistema edo arrisku ebaluaziorako algoritmoak erabiltzen dira hainbat erabaki hartzeko: genero indarkeriaren biktima izandako emakumeei ezarriko zaien babes maila, norbaiti hirugarren gradua emango zaion, elektrizitatearen bonu soziala dagokion…

Algoritmo horiek nola funtzionatzen duten azaltzeko adibide bat erabili du Galdónek. Demagun A puntutik B puntura joateko biderik egokiena ematen duen nabigazio sistema bat. Aurrez ibilbide hori egin duten pertsonak nagusiki nondik joan diren begiratuko du eta biderik erabiliena gomendatuko digu. Hala ere, azken minutuetan istripu bat egon delako bide hori itxita badago, alternatiba batetik joateko esango digu. Adimen artifizialean entrenamendu bat egoten da (aurrez egindako ibilbideak), hortik patroiak ateratzen dira (biderik ohikoena) eta arau gehigarriak ezarri daitezke (bidea itxita istripuagatik) errealitate aldakorrera egokitzeko.

Beste adibide bat erabili du Galdónek algoritmoek jendartean dauden bazterkeriak islatzen dituztela azaltzeko. Banku batek hipoteka nori eman eta nori ukatu erabakitzeko, datu historikoak erabiltzen baditu, gizonezkoei ematea hobetsiko du, duela gutxira arte bankuko kontuak nagusiki gizonen izenean egon direlako. Are gehiago, patroi hori indartuz joango da denborarekin eta azkenean gizonei soilik emango dizkie hipotekak. Horrelako kasuetan, babes neurri gehigarriak hartu behar dira, baztertuak izateko arriskuan dauden jendarteko sektoreak babesteko.

Galdónen esanetan, adimen artifiziala oso lagungarria izan daiteke prozesuen eraginkortasuna hobetzeko, baina tresnak behar ditu arazo, diskriminazio eta disfuntzioak minimizatzeko. Industriari ulertzea kostatzen bazaio ere, historikoki berrikuntzen alde negatiboak eta arriskuak gutxitzeko neurriak hartu izan dira. Adibide batekin azaldu du adituak: autoek hasieran ez zuten segurtasun uhalik, erregulatzaileek segurtasuna eskatzen zuten eta industriak segurtasun uhalak garatu zituen.

Teknologia sektorea arautu gabe egotea anomalia dela azaldu du Galdónek eta Eticas Fundazioa horri buelta emateko lanean ari dela. Adimen artifizialaren kasuan asko inbertitu da berrikuntzan eta oso gutxi arriskuak txikiagotzeko mekanismoetan. Azaldu du, jendarte osoarentzat onuragarria izan dadin, beste sektoreetan garatu diren erregulazioak ekarri behar direla teknologiaren mundura. Adibide bezala, jogurten produkzioa jarri du. Jogurtak kalterik ez digula egingo ziurtatzeko kontrol mekanismoak daude, esnea ematen duen behiaren janaritik hasita, dendara iritsi arte. Prozesu horretan zerbaitek huts egiten badu, kontsumitzailearen babeserako legeak aplikatzen dira. Hori da ohikoa produktu gehienekin, baina teknologiaren kasuan ez dago pertsonak babesteko neurririk. Aplikazioak zuzenean iristen dira garatzailetik erabiltzailera, inolako kontrolik gabe, baita tartean adingabeak edo zerbitzu publikoak daudenean ere.

Eticas Fundazioan garrantzi handia ematen diote algoritmoen auditoriei, eta emaitzak modu ulerterrazean azaltzeko bi modu garatzen ari direla azaldu du Galdónek. Batetik, algoritmoen erabilera-orriak, botikek dituztenen parekoak: osagaiak zein diren, zertarako den, zer albo-ondorio izan ditzakeen… Bestetik, “algo-puntuazioak”, etxetresna elektrikoek dituzten etiketa energetikoak bezalakoak.

Gardentasunaren garrantzia azpimarratu du Galdónek: ez badakigu algoritmoak erabiltzen direla, ezin da babes neurririk hartu. Espainiako estatuan, 2007an hasi ziren Viogén algoritmoa erabiltzen, tratu txarrak jasan dituzten emakumeen arrisku-faktorea kalkulatzeko, baina ez zen ezagutzera eman 2021ean Eticas Fundazioak bere auditoria argitaratu zuen arte. Herritarrek ez dakite beren datuak algoritmoak erabiliz prozesatzen direnik.

Eticas Fundazioa lanean ari da hainbat administraziorekin, algoritmoen erregistroak sortzeko. Laster derrigorrezkoa izan daiteke. Gardentasun ariketa horrek herritarren oinarrizko eskubideak bermatzen lagunduko lukeela esan du Galdónek. Erregistro horretan informazio hau jasotzea proposatzen dute:

  • Sistemari buruzko informazio orokorra.
  • Prozesuari buruzko informazioa.
  • Entrenamenduan eta balidazioan erabili diren datuak.
  • Eredu algoritmikoa.
  • Bazterkeria eta eragin kaltegarririk ez dela izango ziurtatzeko ze test egin diren.
  • Apelaziorako bideak: herritarrak ze bide dituen kexa edo desadostasunak agertzeko. Administrazioaren erabaki arruntetan herritarrak dituen eskubide berak behar ditu erabaki algoritmikoetan ere.
Argazkia: Eusko Legebiltzarra

 

Artikulu hau egilearen RSS jariotik automatikoki ekarri da hona. Baliteke jatorrizko artikulua luzeagoa izatea, eta hemen irakur dezakezu.
Gure bi jakintza nagusiak TEKNOLOGIA eta KOMUNIKAZIOA erabilita, zure proiektuak behar duen lekura iristen laguntzeko prest! Ametzagaiña taldea osatzen dugu ARGIA, Antza eta Adurrekin batera.