Policija već naveliko u radu koristi analitički potencijal umjetne inteligencije a aktivisti upozoravaju da ih autoritarni režimi koriste i za masovni i diskriminatorni nadzor. Napominju i da se upotrebom te tehnologije katkad krše ljudska prava i propisi o privatnosti podataka.
Europski dužnosnici trebali bi utvrditi jasnije smjernice o primjeni postojećih propisa na umjetnu inteligenciju i voditi računa o tome da budući propisi štite temeljna ljudska prava, upozorio je u najnovijem izvješću europski regulator FRA.
"Umjetna inteligencija već utječe na živote milijuna Europljana", ističe agencija, ukazujući na praćenje širenja covida 19 i donošenje odluka o socijalnim naknadama.
"Automatizacija može poboljšati proces donošenja odluka ali može rezultirati i greškama, diskriminacijom i katkad je njezine odluke teško osporiti", napominje FRA.
Europska komisija razmatra mogućnost da iduće godine usvoji direktivu kojom bi obuhvatila sektore visokog rizika, poput zdravstvene skrbi, energetike, transporta i dijelova javnog sektora.
"AI nije nepogrešiv, stvorili su ga ljudi a oni griješe. Zato moraju znati kada se (umjetna inteligencija) koristi, kako funkcionira i kako mogu osporiti automatizirane odluke", istaknuo je u priopćenju direktor Agencije EU-a za temeljna ljudska prava Michael O'Flagerty.
Propisi koji reguliraju AI moraju poštivati sva temeljna ljudska prava, uz odgovarajuće zaštitne mehanizme i jamstvo da ljudi mogu osporiti odluke koje umjetna inteligencija donosi i da kompanije moraju moći objasniti taj proces.
Potrebna su dodatna istraživanja o potencijalno diskriminatornim posljedicama upotrebe umjetne inteligencije kako bi i Europa mogla doskočiti, naglasio je FRA u izvješću.
EU također mora dodatno pojasniti kako se na tu tehnologiju primjenjuju propisi o zaštiti podataka.
Izvješće agencije temelji se na više od 100 intervjua s organizacijama u javnom i privatnom sektoru koje već koriste AI a analiza se temelji na upotrebi tehnologije u Estoniji, Finskoj Francuskoj, Nizozemskoj i Španjolskoj, navodi Reuters.