Komisija pozdravlja politički sporazum postignut između Evropskog parlamenta i Saveta o Zakonu o veštačkoj inteligenciji (AI Act), koji je Komisija predložila u aprilu 2021.
Ursula fon der Lajen, predsednica Evropske komisije, rekla je: „Veštačka inteligencija već menja naš svakodnevni život. A ovo je samo početak. Kada se koristi mudro i široko, AI obećava ogromne koristi našoj ekonomiji i društvu. Stoga veoma pozdravljam politički dogovor Evropskog parlamenta i Saveta o Zakonu o veštačkoj inteligenciji. Zakon o veštačkoj inteligenciji EU je prvi sveobuhvatni pravni okvir o veštačkoj inteligenciji u celom svetu. Dakle, ovo je istorijski trenutak. Zakon o veštačkoj inteligenciji prenosi evropske vrednosti u novu eru. Fokusirajući regulativu na identifikovane rizike, današnji sporazum će podstaći odgovorne inovacije u Evropi. Garantujući bezbednost i osnovna prava ljudi i preduzeća, podržaće razvoj, primenu i preuzimanje verodostojne veštačke inteligencije u EU. Naš zakon o veštačkoj inteligenciji će dati značajan doprinos razvoju globalnih pravila i principa za veštačku inteligenciju usmerenu na čoveka.”
Evropski pristup pouzdanoj veštačkoj inteligenciji
Nova pravila će se direktno primenjivati na isti način u svim državama članicama, na osnovu definicije veštačke inteligencije koja je spremna za budućnost. Oni slede pristup zasnovan na riziku:
Minimalni rizik: Velika većina AI sistema spada u kategoriju minimalnog rizika. Aplikacije sa minimalnim rizikom, kao što su sistemi za preporuke sa AI-om ili filteri za neželjenu poštu, imaće koristi od besplatnog prolaza i odsustva obaveza, jer ovi sistemi predstavljaju samo minimalan ili nikakav rizik za prava ili bezbednost građana. Na dobrovoljnoj osnovi, kompanije se ipak mogu obavezati na dodatne kodekse ponašanja za ove sisteme veštačke inteligencije.
Visok rizik: Sistemi veštačke inteligencije identifikovani kao visokorizični će morati da budu u skladu sa strogim zahtevima, uključujući sisteme za smanjenje rizika, visok kvalitet skupova podataka, evidentiranje aktivnosti, detaljnu dokumentaciju, jasne korisničke informacije, ljudski nadzor i visok nivo robusnosti, tačnosti i sajber bezbednosti. Regulatorni sandbokovi će olakšati odgovorne inovacije i razvoj usaglašenih sistema veštačke inteligencije.
Primeri takvih visokorizičnih sistema veštačke inteligencije uključuju određene kritične infrastrukture, na primer u oblastima vode, gasa i električne energije; Medicinski aparati; sistemi za određivanje pristupa obrazovnim institucijama ili za regrutovanje ljudi; ili određeni sistemi koji se koriste u oblastima sprovođenja zakona, kontrole granica, sprovođenja pravde i demokratskih procesa. Štaviše, biometrijska identifikacija, kategorizacija i sistemi za prepoznavanje emocija takođe se smatraju visokorizičnim.
Neprihvatljiv rizik: sistemi veštačke inteligencije koji se smatraju jasnom pretnjom osnovnim pravima ljudi biće zabranjeni. Ovo uključuje sisteme veštačke inteligencije ili aplikacije koje manipulišu ljudskim ponašanjem kako bi se zaobišla slobodna volja korisnika, kao što su igračke koje koriste glasovnu pomoć koje podstiču opasno ponašanje maloletnika ili sisteme koji dozvoljavaju „društveno bodovanje“ od strane vlada ili kompanija, i određene primene prediktivne policije. Pored toga, biće zabranjene neke upotrebe biometrijskih sistema, na primer sistemi za prepoznavanje emocija koji se koriste na radnom mestu i neki sistemi za kategorizaciju ljudi ili daljinska biometrijska identifikacija u realnom vremenu u svrhe sprovođenja zakona u javno dostupnim prostorima (sa malim izuzecima).
Specifičan rizik od transparentnosti: Kada koriste sisteme veštačke inteligencije kao što su čet-botovi, korisnici treba da budu svesni da su u interakciji sa mašinom. Duboki lažni i drugi sadržaji generisani veštačkom inteligencijom moraće da budu označeni kao takvi, a korisnici moraju biti obavešteni kada se koriste biometrijska kategorizacija ili sistemi za prepoznavanje emocija. Pored toga, provajderi će morati da dizajniraju sisteme na način da sintetički audio, video, tekstualni i slikovni sadržaj bude označen u mašinski čitljivom formatu i da se može otkriti kao veštački generisan ili manipulisan.
💬 We have a message for you, and rest assured, it is not #AI-generated.
Welcome to the world’s first-ever rules on #ArtificialIntelligence!
✅ Today’s political agreement on the 🇪🇺 #AIAct will ensure AI develops in a human-centric, transparent & responsible way.
Read more ↓
— Digital EU 🇪🇺 (@DigitalEU) December 9, 2023
Novčane kazne
Kompanije koje se ne pridržavaju pravila biće kažnjene novčano. Kazne bi se kretale od 35 miliona evra ili 7% globalnog godišnjeg prometa (što je veće) za kršenje zabranjenih AI aplikacija, 15 miliona evra ili 3% za kršenje drugih obaveza i 7,5 miliona evra ili 1,5% za davanje netačnih informacija. Proporcionalnije granice su predviđene za administrativne kazne za MSP i novoosnovane kompanije u slučaju kršenja Zakona o AI.
AI – opšte namene
Zakon o veštačkoj inteligenciji uvodi posebna pravila za modele veštačke inteligencije opšte namene koja će obezbediti transparentnost duž lanca vrednosti. Za veoma moćne modele koji bi mogli predstavljati sistemske rizike, postojaće dodatne obavezujuće obaveze u vezi sa upravljanjem rizicima i praćenjem ozbiljnih incidenata, vršenjem evaluacije modela i akuzatornim testiranjem. Ove nove obaveze će biti operacionalizovane kroz kodekse prakse koje će razviti industrija, naučna zajednica, civilno društvo i druge zainteresovane strane zajedno sa Komisijom.
U pogledu upravljanja, nacionalna nadležna tijela za nadzor nad tržištem će nadgledati primenu novih pravila na nacionalnom nivou, dok će stvaranje nove evropske kancelarije za veštačku inteligenciju u okviru Evropske komisije obezbediti koordinaciju na evropskom nivou. Nova kancelarija za veštačku inteligenciju će takođe nadgledati primenu i primenu novih pravila o modelima veštačke inteligencije opšte namene. Zajedno sa nacionalnim organima za nadzor tržišta, Kancelarija za veštačku inteligenciju biće prvo telo na globalnom nivou koje primenjuje obavezujuća pravila o veštačkoj inteligenciji i stoga se očekuje da postane međunarodna referentna tačka. Za modele opšte namene, naučni panel nezavisnih stručnjaka će igrati centralnu ulogu izdavanjem upozorenja o sistemskim rizicima i doprinoseći klasifikaciji i testiranju modela.
Sledeći koraci
Politički sporazum sada podleže formalnom odobrenju Evropskog parlamenta i Saveta i stupiće na snagu 20 dana nakon objavljivanja u Službenom listu. Zakon o AI bi tada postao primenjiv dve godine nakon njegovog stupanja na snagu, osim nekih posebnih odredbi: zabrane će se primenjivati već nakon 6 meseci, dok će se pravila o AI opšte namene primenjivati nakon 12 meseci.
Da bi se premostio prelazni period pre nego što Uredba postane opšte primenjiva, Komisija će pokrenuti Pakt o veštačkoj inteligenciji. Sazvaće programere veštačke inteligencije iz Evrope i celog sveta koji se na dobrovoljnoj osnovi obavezuju da će sprovesti ključne obaveze Zakona o veštačkoj inteligenciji pre zakonskih rokova.
Da bi promovisala pravila o verodostojnoj veštačkoj inteligenciji na međunarodnom nivou, Evropska unija će nastaviti da radi u forumima kao što su G7, OECD, Savet Evrope, G20 i UN. Nedavno smo podržali sporazum lidera G7 u okviru procesa veštačke inteligencije iz Hirošime o međunarodnim vodećim principima i dobrovoljni Kodeks ponašanja za napredne sisteme veštačke inteligencije.