Az egészség, a biztonság, az alapvető jogok és a demokrácia védelmében az emberközpontú és megbízható mesterségesintelligencia (MI)-rendszereké a jövő. Teljes tilalom a biometrikus megfigyelésre, a gépi érzelemfelismerésre és a prediktív rendészetre. A generatív MI-rendszerek, például a ChatGPT használatakor egyértelműen fel kell tüntetni, hogy az adott tartalmat mesterséges intelligencia állította elő. Nagy kockázatnak kell tekinteni a választópolgárok szavazatát befolyásoló MI-rendszerek használatát.
A képviselők ma egy híján 500 szavazattal, 28 ellenében és 93 tartózkodás mellett meghatározták, hogy milyen tárgyalási álláspontot képviseljen az Európai Parlament a mesterséges intelligenciáról szóló jogszabályjavaslat tanácsi vitájakor. A szabályozás azt hivatott szavatolani, hogy a mesterséges intelligencia Európán belüli fejlesztése és alkalmazása mindenben megfeleljen az európai alapjogoknak és értékeknek, azaz maradjon emberi felügyelet alatt, legyen biztonságos, átlátható, ne legyen megkülönböztető, illetve a társadalom és a környezet jólétét szolgálja.
Tiltott gyakorlatok az MI használatában
A szabályok a kockázatok szintje szerint állapítanak meg kötelezettségeket a szolgáltatók és a használók számára. Az emberek biztonságára nézve elfogadhatatlan mértékű kockázattal járó MI-rendszerekre, mint például a társadalmi pontozásra (az embereknek a társadalomban tanúsított magatartása vagy személyes jellemzők szerinti osztályozása) tilalom vonatkoznék. A képviselők tilalmi listára tették az MI magánéletet sértő és diszkriminatív alkalmazásait is, a többi között
a köztereken végzett „valós idejű” és „utólagos” távoli biometrikus azonosítást;
az érzékeny személyes adatokon (nemen, fajon, etnikai származáson, állampolgárságon, valláson, politikai szemléleten) alapuló biometrikus kategorizálást;
a profilalkotásra, illetve a tartózkodási helyre vagy bűnözői előéletre alapozott prediktív rendvédelmet;
a gépi érzelemfelismerés alkalmazását a bűnüldözésben, a határ-ellenőrzésben, a munkahelyen és az oktatási intézményekben; valamint
arcfelismerő adatbázisok létrehozását az internetről vagy zártláncú televíziós hálózatok felvételeiből nem célirányosan kiválogatott arcképek felhasználásával (sértve az emberi jogokat és a magánélethez való jogot).
Nagy kockázattal járó MI-alkalmazások
A képviselők nagy kockázatúnak minősítenék azokat az MI-rendszereket, amik veszélyeztetik az emberek egészségét, biztonságát, alapvető jogait vagy a környezetet. A választási eredmények és a szavazók befolyásolására alkalmas MI-rendszerek, illetve a több mint 45 millió felhasználóval rendelkező közösségimédia-platformok által használt ajánlórendszerek a képviselők javaslatában szintén felkerültek erre a listára.
Kötelezettségek az általános célú MI-rendszerekkel kapcsolatban
A Parlament álláspontja szerint az általános célú MI-rendszerek fejlesztői csak azután hozhatnák forgalomba termékeiket az uniós piacon, hogy felmérték és mérsékelték a lehetséges kockázatokat (az egészségre, biztonságra, az alapvető jogokra, a természeti környezetre, a demokráciára és a jogállamiságra), és bejegyeztették modelljeiket az uniós adatbázisba. Az ilyen modelleken alapuló generatív MI-rendszerekkel szemben, mint például a ChatGPT, elvárás lenne az átláthatóság: minden esetben fel kellene tüntetni, hogy a tartalmat mesterséges intelligencia állította elő, segítséget kellene nyújtani az úgynevezett „deep fake”- képeknek az igaziaktól való megkülönböztetésében, valamint megfelelő biztosítékokkal kellene elejét venni a jogellenes tartalomkészítésnek. Részletes összefoglalást kellene közzé tenni például a rendszerek betanításához használt, szerzői jogi védelem alatt álló adatokról.
Az innováció ösztönzése a jogok védelmével párhuzamosan
Az innováció és a kkv-k támogatása céjából a képviselők azt javasolták, hogy a kutatási tevékenységekre és a nyílt forráskódú licencek alapján rendelkezésre bocsátott MI-komponensekre ne terjedjen ki minden kötelezettség. A jogszabályjavaslat azoknak a szabályozói tesztkörnyezeteknek is kedvez, amikben a hatóságok valós élethelyzeteket leképezve tesztelik az MI-rendszereket.
A képviselők több jogot kívánnak adni a polgároknak ahhoz, hogy adott esetben panasszal éljenek az MI-rendszerek alkalmazásával szemben. Az alapvető jogaikra ható döntésekről pedig részletes tájékoztatást kellene kapniuk a polgároknak, ha azok nagy kockázatú MI-rendszerek bevonásával születtek. Végezetül a Parlament kibővítené az MI-ügyekkel foglalkozó uniós hivatal hatásköreit, hogy az nyomon tudja követni az MI-szabálykönyv végrehajtását.
A szavazást követően a társjelentéstevő, Brando Benifei (S&D, Olaszország) kijelentette: „Ma minden szem ránk szegeződik. Miközben a nagy technológiai vállalatok megkongatták a vészharangot saját teremtményeik miatt, Európa az élre állt, és konkrét javaslatokat terjeszt elő az MI kockázatainak kezelésére. Ki akarjuk használni az MI-ben rejlő lehetőségeket a kreativitás és a termelékenység szempontjából, ugyanakkor meg akarjuk védeni álláspontunkat a Tanáccsal kezdődő tárgyalásokon, és kezelni a demokráciánkra és szabadságunkra leselkedő veszélyeket”.
Dragos Tudorache (Renew, Románia) társ-jelentéstevő hozzátette: “A mesterséges intelligenciáról szóló jogszabály világszinten irányadó lesz az MI fejlesztésében és szabályozásában. Biztosítja, hogy ennek a technológiának, amely hatalmas előnyei révén várhatóan meg fogja változtatni társadalmainkat, fejlesztése és használata összhangban legyen a demokrácia, alapvető jogok és jogállamiság európai értékeivel.”
A jogszabály támogatásával a képviselők az európai polgárok elvárásaira reagálnak, amiket a polgárok az Európa Jövőjéről szóló konferencia záró következtetéseiben juttattak kifejezésre. Ezek az elvárások: emberi ellenőrzés az MI-hez köthető folyamatok felett (35(3) számú javaslat), a megbízható mesterségesintelligencia-technológiákban rejlő lehetőségek kihasználása (35(8), számú javaslat) és az MI technológiának a nyelvi akadályok leküzdésére való felhasználása (37(3) számú javaslat). A tárgyalások a Tanáccsal a jogszabály végleges szövegéről ma már meg is kezdődtek.