Ne irigyeljük a mesterséges intelligencia szabályozóit! Az életük nem könnyű: egy sor kényes dilemmával kell szembenézniük. Nem lehet mindenkinek a kedvére tenni, választani kell, és aztán vállalni a felelősséget. A cikk a szabályozási dilemmák közül mutat be néhány fontosabbat az EU friss rendelete, az AI Act kapcsán. Az elemzés szerzője Bőgel György, a CEU professzora, az Ecommerce Hungary Egyesület nemrég leköszönt elnöke.
2024 június 13-i dátummal jelent meg az Európai Parlament és az Európai Unió Tanácsa 2024/1689 számú rendelete a mesterséges intelligenciára vonatkozó harmonizált szabályok megállapításáról és egyes kapcsolódó rendeletek és irányelvek módosításáról. A szöveg rögtön az elején felsorolja, hányféle véleményt kellett figyelembe venni a röviden csak AI Act-nek nevezett rendelet összeállításánál. A teljes, mindenféle mellékletekkel kiegészített dokumentum magyar nyelvű változatának hossza 144 oldal. Kemény jogi szöveg, szerencsére már több összefoglaló jelent meg róla.
Mozgó célpontra lőni
Aki beleolvas az eredetibe, könnyen arra a következtetésre juthat, hogy lesznek még vele értelmezési és egyéb problémák, már csak azért is, mert gyorsan mozgó célpontra lő. Szabályozást igénylő technológiák a múltban is megjelentek, és a technológiai fejlődés rendszerint gyorsabbnak bizonyult a jogszabályok megalkotásánál, hatályba léptetésénél és érvényesítésénél. A verseny tehát egyenlőtlen, de aligha lehet tagadni a jó szándékú és körültekintő szabályozás fontosságát.
A rendelet 2024 augusztus 1-jén lépett hatályba, de ez nem jelenti azt, hogy minden szabályát azonnal érvényesíteni kell. Elsőként a tiltó szabályok lépnek életbe rögtön a jövő év elején, de az enyhébb rendelkezések érintettjeinek ennél jóval több idejük van a felkészülésre. A határidők sorban követik egymást 2025 augusztusától 2027 augusztusáig. A szabályozás aprómunkája tehát még csak ez után következik: minden érintettnek ki kell derítenie, hogy mi vonatkozik rá, milyen házi szabályokat és irányelveket kell az általános rendelet alapján megalkotnia, és mennyi ideje van erre.
De vajon hol jár majd 2027 augusztusában a mesterséges intelligencia?
Ha már szóba hoztuk az időzítést, meg kell jegyeznünk, hogy a túl korai szabályozásnál az első változatok könnyen „bennragadhatnak”, akár kényszer nélkül is korlátok közé szoríthatják a diskurzust és a szövegezést, vagyis előre szaladni legalább annyira kockázatos, mint lemaradni. Nyilván a kereskedők is a szabályozás által érintettek körébe tartoznak partnereikkel, szállítóikkal és szolgáltatóikkal együtt. Egyesek közülük az önkéntes szabályozási munkát már az AI Act megjelenése előtt megkezdték, érzékelve a mesterséges intelligenciával kapcsolatos kockázatokat és mellékhatásokat, felismerve, hogy például egy hangos botránnyal mennyit veszíthetnek. Etikai irányelvek itthon is felkerültek egyes honlapokra, de rövidesen ezeknél komolyabb lépésekre is szükség lesz.
Nem az első kísérlet
Az EU rendelete természetesen nem az első szabályozási kísérlet. Szerte a nagyvilágban törvények, szabályok tucatjai láttak már napvilágot. A The Economist egy 2023 áprilisában megjelent cikkben 37 már létező szabályozásról tett említést, de nem biztos, hogy mindent megtaláltak a nyelvek Bábelében.
A feladat fontosságára olyan események hívták fel a figyelmet, mint például a 2023 novemberében történelmi helyszínen, az angliai Bletchley Parkban megtartott MI biztonsági és szabályozási csúcstalálkozó. (A Bletchley Parkban fejtette meg Alan Turing és csapata a német tengeralattjárók által használt Enigma titkosítási rendszert, lásd az erről szóló filmet.) A rendezvényen, amit az akkori brit miniszterelnök, Rishi Sunak hívott össze, 28 ország vett részt, köztük az USA és Kína. A résztvevők között olyan ismert személyiségek is megjelentek, mint Elon Musk, aki rövidesen kormányzati pozícióba kerül Amerikában – érdekes kérdés, hogy új posztján is érvényesnek tartja-e, amit akkor Angliában mondott.
Az események a Bletchley Nyilatkozat elfogadásával zárultak, ami leszögezi, hogy a technológiával kapcsolatos kihívások és kockázatok kezelése nemzetközi együttműködést kíván, a mesterséges intelligenciának pedig biztonságosnak, humánusnak, megbízhatónak és felelősnek kell lennie. Csak így lehet elkerülni, hogy a technológia ne legyen fegyver bűnözők, terroristák és agresszív hatalmak kezében.
Érdekes helyi szabályok is vannak
Más szabályozási példákat is könnyen találhatunk. A washingtoni Fehér Ház honlapján 2023 októbere óta olvasható Biden elnök rendelete a mesterséges intelligencia biztonságos és megbízható fejlesztéséről és használatáról. Érdekes helyi szabályok is születtek. Tennessee állam kormányzója például 2024 márciusában írta alá az úgynevezett ELVIS-törvényt; az Amerikai Egyesült Államokban ez az első olyan jogszabály, amely kifejezetten a zenészeket védi a hangjuk mesterséges intelligencia révén történő jogosulatlan használatától, vagyis a klónozástól. Elsőségük minden bizonnyal nem véletlen, hiszen az államban rengetegen élnek a zenéből.
A mesterséges intelligencia etikus használatának fontosságára nemrég Ferenc pápa is felhívta a figyelmet.
Kockázatból nincs hiány
Szabályozásra kétségtelenül szükség van. Ha a gépi tanulásra épülő rendszereket szeméttel (értsd: silány minőségű, hiányos, lejárt szavatosságú adatokkal, mindenféle szennyeződésekkel) táplálják, akkor az output is hasonló lesz, a megtisztítása pedig nehéz és fáradságos feladat. Garbage in, garbage out. A modellek az emberekhez hasonlóan elfogultak, részrehajlók lehetnek, sokszor nehezen kihámozható módon diszkriminálnak. A nyelvi modellek meggyőzően tudnak állítani közönséges hazugságokat, hallucinálnak (ezt elegánsan konfabulációnak, népiesen bullshittingnek is nevezik). A gép nagyon célratörő és logikus gondolkodású lehet, engedelmeskedik a parancsoknak, de nehezen vagy egyáltalán nem fogja fel a nem megfogalmazható emberi szándékokat, értéket, etikai elveket.
A generatív mesterséges intelligencia nagyon hatékony rábeszélő gépezet, jól használható manipulálásra, téves, esetleg rosszindulatú nézetek tömeges terjesztésére. A modellek pontos működésével az alkotóik sincsenek tisztában (mesterséges agysejtek és kapcsolatok milliárdjai rétegzett neurális hálókban – ki tudja ezt áttekinteni?), ha tehát a gép dönt valamiben, gyakran nem lehet tudni, hogy miért tette. A hitelesnek látszó, de valójában hamisított gépi szövegek, képek és filmek (deepfake) aláássák az emberek közötti bizalmat, mérgezik a politikai életet, gyengítik a demokráciát.
…És így tovább, és akkor a mindenkit megfigyelő diktatúrákról és a katonai alkalmazásokról még nem is beszéltünk. Felmérések azt mutatják, hogy a szabályozást nem csak egyes szakértők szorgalmazzák, hanem a népi igény is van rá: sokakat aggodalommal tölt el egy olyan technológia térhódítása, ami a fejlesztői számára is nehezen felfogható.
Zászlóshajó a szabályozásban
Az EU AI Act megjelenése mindenesetre fontos mérföldkő a mesterséges intelligencia szabályozásának történetében. Érdemes odafigyelni rá, és nemcsak azért, mert a szabályok megszegőinek sokmillió eurós büntetéseket helyez kilátásba részben fix összegként, részben a forgalom arányában. Az EU afféle zászlóshajó a szabályozásban, a példáját, a megoldásait általában mások is követni szokták.
Kétségtelen tény, hogy az EU már egyáltalán nem fiatal általános adatvédelmi rendelete, a GDPR modellül szolgált legalább százötven adatvédelmi szabályozásnál szerte a nagyvilágban. Nem biztos, hogy ez az AI Act esetében is így lesz, a politikai helyzet ugyanis alapvetően megváltozott.
A szabályozókat nem kell irigyelni, nincs könnyű dolguk. A mesterséges intelligencia szabályozása közben számos érdekes és kényes dilemma merül fel. A következőkben ezek közül sorolunk fel néhányat, állásfoglalás nélkül. Nem a törvényben rögzített válaszokat igyekszünk bemutatni, hanem a mögöttük meghúzódó kérdésekre, választási lehetőségekre igyekszünk rávilágítani. Miért érdemes az ilyen dilemmákat áttekinteni? Azért, mert valószínűleg ezek körül bontakoznak majd ki újabb és újabb értelmezési viták, változtatási igények.
Szabályozás vs. innováció és versenyképesség
Kezdjük a szabályozás és az innováció közötti összefüggéssel, hiszen talán ez a legfontosabb dilemma. A szabályozás egyrészt jót tesz az innovációnak, hiszen rendet teremt, felszámolja a vadnyugati állapotokat, kiszámíthatóbbá teszi a környezetet. Angliában például már az 1700-as évek elején, Stuart Anna uralkodása alatt szabályt alkottak a szerzői jogokról, ami minden bizonnyal jót tett a szerzőknek és a könyvkiadóknak.
A hatás azonban nem kizárólag pozitív! A szabályok korlátok közé szoríthatják az innovációt, csökkentik a fejlesztők mozgásterét, akadályozhatják a szabad versenyt. Egyes, korábban akár kifejezetten hasznos szabályok feloldása ezért innovációs robbanást is előidézhet, lásd például a távközlési monopóliumok megszüntetését, majd a fejlesztések és a vállalkozások szabad burjánzását a múlt század végén.
A szabályozóknak tehát számolniuk kell a szabályozás alternatív költségével (opportunity cost), jelen esetben az innováció elmaradt hasznával. Mit tegyen Európa, ha azt látja, hogy másutt lazábban szabályozzák az MI-t, és arrafelé pezsgőbb az innovációs élet? A szabályozás összefügg a versenyképességgel.
Az Európai Unió versenyképességére összpontosító, az Európai Bizottság megbízásából készített, 2024 szeptemberében publikált Draghi-jelentés a mesterséges intelligenciát kulcsfontosságú lehetőségként azonosítja. Jelzi, hogy az öreg kontinens lemarad Amerikához és Kínához képest. A világ ötven legnagyobb technológiai vállalata közül csak néhány európai akad, számbavételükhöz egy kéz is elegendő. Az MI alapmodellek nagy többsége az Egyesült Államokból származik.
Mélyen a zsebükbe kell nyúlni
A Draghi-jelentés szerint Európának rengeteg MI beruházásra van szüksége, az intelligenciát minden szóba jöhető rendszerbe be kell építeni. Az államoknak és a vállalatoknak egyaránt mélyen a zsebükbe kell nyúlniuk: a K+F kiadásokat kapásból meg kell duplázni, világszínvonalú innovációs központokat kell együttes erővel teremteni. A dokumentum óva int a túlságosan korlátozó szabályozástól, ami megfojthatja az innovációt. A szabályozás és a növekedés között egyensúlyt kell teremteni, hangoztatja, méghozzá mások viselkedéséhez is igazodva, és közben megőrizni a vén kontinens értékeit.
Tehát itt a kérdés az asztalon: szabályozás és/vagy innováció? A probléma más nézőpontból is felvethető: ha a világot valóban komoly veszélyek fenyegetik az MI részéről, akkor vajon gyorsítani vagy lassítani kell a fejlődést? Több MI innovációra van szükség, vagy kevesebbre? Állítsátok meg a világot, le akarok szállni?
Lássunk most néhány más dilemmát is, az előbbinél rövidebben!
Kikre célozni az értékláncban?
A mesterséges intelligenciának ugyanolyan ellátási láncai, illetve értékláncai vannak, mint más termékeknek és szolgáltatásoknak. Ha egy vásárlás során szóba elegyedek egy chatbottal, én vagyok a lánc végén, és szépen elkezdhetem visszafejteni a közreműködők sorát, eljutva akár egész messzire, például a modellek tréningezésére használt adatok forrásáig, vagy még tovább.
Az MI szabályozói számára eldöntendő kérdés, hogy a szabályokkal a lánc mely szereplőit vegyék célba. Régi dilemma: ha baj van, a fejlesztőt vagy a felhasználót kell büntetni? Ha gyilkosság történt, leszúrtak valakit, a kés gyártóját vagy a felhasználóját kell törvény elé citálni, és ha a megelőzés a cél, kit kell szabályozni, kinek a kezét kell megkötni? A modern MI általános célú technológia (general purpose technology), ami szinte bárhol felhasználható, ráadásul a felhasználók között rengeteg amatőr is akad szerte a nagyvilágban, akiket nehéz megtalálni és rendre utasítani, ráadásul előszeretettel használnak burjánzó open source modelleket.
Az EU AI Act a lánc szereplői közül hármat emel ki a szabályozás elsőrendű alanyaiként.
- Az első csoport azoké, akik az MI rendszereket vagy általános célú MI modelleket fejlesztik, és azokat a saját nevük alatt forgalomba hozzák.
- A második körbe az MI rendszerek használói tartoznak, például az ügyfélszolgálatukon egy más által fejlesztett chatbotot bíznak meg az érdeklődők és panaszkodók kezelésével.
- A harmadik társaság az importőröké, akik külföldi MI rendszereket hoznak be valamelyik ország piacára. Elterjedt gyakorlat például az adatfeldolgozás kiszervezése: az AI rendszer valahol külföldön működik, a megbízó adatokat küld oda, majd onnan kapja meg az outputot, és mivel azt az outputot a megbízó országában használják fel, a szabályozás a külföldi szolgáltatóra is vonatkozik.
Tehát: az MI lánc mely szereplőit vegye célba az uniós szintű szabályozás? Jó a jelenlegi megoldás, vagy lesznek még vele gondok?
Kocogás vs. etika
A mesterséges intelligencia használata rengeteg etikai kérdést is felvet. Vitatkozni lehet például a technológiával támogatott reklám vagy politikai agitáció manipulatív jellegéről: hol végződik az egyszerű tájékoztatás, hol van a határ a szelíd, jóindulatú noszogatás és a gátlástalan befolyásolás között? Ezen a skálán meddig legyen az etika az úr, és honnantól lépjen fel a jog?
A szabályozóknak el kell dönteniük, hogy mit kell szigorú szabályként kőbe vésni, és mit lehet rábízni az etikus viselkedésre és az azzal összefüggő szervezeti vagy egyéni önszabályozásra. Ebből a szempontból történelmi és egyéb okokból Európa tarka képet mutat. Érdemes lesz figyelni, hogy a törvényes szabályokhoz a lapos általánosságokon kívül mit tesznek majd hozzá a házi etikai kódexek, és mit mondanak a szociológusok az „MI etika” érvényesüléséről.
Felmerül a kérdés, hogy mennyire lehet bízni az etika erejében, az értékalapú önmegtartóztatásban. A Microsoft szomorú emlékű, közösségi hatásra rövid idő alatt szexista, trágár és fajgyűlölő robottá vált Tay chatbotjának szomorú sorsa azt jelzi, hogy nem árt az óvatosság.
Közérdek vs. magánérdek
Térjünk most át a köz- és a magánérdek közötti választás problémájára! Vegyük a tudomány példáját! A közösségnek, vagy ha úgy tetszik, a társadalomnak az az érdeke, hogy a tudomány fejlődjön, például hatásos gyógyszerek szülessenek mindenféle betegségre. Virológusok szerint a covid után bármikor lecsaphat ránk egy újabb járvány, ami a közlekedés fejlődésének hála pillanatok alatt eljuthat a Föld minden sarkába. Számos példa bizonyítja, hogy a mesterséges intelligenciának fontos szerepe van a gyógyászatban, így a védőoltások fejlesztésében is. Ehhez a modelleket adatokkal kell etetni, adat pedig van bőven, hiszen az ember tetőtől talpig adatosítható a környezetével együtt.
Az egészségre vonatkozó adatok viszont érzékeny adatok, a magánélet védelmére pedig mindenkinek joga van. Az orvostudomány biztosan gyorsabban fejlődhetne, ha a mért adataink azonnal és automatikusan bekerülnének tudósok számára hozzáférhető adatbázisokba. A magánélet, a személyes adatok védelme nem egyformán fontos minden országban, és ennek megvannak a következményei a tudomány fejlődésében is.
A magán- és a közérdek ütközésére más példákat is fel lehet hozni az oktatástól kezdve a gazdaságpolitikáig. Itt van a nyelvi modellek tréningezésének problémája: ha sok szöveget „esznek”, okosabbak lesznek, ami végső soron mindannyiunknak jó, de a szövegeket emberek alkotják – mi van a szerzői jogaikkal? A szerzői jogok területén már több látványos per van folyamatban, érdekes kérdés, hogy a bírósági ítéletek milyen precedenseket teremtenek. 2025-ben már bizonyára számíthatunk néhányra.
Egy politikus mondhatja azt, hogy jobban tudná irányítani az ország gazdaságát, ha akadály nélkül beleláthatna a pénztárcánkba, üzleti titkainkba, fogyasztói és megtakarítói lelkivilágunkba, és ehhez támogatást kapna a mesterséges intelligenciától. Ki örülne ennek? A szabályozóknak el kell dönteniük, hogy mi a fontosabb, hol húzzák meg a határokat.
Érintettek és érdekek
A szabályozóknak nyilván át kell gondolniuk, hogy kik a munkájuk érintettjei, kiknek lehet előnyös vagy hátrányos egy szabály. Ha egy olyan általános célú technológiáról van szó, mint amilyen a modern mesterséges intelligencia, érintettekben nincs hiány. Milyen veszélyektől kell megvédeni a világot, kinek az érdeke fontosabb?
Az erős szabályok megnehezítik a piacon az új belépők dolgát, falakat vonnak a szektor köré. Nem véletlen, hogy egyes nagyvállalatok kifejezetten lándzsát törnek a szabályozás mellett – legalábbis bizonyos szabályok tekintetében. A startupok viszont egészen másképpen láthatják a helyzetet, és egy ilyen innovatív szektorban nagyon fontos a szerepük: a nagyoknak mindig érezniük kell, hogy az újak ott lihegnek a sarkukban.
Egyes nagy, Európán kívüli cégek gyakran a szabályozók szemére hányják, hogy az EU szabályalkotói tulajdonképpen rájuk vadásznak, hiszen az EU nem büszkélkedhet annyi technológiai óriással, mint Amerika, sőt, kifejezetten le van maradva. Európa, mondják, a reguláival az övéinél versenyképesebb amerikai technológiai vállalatokat csuklóztatja.
Épp amikor Trump másodszor jön
Az AI Act szabályai akkor kezdenek élesedni, amikor Donald Trump másodszor is beül az elnöki székbe. A választások nyertese köztudottan szoros kapcsolatot ápol Elon Muskkal, aki saját cége, az xAI révén közvetlenül is érdekelt a mesterséges intelligencia fejlődésében, és akkor a Tesláról meg a SpaceX-ről még nem is beszéltünk. A geopolitikai helyzet feszült, látványos érdekellentétek rajzolódnak ki az USA, Európa, Kína és Oroszország között. Az új szabályoknak ilyen körülmények között kell helytállniuk. Ha elmérgesedik a nagyhatalmak kereskedelmi háborúja, amire most, a nyilatkozatokat hallva jó esély van, az MI szabályozása lehet az egyik színtere és fegyvere.
A vállalatokon kívül még számos érintett van. Vagyis kérdéses, hogy a szabályozás érdekében kiknek a támogatását kell megnyerni, kiket kell bevonni a szabályalkotásba és a végrehajtásba, és hogy ki képviselje az egyes csoportokat. Megemlíthetjük például a kormányzati szerveket, a civil és más non-profit szervezeteket, az akadémiai világot, a közvéleményt úgy általában, de a sort folytathatnánk tovább is.
Mesterséges intelligencia: globális vs. lokális szabályozás
Kicsivel feljebb felsoroltunk néhány tipikus problémát a modern mesterséges intelligenciával kapcsolatban. Ezek a problémák elvileg bárhol, bármelyik országban megjelenhetnek. A problémák tehát globálisak, de ebből nem következik az, hogy a kezelésüknek is globálisnak kell lennie.
Egy olyan monolitikus rendszerben, mint amilyen például a kínai, széles tere van a központi, átfogó szabályozásnak. Amerikában viszont sok állam van, az EU pedig olyan, mint egy tarka patchwork-takaró sokféle néppel, nyelvvel, kultúrával, jogrenddel, politikai berendezkedéssel. A mesterséges intelligencia szabályozóinak el kell dönteniük, hogy meddig van értelme az uniós szintű, átfogó szabályozásnak, és hol kezdődjenek az adott körülményekhez igazodó helyi megoldások.
GDPR + DSA + DMA + AI Act és a megvalósítás intézményesítése
Az AI Act előtt az EU már más szabályokat is érvénybe léptetett a digitális világra vonatkozóan. A közelmúltban kritikus szakaszba érkezett az online közvetítőket és platformokat (például a piactereket, a közösségi hálókat, a szállás- és utazási platformokat) szabályozó Digital Services Act, valamint a digitális piacokról szóló, a tisztességes versengést szolgáló, a nagyhatalmú „kapuőröket” megregulázó Digital Markets Act végrehajtása. A szabályozóknak vigyázniuk kell, hogy a fentebb már említett GDPR, a DSA, a DMA és az új AI Act összhangban legyenek egymással, és együttesen kellő erőt képviseljenek.
Végezetül van még egy érdekes kérdés. Minden szabály annyit ér, amennyi megvalósul belőle. A szabályok érvényesítéséhez intézményekre van szükség. Vajon milyen modellt célszerű követnie az Európai Uniónak az AI Act esetében? Milyen intézményre bízza az érvényesítését? Legyen nemzetközi, semleges és non-profit – de mihez hasonlítson a meglévő formakészletből?
A vélemények megoszlanak. Modellként szóba jöhet például a nukleáris kockázatok kezelése érdekében létrehozott Nemzetközi Atomenergia Ügynökség. Másoknak inkább a Nemzetközi Polgári Repülési Szervezet példája tetszik. Egyes tudományos körök szerint valami olyasmit kellene teremteni, mint a Nukleáris Kutatások Európai Szervezete (CERN). Szóba jöhet akár az Éghajlatváltozási Kormányközi Testület is.
Modellben tehát nincs hiány… De lesz-e egyetértés?