2022 november végén a ChatGPT megjelenésével magasabb fokozatba kapcsolt a Mesterséges Intelligencia (MI) versenyfutása a világban. Mindez azt is magával hozta, hogy egyre többen gondolják úgy, keretek közé kellene szorítani a mesterséges intelligenciával kapcsolatos fejlesztéseket.  Az Európai Unió készülő MI direktívájában tiltani, tűrni és támogatni tervez, Joe Biden elnöki rendeletet adott ki október végén, az angol kormányzat vezetésével pedig november elején 27 ország és az EU aláírásával megjelent a Bletchley-nyilatkozat, ami az alapelveket rögzíti az MI nemzetközi szabályozásával kapcsolatban.

De vajon miért annyira nehéz a Mesterséges Intelligenciát-t szabályozni? Miért kell az MI-től tartanunk? Mit is terveznek ezek a kezdeményezések?  És:  Mit tegyen az egyszeri cégvezető, aki biztosan olyan MI-t akar használni, amit később nem tiltanak be?

Öt dilemma

Kezdjük azzal, hogy miért kell szabályozni a mesterséges intelligenciát, illetve: Milyen komoly dilemmák merülnek fel ezzel kapcsolatban? A kiindulópont, hogy az MI adhatja a gazdasági növekedés alapját a következő évtizedekben. A PwC szerint az MI 2030-ig 15 trillió (!) dollárral és 26 százalékos GDP növekedéssel járulhat hozzá a globális gazdasághoz. A dilemmák a következők:

  1. Egyetlen kormányzat vagy gazdaság sem akarja elszalasztani a lehetőséget. Az viszont óriási fenyegetést is jelenthet, ha a fejlesztése (erről bővebben lásd lentebb) nem megfelelően zajlik.
  2. A valódi siker eléréséhez globális szinten kellene szabályozni a Mesterséges Intelligenciát. Ha nem így történik, a versenyhátránytól való félelem miatt a cégek olyan dolgokat is a világra szabadíthatnak, amiket eredendően nem szerettek volna. Nekünk viszont egyelőre csak nemzetállami kereteink vannak. Ami azonban elfogadható az egyik kultúra és etikai keretrendszer számára, az egy másiknak nem. (Az EU tiltani tervezi a társadalmi pontrendszert, Kínában megvalósítás alatt áll.)
  3. A szabályozás közismerten lassú folyamat – az MI technológia viszont nagyon gyorsan változik.
  4. A Mesterséges Intelligencia nem egy konkrét technológiáról szól. Gyűjtőfogalom, ami egyrészt több technológiát takar, másrészt általános célú technológia (mint a gőzgép, az elektromosság vagy a számítástechnika): mindenhol, mindenben és egyre inkább jelen van. (A PwC a már említett tanulmányában 300 felhasználási esetet sorol fel – hogyan lehetne ezt egységesen szabályozni?)
  5. A Mesterséges Intelligencia egy fekete doboz még a fejlesztők számára is.  Hogyan tudnánk (politikusok, jogászok stb.) valamit szabályozni, amiről nem értjük, hogy hogyan működik?

Hét kihívás

Szabályozni viszont muszáj, mert az MI legalább  hét potenciális veszélyhelyzetet már manapság is előteremthet. Ezek a szakértők szerint a következők:

  1. Az MI fejlesztés elfogult (bias) adatokon alapulhat, ami igazságtalansághoz és az MI-alkalmazásokkal való visszaélésekhez vezethet (pl. hátrány érheti az afro-amerikaikat a bűnüldözésben vagy a bírói ítélkezésben, mert a tréning adatbázisban levő ügyek előítéleten alapulnak)
  2. A kreatív tartalmak nem fair módon való felhasználása: 2023 szeptemberében: „Az Authors Guild által vezetett tizenhét legjobb szerző pert indított az OpenAI ellen, azt állítva, hogy ChatGPT-modellje megsértette a szerzői jogokat”. 2023-ban hollywoodi színészek és írók sztrájkoltak, részben azért, mert a mesterséges intelligencia a következő években fenyegetheti a munkájukat.
  3. MI hallucináció (misinformation): a nagy nyelvi modellek (LLM) esetén, mint amilyen a ChatGPT is, nem vagy nehezen tudjuk könnyen megkülönböztetni az igaz és hamis információkat. Meggyőzően „süketel” a rendszer, ami egy, az utóbbi egy évben sok figyelmet kapó jelenséggé vált.
  4. Deepfake (disinformation): akár valós időben is hamisíthatunk valódi arcokat, mozgóképeket, hangokat (pl. telefonhíváshoz) stb. Egyelőre még csak a kezdetén járunk egy olyan korszaknak, amikor már nem hihetünk a szemünknek és a fülünknek semmilyen technológiai eszköz közvetítette kommunikációs helyzetben (telefonhívás, videóhívás – telekonferencia, interneten látott videó, rádió- vagy podcast beszélgetés). A bizalom és a hitelesség sérül, ami a társadalmak normális működésének alapja. A megoldás talán a digitális vízjel minden MI generálta tartalomban, csakhogy ez is elég meggyőzően hamisítható.
  5. Nemzetbiztonsági kockázatok: az egyébként általános célra felhasználható MI bűnözők vagy terroristák kezében biztonsági kockázatot jelenthet.
  6. Autonóm fegyverek: ezek ígérete, hogy nem embereknek kell meghalniuk a harctéren, ugyanakkor ez lehet az első lépés a mesterséges intelligencia Terminátor pillanatához is. Itt az a kérdés, hogy képes lesz-e az ENSZ nemzetközi megállapodást elérni az autonóm gyilkos robotok betiltására.
  7. Egzisztenciális félelem az emberiség szintjén: a gépek kiírthatnak vagy legalábbis feleslegessé tehetnek minket, ha intelligensebbekké válnak nálunk – a 2023 márciusában útnak indított AI Pause kezdeményezés többek között emiatt javasolt egy fél éves szünetet a Mesterséges Intelligencia fejlesztésben, amíg közösen kitaláljuk, hogy milyen szabályok alapján fejlesztjük azt tovább (eleddig több mint 30 ezren írták alá).

Egy fontos közbevetés: jön vagy mi hozzuk?

A Mesterséges Intelligencia kapcsán gyakran lehet olvasni, hallani arról, hogy milyen lesz a jövő és hogyan kell arra már most felkészülnünk. Mielőtt továbbmegyünk a gondolatmenetben, fontos, hogy megértsük: nem csak az MI lehet hatással ránk, hanem mi is rá. Sőt nekünk kell eldönteni, hogy milyen Mesterséges Intelligenciát szeretnénk a jövőben. A technológiát általában a (gazdasági és társadalmi) fejlődés fő hajtóerejének tekintjük (ez az ún. technológiai determinizmus).

De a technológiát mindig is a társadalmon belül találták ki, és a társadalom tagjai használták. Ezért eldönthetjük, hogy mit preferálunk, hogyan szabályozzuk, mit támogatunk és milyen MI-t szeretnénk. Tehát ne felejtsük el, hogy a technológiát mi alkotjuk meg, és bár a technológia formál minket, ez egy kölcsönös kapcsolat. Vagyis el kell döntenünk, hogy milyen MI-t akarunk, hogyan akarunk élni és együttműködni vele. Ez az MI szabályozásának a valódi tétje.

Európai Unió: tiltani, tűrni, támogatni?

A számtalan szabályozási dilemma, sokféle MI kockázat, eltérő várakozások és meglévő törvényi, illetve etikai keretrendszerek miatt nem véletlen, hogy többféle módon nyúlnak az MI kérdéséhez a világ különböző pontjain. Nézzük meg az eltérő szabályozási gyakorlatokat a világban, három viszonylag friss példán keresztül, hogy kiderüljön hogyan gondolkodnak a Mesterséges Intelligencia szabályozásáról és a biztonságos MI használatról Európában, az Egyesült Államokban és nemzetközi szinten.

Az EU tervezett szabályozása négy szintre sorolja be az MI-t, ezek alapján tervez tiltani, tűrni vagy támogatni. Amit tiltani szeretnének: meghatározott veszélyeztetett csoportok kognitív viselkedési manipulációja (pl. MI alapú hangvezérelt játékok gyerekeknek); közösségi pontrendszer; prediktív rendészet; algoritmusok, amelyek válogatás nélkül összegyűjtik az interneten levő fényképeket; és valós idejű biometrikus azonosítás pl. arcfelismerés. Amit nem tiltanak, de magas kockázatúnak sorolnak be, azok egyrészt az EU termékbiztonsági szabályozása alá vont termékekben való MI használat (pl. játékok, repülési eszközök, liftek, autók és orvosi eszközök).

Másrészt nyolc különböző területen (biometrikus azonosítástól kezdve az oktatáson át a határrendészetig) EU adatbázisban kell majd regisztrálni az MI használatot. Valamint a forgalomba hozatal előtt, illetve a teljes életciklus során vizsgálni kell a hatásait. Külön tervezi kezelni a szabályozás a generatív MI-t: ezek nem hozhatnak létre olyan tartalmakat, amik sértik az EU törvényeket (pl. terrorizmus, gyűlöletbeszéd stb.), meg kell jelölniük az általuk létrehozott képeket vagy mozgóképes tartalmat és közzé kell tenni, hogy milyen szerzői jog alá eső tartalmakon tréningezték őket. Végül a korlátozott kockázati szinthez tartozó MI rendszereknek átláthatóknak kell lenniük, vagyis a fogyasztókat tájékoztatni kell, hogy MI-t használnak – ilyenek például a kép-, hang- vagy videotartalmat generáló rendszerek.

USA: elvi alapokon

Amerikában Biden elnök 2023 október 30-án adta ki elnöki rendeletét az MI-ről, amit a nagyobb MI cégekkel való egyeztetések és ezen szereplők lobbizása előzött meg, hogy egyértelműen szabályozzák a területet. A rendelet szigorú biztonsági és méltányossági sztenderdeket határoz meg az új technológiára vonatkozóan. Az új végrehajtási rendelet célja annak biztosítása, hogy az MI-innováció erős etikai gyakorlatokkal és biztonsági intézkedésekkel párosuljon, miközben garantálja a magánélet védelmét, a fogyasztók és munkavállalók jogait.

Kimondott cél az amerikai vezető szerep megőrzése az MI területén világszinten. nyolc alapelvet és célkitűzést fogalmaz meg. Ezek a következők:

  • biztonságos MI,
  • felelős innováció és verseny biztosítása,
  • munkavállalók továbbképzése,
  • az emberi jogokat előmozdító MI használat,
  • a mindennapi MI használat során a hétköznapi felhasználók védelme,
  • adatvédelem és a magánélethez való jog erősítése,
  • MI alkalmazás javítása a kormányzati felhasználásban,
  • globális szintű útmutatás nyújtása az MI-ben.

Ez egyelőre tehát az elvi alapokat teremti meg és kijelöli azokat az irányokat, amikben 2024-ben várható konkrét szabályozás (a rendelet kiadásától számított 270 napon belül).

Nyilatkozat már van

Végül a legfrissebb szabályozással kapcsolatos történés az UK AI Safety Summit végén elfogadott MI nyilatkozat (Bletchley Declaration). Ebben 28 aláíró (köztük az EU, az Egyesült Államok és Kína) együtt álltak ki bizonyos Mesterséges Intelligencia alapelvek mellett, 2023 november 2-án. A két és fél oldalas dokumentum szerint az MI súlyos, akár katasztrofális károkat okozhat – akár nem szándékos módon is. Ami pedig különösen aggasztó lehet a kiberbiztonság, a biotechnológia és a dezinformáció területein.

Emiatt „az MI-t biztonságos módon, emberközpontú, megbízható és felelősségteljes módon kell megtervezni, fejleszteni, telepíteni és használni.” Hangsúlyozzák: most van itt a pillanat, hogy a Mesterséges Intelligenciában rejlő hatalmas potenciált közösen meghatározott módon aknázza ki az emberiség. Mivel a kockázatok nemzetközi jellegűek, ezért nemzetközi együttműködéssel is lehet kezelni őket. Be kell vonni ebbe a vállalatokat, a tudományos szereplőket és a civil szférát is. Ugyanakkor elismerik, hogy „megközelítéseink a nemzeti körülményektől és az alkalmazandó jogi keretektől függően eltérőek lehetnek”. Tervezik, hogy további országokat és nemzetközi szervezeteket vonnak be a jövőben, támogatják a kockázatokkal kapcsolatos kutatásokat és 2024-ben folytatják a párbeszédet. Valójában tehát sokkal inkább diplomáciai sikerként értékelhető a nyilatkozat, mint konkrét szabályozásként, de idővel elvezethet akár oda is.

Mindezek alapján jól látszik, hogy egyelőre még csak az irányvonalak körvonalazódnak, még sehol sem fogadtak el konkrét szabályozást. Viszont nagyon komolyak a szándékok és az MI átfogó szabályozása várható világszerte, ahol az előnyök maximalizálása mellett a kockázatok minimalizálása és a nemzeti versenyelőnyök megtartása lesz a cél.

Érdemes-e a fejlesztésekkel megvárni a szabályozást?

Végezetül ejtsünk pár szót a praktikumról! Avagy: jelent-e kockázatot egy magyar vállalkozás számára, ha Mesterséges Intelligencia fejlesztésbe kezd vagy ilyen eszközt alkalmaz? Például, ha ügyfélszolgálati chatet, automatizált termékleírás készítő megoldást, generatív MI által támogatott content marketinget stb. használ? Mivel Magyarország az EU-ban található, ha Magyarországról és EU-s piacokról van szó, akkor az EU szabályozást érdemes elsősorban figyelembe venni.

Vagyis ne fejlesszünk olyan MI-t, ami a tiltott kategóriába esik és ne is építsünk be ilyet a folyamatainkba. Alapvetően azonban nem érdemes várni arra, hogy a végleges szabályozás megjelenjen. Az EU ugyanis várhatóan semmi olyat nem fog betiltani, vagy a szabályozás révén használhatatlanná tenni, ami legálisan működik és összhangban van a tervezetben megfogalmazott alapelvekkel.