Az, hogy az AI apokalipszis lovasai végig vágtatnak-e a horizonton, ma még kérdés. De, hogy a falra festésük remekül megy, annyi szent.

Az Nvidia vezérigazgatója, Huang Zsen-hszün konkrétan öt jó évet ad még az emberiségnek, addigra ugyanis kifejlesztik az általános mesterséges intelligenciát (AGI). Azt, amely gyakorlatilag megkülönbözhetetlen lesz majd az embertől. A világ vezető mesterséges intelligencia chip gyártója egyébként 2023-ban 265 százalékkal növelte eladásait. Ezt pedig szinte teljes egészében az AI chipgyártásban betöltött-megszerzett piacvezető pozíciójának köszönhetően tette.

Az egykori szimpla GPU gyártót a világ harmadik legnagyobb IT cégévé repítette, hogy egyes generatív, vagy adatfeldolgozó rendszerei remekül teljesítenek. Ám, bár a technikai fejlődés elsöprő erejű  ezen a területen, az eredmények árnyékában  e rendszerek  egyre komolyabb biztonsági fenyegetést is jelentenek.

És nem ám öt év múlva! Már jelenleg is.

AI eszközökkel, AI eszközöket

A WIRED magazin beszámolója szerint meg is jelentek azok a kártevők, amelyek AI eszközökkel, AI eszközöket támadnak. A hálózatba kapcsolt, autonóm mesterséges intelligencia ökoszisztémák kockázatait demonstrálva, egy kutatócsoport már létre is hozta a generatív MI-férgek első verzióját. Ezek úgy képesek egyik rendszerről a másikra terjedni, hogy közben adatokat lophatnak, illetve rosszindulatú programokat telepíthetnek és futtathatnak.

Ben Nassi, a kutatást végző Cornell Tech fejlesztője szerint az AI rendszereket támadva és felhasználva, korábban nem ismert típusú kibertámadások hajthatók végre.  Nassi Stav Cohennel és Ron Bitton kutatótársával az általuk megalkotott férget Morris II névre keresztelte. Az eredeti Morris számítógépes féreg volt az első, elképesztően gyorsan terjedő támadás, amely 1988-ban az akkor még leginkább akadémikusok és kutatók által használt, korabeli interneten okozott komoly káoszt.

És hogy ez miért is akkora probléma? Nos, a hagyományos rosszindulatú programokkal ellentétben, amelyek gyakran kiszámíthatók, a mesterséges intelligenciát használó férgek folyamatosan fejlődhetnek és tanulhatnak, ami jelentősen megnehezíti felismerésüket  és legyőzésüket.

Szembe kell nézni a veszéllyel

Legyen bármilyen komplex és összetett is a veszély, az AI korszak fenyegetéseivel szemben továbbra is a common sense, azaz a józan paraszti ész jelentheti a legnagyobb védelmet, az egyre komplexebb fejlődés ellenére is. Az E-commerce Timesnak nyilatkozó biztonsági szakértő szerint a legfontosabb továbbra is az, hogy a felhasználók nézzenek szembe a reális veszélyekkel.

Kumar Dasani szerint, ahogy a mesterséges intelligencia (AI) átalakítja a digitális tájat, úgy változik a kiberbűnözés  is. Az online vásárlók többé nem engedhetik meg maguknak, hogy figyelmen kívül hagyják az AI-alapú csalás és a számlalopás kockázatát. A tömeges e-mailes csalások és a megtévesztő tartalom generálása csak néhány módja annak, hogy az AI szolgáltatásokat rosszindulatú célokra használják fel a kiberbűnözők. A fogyasztóknak, felhasználóknak továbbra is ébernek kell maradniuk, és aktívan részt kell venniük az AI-eszközök fejlesztésében, hogy jobban megérthessék és egyben alakíthassák is azok működését.

Mind a kereskedők, mind a vásárlók számára kritikus fontosságú az online biztonság többrétegű megközelítése. Míg az AI-t stratégiailag kell használni, a túlzott támaszkodás veszélyes. Dasani hangsúlyozza, hogy a biztonság közös felelősség. A kereskedőkre hárul a felelősség, hogy biztonságos platformokat és fogyasztói oktatást nyújtsanak, míg a vásárlóknak szorgalmasan kell használniuk ezeket az eszközöket. Ez azt jelenti, hogy olyan biztonsági funkciókat kell bevezetni, mint a kétlépcsős azonosítás, és figyelni kell az online megosztott információkra.

Az adatvédelemnek alapvető üzleti szempontnak kell lenni, de közben a vásárlóknak is érbernek kell maradniuk. A már említett józan ész által diktált szabályok egyike, hogy egyedi jelszavakat és bejelentkezési adatokat használjunk. De megoldást jelent, ha megfelelő jelszókezelő szoftvert választunk, vagy ha más-más fiókokat használunk különböző célokra. Ezek tényleg mind egyszerű, de hatékony lépések az AI által jelentett kiberfenyegetések ellen (is).

Meg kell érteni az új fenyegetést

A fent említett szakértő azonban mást is hangsúlyoz. Például azt, hogy miközben a fejlettebb mesterséges intelligencia-védelmi rendszerekre várunk, nem szabad sem túlzottan elbizakodottan kezelni, sem túlzottan félnünk az AI-alapú támadásoktól. A meglévő kiberbiztonsági intézkedések megerősítése és az új típusú fenyegetések működésének megértése azonban elengedhetetlen a biztonságos e-kereskedelmi gyakorlat megteremtésében.

Míg a mesterséges intelligencia új kockázatokat rejt magában, a tájékozottság, a rendelkezésre álló biztonsági funkciók használata és a jó digitális higiénia gyakorlása hatékony eszköz lehet mind a fogyasztók, mind a kereskedők kezében. Sok helyen ugyan már őrölnek a politika fogaskerekei, és a mesterséges intelligencia törvényi szabályozása hamarosan megszületik majd az EU-ban és az Egyesült Államokban is, az e-kereskedelem globalizált természete miatt nehéz megjósolni ezek hatékonyságát. Bár a jogi szabályozás mindenképpen szükséges a megfelelő keret kialakításához, az online kereskedők nem hagyatkozhatnak kizárólag erre vásárlóik megvédése érdekében.

Az e-commerce szereplőknek maguknak is proaktívan kell fejleszteniük biztonsági intézkedéseiket és alkalmazkodniuk az egyre szigorúbb adatvédelmi elvárásokhoz. Ugyanakkor maguk a fogyasztók is szerepet kell hogy vállaljanak ebben a folyamatban. Az online kommunikáció során például észre kell venniük a gyanús jeleket és maguknak is ellenőrizniük kell, hogy egy-egy adott sürgős felszólítás valóban az adott cég képviselőitől érkezett-e.

AI általi, komoly kockázatnak kitéve

Ahogy a Brit Nemzeti Kibervédelmi Központ tavalyi figyelmeztetésben is megfogalmazta, “a nagy nyelvi modellek (LLM) széles körű elterjedése és gyors fejlődése meglehetősen bizonytalan hatással lehet a piaci stabilitásra.”

Leginkább azért, mert továbbra is meglehetősen sebezhetőnek bizonyulnak az olyan fenyegetésekkel szemben, mint az azonnali injekciós támadások. Az ellenséges szereplők úgy manipulálhatják a promptokat, hogy ezzel összezavarjanak egy LLM-alapú chatbotot. Amint ez sikerül, az nem igazán képes különbséget tenni a feladatainak végrehajtását lehetővé tévő adatok és a prompt között, komoly kockázatnak kitéve ezzel azokat az adatokat, amelyeknek a promtoló nincs birtokában.