A mélytanulást alkalmazó algoritmikus eszközök számos piaci aspektusával foglalkoztunk az utóbbi hetekben. Írtunk top deepfake eszközökről,  a játékvilágra eresztett AI-ről, arról hogy mire képes a logisztikában, s hogy a mesterséges intelligenciát miért engedik a pornó világába. Joggal merül fel az e-kereskedőkben azonban a kétely, hogy a jobb híján csak AI eszközökként aposztrofált eszközök milyen szinten rendíthetik meg a bizalmi kapcsolatot a vásárló és eladó között.

Legyünk patetikusan univerzálisak, és tegyük föl e kérdést úgy, hogy: „Hosszú távon milyen hatással lehetnek ezek az eszközök a civilizációnk alapjait képező morális alapokra?”

Pár napos a hír, hogy az 1989-es pekingi Tienanmen téren tankok elé álló férfi fotójára a Google képkeresőben rákeresve a ‘The Tank Man’ kulcsszóra, már egy AI által generált szelfit láthatunk az első találatként.

Persze az efféle aggályokat – főként, ha profitról van szó – hajlamosak vagyunk az asztal alá söpörni. Még akkor is, ha arról van szó, hogy ezen eszközök segítségével könnyebben kapcsolódhatunk a vásárlókhoz. És akkor is, ha arra kínál megoldást, hogy a kompetitív piac miatt egyre nehezebb kitűnni az e-kereskedők tömegéből.

Regulázni kell(ene) az AI-t

Az olykor meglehetősen kétes módszerekre és a mélytanulásra épülő generatív AI eszközök szabályozása gyerekcipőben jár az Egyesült Államokban. Mindössze három szövetségi államban regulázzák valamilyen formában a deepfake tartalmakat. Akkor és azzal együtt is, hogy már a technológia 2019-es érkezésekor több tízezer nem beleegyezésen alapuló szexuális tartalom volt elérhető online, a mindenki által elérhetővé tett eszközöknek köszönhetően.

Tagadhatatlan tény, hogy maga a technológia és annak innovatív használata (legyen szó akár a deepfakeről, akár az olyan eszközökről, mint az OpenAI megoldásai a DALL-E vagy a ChatGPT) már most is óriási hatással vannak az e-kereskedelmi szektorra.

A már említett OpenAI-hoz képest látszólag hátrányban lévő és a Barddal némileg elhasaló Google sem lőtte még el az összes puskaporát. A korábban a cégcsoport operatív működéséből távozó Szergej Brin is visszatért az utóbbi hónapokban a Googlehez, ahol a DeepMind osztállyal közösen lerakták az OpenAI megoldásánál is lényegesen kiterjedtebb nagy nyelvi modellt (large language model, LLM). Az LLM szintén képes a többcsatornás input feldolgozásra, de sokak szerint komoly riválisa lehet a Microsoft által támogatott OpenAI megoldásoknak is.

Előítélet igen, irányítás nem?

A Searchengine Journal cikke szerint a Gemini néven jelenleg már tesztüzemben fut a cégek egy kiválasztott csoportjánál egy működő verzió.  Amely a cég teljesen új AI platformját a Pathwayst használja és mérete mintegy 175 milliárd paramétererrel nagyobb, mint a ChatGPT 3.0-nak. A Gartner piackutató cég előrejelzései szerint 2030-ra a kimenő marketing üzenetek 30 százalékát öntanuló algoritmusok írják majd, a filmek kilencven százalékát pedig szintén szövegből generálják majd szoftverek segítségével. Az AI eszközök piacán pedig jóval 207 milliárd dollár feletti forgalom várható – jórészt szintén a generatív AI eszközöknek köszönhetően.  Ehhez azonban számos akadályt le kell még győznie a technológiának, hogy széles körben elterjedhessen.

Remek képet kaphatunk Robert Farrel összefoglalójából a technológiával kapcsolatos esetleges hátrányokkal kapcsolatban. Ez négy fő tételre bontotta le a jelenlegi helyzetértékelést.

  1. A digitálisan generált tartalom minősége

    Bár az egyre komolyabb hardveres háttérrel megtámogatott eszközök hatalmas fejlődésen mentek keresztül, a nem megfelelően elkészített és nyilvánvalóan gyenge minőségű AI generált tartalom továbbra is gondot jelenthet azok számára, akik nem látják be a jelenleg rendelkezésükre álló erőforrások korlátait.

  2. Előítéletekre trenírozva

    A generatív nyelvi modellek betanításához alkalmazott nyers adattömeg tükrözi az azokat előállító emberek előítéleteit, és gépi módon konzerálja azokat.  Ha ezeket az előítéleteket pedig a felhasználók maguk is megerősítik, akkor könnyedén oda vezethet az alkalmazásuk, mint Tay, a Twitteres chatbot, amelyet a Microsoft engedett szabadjára a Twitteren, ahol nem egészen 24 óra leforgása alatt egy igazi tuskót faragtak belőle.

  3. Az irányítás hiánya

    Amennyiben a generatív AI modellje elkészült, meglehetősen nehézkes, ha egyáltalán lehetséges az általa generált input irányítása. Ez aztán ugyancsak komoly problémákhoz vezethet: az általa generált tartalmak sértőek és károsak lehetnek bizonyos egyének, vagy társadalmi csoportok, esetleg saját irányítóik irányába.

  4. A szellemi tulajdonnal kapcsolatos aggályok

    Szintén komoly kérdést vethet fel az is, hogy az AI eszközök által generált tartalmak kinek a tulajdonát képezik majd a jövőben. Különösen fontos lehet az olyan kreatív szakmák esetében ez, mint a Copywriting vagy az alkalmazott grafika, ahol már jelenleg is komoly szeletet hasítottak ki az eddig elérhető eszközök és ez a folyamat aligha lassul majd le a közeli jövőben.

Ezen problémák egy része jogi, más része minőségi, illetve morális kérdéseket is felvetnek a mélytanuláson alapuló algoritmusok használatával kapcsolatban.

Konklúzió

Annyi már most bizonyosnak látszik, hogy ezek a technológiák nemcsak a jövőben, de már jelenleg is komoly hatással bírnak az e-kereskedelmi szektorra. Ugyanakkor továbbra is a kísérleti fázisban járnak. A végleges térhódításuk előtt azonban a nyugati törvényhozóknak még meg kell alkotniuk azokat az esetleges törvényi kereteket, amelynek révén nem ráz ki minket a hideg, ha meghalljuk, hogy a Google már akár a személyes adatainkra is ráeresztheti az AI alapú személyi asszisztensét, Bardot. Illetve akkor sem, ha a ChatGPT továbbra is hajlamos tréningadat híján komoly hallucinációs ámokfutásba kezd chatelés során.