A mélytanulást alkalmazó algoritmikus eszközök számos piaci aspektusával foglalkoztunk az utóbbi hetekben. Írtunk top deepfake eszközökről, a játékvilágra eresztett AI-ről, arról hogy mire képes a logisztikában, s hogy a mesterséges intelligenciát miért engedik a pornó világába. Joggal merül fel az e-kereskedőkben azonban a kétely, hogy a jobb híján csak AI eszközökként aposztrofált eszközök milyen szinten rendíthetik meg a bizalmi kapcsolatot a vásárló és eladó között.
Legyünk patetikusan univerzálisak, és tegyük föl e kérdést úgy, hogy: „Hosszú távon milyen hatással lehetnek ezek az eszközök a civilizációnk alapjait képező morális alapokra?”
Pár napos a hír, hogy az 1989-es pekingi Tienanmen téren tankok elé álló férfi fotójára a Google képkeresőben rákeresve a ‘The Tank Man’ kulcsszóra, már egy AI által generált szelfit láthatunk az első találatként.
Persze az efféle aggályokat – főként, ha profitról van szó – hajlamosak vagyunk az asztal alá söpörni. Még akkor is, ha arról van szó, hogy ezen eszközök segítségével könnyebben kapcsolódhatunk a vásárlókhoz. És akkor is, ha arra kínál megoldást, hogy a kompetitív piac miatt egyre nehezebb kitűnni az e-kereskedők tömegéből.
Regulázni kell(ene) az AI-t
Az olykor meglehetősen kétes módszerekre és a mélytanulásra épülő generatív AI eszközök szabályozása gyerekcipőben jár az Egyesült Államokban. Mindössze három szövetségi államban regulázzák valamilyen formában a deepfake tartalmakat. Akkor és azzal együtt is, hogy már a technológia 2019-es érkezésekor több tízezer nem beleegyezésen alapuló szexuális tartalom volt elérhető online, a mindenki által elérhetővé tett eszközöknek köszönhetően.
Tagadhatatlan tény, hogy maga a technológia és annak innovatív használata (legyen szó akár a deepfakeről, akár az olyan eszközökről, mint az OpenAI megoldásai a DALL-E vagy a ChatGPT) már most is óriási hatással vannak az e-kereskedelmi szektorra.
A már említett OpenAI-hoz képest látszólag hátrányban lévő és a Barddal némileg elhasaló Google sem lőtte még el az összes puskaporát. A korábban a cégcsoport operatív működéséből távozó Szergej Brin is visszatért az utóbbi hónapokban a Googlehez, ahol a DeepMind osztállyal közösen lerakták az OpenAI megoldásánál is lényegesen kiterjedtebb nagy nyelvi modellt (large language model, LLM). Az LLM szintén képes a többcsatornás input feldolgozásra, de sokak szerint komoly riválisa lehet a Microsoft által támogatott OpenAI megoldásoknak is.
Előítélet igen, irányítás nem?
A Searchengine Journal cikke szerint a Gemini néven jelenleg már tesztüzemben fut a cégek egy kiválasztott csoportjánál egy működő verzió. Amely a cég teljesen új AI platformját a Pathwayst használja és mérete mintegy 175 milliárd paramétererrel nagyobb, mint a ChatGPT 3.0-nak. A Gartner piackutató cég előrejelzései szerint 2030-ra a kimenő marketing üzenetek 30 százalékát öntanuló algoritmusok írják majd, a filmek kilencven százalékát pedig szintén szövegből generálják majd szoftverek segítségével. Az AI eszközök piacán pedig jóval 207 milliárd dollár feletti forgalom várható – jórészt szintén a generatív AI eszközöknek köszönhetően. Ehhez azonban számos akadályt le kell még győznie a technológiának, hogy széles körben elterjedhessen.
Remek képet kaphatunk Robert Farrel összefoglalójából a technológiával kapcsolatos esetleges hátrányokkal kapcsolatban. Ez négy fő tételre bontotta le a jelenlegi helyzetértékelést.
-
A digitálisan generált tartalom minősége
Bár az egyre komolyabb hardveres háttérrel megtámogatott eszközök hatalmas fejlődésen mentek keresztül, a nem megfelelően elkészített és nyilvánvalóan gyenge minőségű AI generált tartalom továbbra is gondot jelenthet azok számára, akik nem látják be a jelenleg rendelkezésükre álló erőforrások korlátait.
-
Előítéletekre trenírozva
A generatív nyelvi modellek betanításához alkalmazott nyers adattömeg tükrözi az azokat előállító emberek előítéleteit, és gépi módon konzerálja azokat. Ha ezeket az előítéleteket pedig a felhasználók maguk is megerősítik, akkor könnyedén oda vezethet az alkalmazásuk, mint Tay, a Twitteres chatbot, amelyet a Microsoft engedett szabadjára a Twitteren, ahol nem egészen 24 óra leforgása alatt egy igazi tuskót faragtak belőle.
-
Az irányítás hiánya
Amennyiben a generatív AI modellje elkészült, meglehetősen nehézkes, ha egyáltalán lehetséges az általa generált input irányítása. Ez aztán ugyancsak komoly problémákhoz vezethet: az általa generált tartalmak sértőek és károsak lehetnek bizonyos egyének, vagy társadalmi csoportok, esetleg saját irányítóik irányába.
-
A szellemi tulajdonnal kapcsolatos aggályok
Szintén komoly kérdést vethet fel az is, hogy az AI eszközök által generált tartalmak kinek a tulajdonát képezik majd a jövőben. Különösen fontos lehet az olyan kreatív szakmák esetében ez, mint a Copywriting vagy az alkalmazott grafika, ahol már jelenleg is komoly szeletet hasítottak ki az eddig elérhető eszközök és ez a folyamat aligha lassul majd le a közeli jövőben.
Ezen problémák egy része jogi, más része minőségi, illetve morális kérdéseket is felvetnek a mélytanuláson alapuló algoritmusok használatával kapcsolatban.
Konklúzió
Annyi már most bizonyosnak látszik, hogy ezek a technológiák nemcsak a jövőben, de már jelenleg is komoly hatással bírnak az e-kereskedelmi szektorra. Ugyanakkor továbbra is a kísérleti fázisban járnak. A végleges térhódításuk előtt azonban a nyugati törvényhozóknak még meg kell alkotniuk azokat az esetleges törvényi kereteket, amelynek révén nem ráz ki minket a hideg, ha meghalljuk, hogy a Google már akár a személyes adatainkra is ráeresztheti az AI alapú személyi asszisztensét, Bardot. Illetve akkor sem, ha a ChatGPT továbbra is hajlamos tréningadat híján komoly hallucinációs ámokfutásba kezd chatelés során.