Hitelesség a generatív AI korában

1      Bevezetés

Ahogy a mesterséges intelligencia (AI) technológiák fejlődése gyorsul az egyre több adatnak, újabb algoritmusoknak, növekvő számítási teljesítménynek és a kiemelkedő népszerűségből (hype) is adódó befektetéseknek köszönhetően, különösen a generatív modellek (mint pl. a ChatGPT-hez hasonló nagy nyelvi modellek, képgenerálók stb.) újabb és erősebb képességekkel rendelkeznek. Nemcsak a szolgáltatások technikai tudása fejlődik, de a felhasználáshoz szükséges belépési küszöb is egyre alacsonyabb, egyre könnyebben elérhetők a korábban talán sci-fi-nek tűnő tudású és minőségű technológiák.

A minőség javulásának folyományaként az emberek, emberi érzékszervek számára egyre nehezebb megkülönböztetni hús-vér társaink, akár közvetlen kapcsolataink által valamilyen módon előállított információkat a mesterségesen generáltaktól. Sőt kifejezetten népszerűek azok a megoldások, melyek adott stílust vagy éppen arcot másolnak le.

Ha olvasunk, vagy különösen amikor egy képet, videót látunk – és nem nyilvánvaló fikcióról van szó -, egy őszinte önvizsgálattal beláthatjuk, hogy agyunk az első pillanatban igazinak hiszi amit lát. Így nőttünk fel, ezt szoktuk meg. Alapvetően az első pillanatban elfogadjuk, hogy a látottak, hallottak valóságosak, még ha aztán valami okból akár egy tized másodperc múlva kétely is ébred bennünk valamilyen hiba kapcsán.

A generatív AI olyan sebességgel és pontossággal képes létrehozni valósághű digitális tartalmakat, amely elszabadulva az információs társadalomban, alapvetően vetheti fel a hitelesség problémáját. Gyakorlatilag a valóságot kivéve minden információforrásunk megmérgezhető hamis adatfolyamokkal, óvintézkedések nélkül szélsőséges esetben a hitelességet nem is tudjuk (vagy fogjuk tudni) megállapítani.

Fel kell készülni az effajta kihívásokra, mert hamarosan egy olyan világ vehet körül minket, melyben több a mesterséges neurális hálózatok súlyszámai alapján generált tartalom, mint a fizikai valóságból vagy biológia lényektől származó. Digitális világunk javarészt szimulált/generált lehet akár 5 éves távlatban.

Az írás célja, hogy rávilágítson a generatív AI árnyékában kopogtató társadalmi és kulturális kockázatokra, vizsgáljon néhány lehetséges egyensúlyt erősítő eszközt. A tanulmány nem csupán a szöveges média, mint a ChatGPT és más nyelvi modellek által generált tartalmakat veszi górcső alá, hanem a képi, hang- és videóalapú kommunikációs platformokon felmerülő problémákat is érinti. Többek között a következő kérdésekre keresek választ:

  1. Hogyan befolyásolja a generatív AI a hitelesség fogalmát és értékelését?
  2. Milyen kockázatokat jelent a generatív AI a különböző kommunikációs platformokon?
  3. Milyen technikai és társadalmi megoldások léteznek a hitelesség biztosítására a generatív AI korában?

A digitális tartalomfogyasztásunk és gondolkodásmódunk potenciális átalakulásának küszöbén állunk. Tudatában vagyunk annak, hogy mennyire alacsony lett az élethű hamisítványok előállításának küszöbe?

2      Az AI technológiák fejlődése

Az AI technológiák fejlődése a növekvő népszerűségnek is köszönhetően egyre rohamosabban zajlik, az elmúlt években pedig több területen hozott jelentős áttöréseket.

Az idegrendszer, az emberi gondolkodás modellezésére és szimulálására irányuló kutatások kezdetei az 1950-es évekre nyúlnak vissza, amikor olyan alapvető fogalmak és technikák születtek, mint pl. perceptronok, vagy a neurális hálózatok. A gépi tanulás az 1980-as és 1990-es években vált a mesterséges intelligencia kutatások központi területévé. A gépi tanulás módszerei lehetővé tették a számítógépek számára, hogy adatokból tanuljanak és önállóan hozzanak létre modelleket. A mélytanulás (deep learning), amely a neurális hálózatok többrétegű architektúráját használja, az 2000-es években vált népszerűvé, és számos területen hozott áttöréseket, mint például a képfelismerés, a beszéd- és nyelvfeldolgozás.

2.1     Generatív modellek (Gen AI)

A generatív AI modellek képesek új, akár valósághű adatok előállítására a meglévő adathalmazokból tanultak alapján. A generatív ellenséges hálózatok (generative adversarial network, GAN) az 2010-es években jelentek meg, és forradalmasították a területet. Két neurális hálózatot használnak, egy generátort és egy diszkriminátort, amelyek egymással versengve tanulnak és folyamatosan javítják a generált adatok minőségét. A generátor hálózat feladata olyan adatok létrehozása, amelyek hasonlítanak egy adott bemeneti tanuló adathalmazhoz, például arcképhez. A vele szemben álló diszkriminatív hálózat feladata az előállított adatok értékelése és megkülönböztetése a valódi adatoktól. A generátor hálózat akkor kap pozitív visszacsatolást, ha a diszkriminatív hálózat nem tudta megkülönböztetni a valóságostól a generált tartalmat. A két hálózat egyfajta versenyben áll egymással.

Az elmúlt néhány évben a generatív technológiák (például nyelvi modellek) jelentős fejlődésen mentek keresztül. Ezek a modellek nagy mennyiségű szöveges adatot használnak a tanuláshoz, és képesek lenyűgözően valósághű szövegek generálására. Hozzájuk hasonlóan a képgeneráló modellek terén a DALL-E és a Stable Diffusion úttörő szerepet játszottak a képek generálásában és manipulálásában. Mára minden területen akadnak egyre jobb, szolgáltatásként kínált vagy nyílt forrású modellek is.

2.2     Az AI technológiák hatása a társadalomra

Az AI alapú rendszerek képesek hatalmas mennyiségű adatot feldolgozni és értelmezni, illetve ugyan így rendkívül nagy mennyiségű tartalmat létre is hozni. Ez a folyamatos termelés, információs zaj eláraszthatja a digitális csatornákat és a tartalmak ellenőrizhetetlenségének veszélyét hordozza magában. Az információáradat kezelése és a releváns információk kiválasztása egyre nagyobb kihívást jelenthet.

3      A hitelesség fogalma és jelentősége

A hitelesség egy alapvető érték, amely meghatározza, hogy mennyire megbízható, valóságos és igaz az információ vagy a forrás.

Kétely felmerülése esetén a hitelesség értékelése, vizsgálata rendkívül erőforrás igényes és költséges lehet. Adott esetben az információ eredetét, a forrás hitelességét, a kontextust és az információ összhangját más, megbízható forrásokból származó adatokkal is ellenőrizni kell.

3.1     A hitelesség fontossága az információs társadalomban

A hitelesség, megbízhatóság kulcsfontosságú tényező a társadalom, különösen az információs társadalom működésében. Azon adatok alapján döntünk, amelyeket hitelesnek, megbízhatónak tartunk: munkában, magánéletben, politikában vagy akár egy bírósági perben, így alapvető fontosságú a tájékozódáshoz, a döntéshozatalhoz és a bizalom fenntartásához.

A hiteles információk lehetővé teszik az emberek számára, hogy megalapozott döntéseket hozzanak. A hitelesség hiánya dezinformációhoz, hibás döntésekhez és bizalmatlansághoz vezethet, ami negatív hatással lehet a társadalomra (és akár a demokrácia) működésére.

3.2     Információ áradat

Az információ csorbulásának jelensége nem új. Lehet szándékos vagy akaratlan, pl. sok esetben a csatornául szolgáló szereplők feladatuknak érzik az „értelmezést”, magyarázatot stb. ami még jószándékkal kövezve is félrevezetheti adott esetben a gyanútlan tartalom fogyasztókat.

Fontos változás, hogy az információ terjedési sebessége gyakorlatilag fénysebességűvé vált és mondhatni mindenki számára elérhető szűretlenül, amihez még egy nagyságrendi kockázat növekedés léphet elő, amennyiben nem csak humán szereplők szolgáltatják az akarva vagy akaratlanul csorbított információt.

A generált tartalmak pedig egyre nehezebben különböztethetők meg a valódiaktól (akár igazibbnak is tűnhetnek), aminek következménye lehet, hogy nehezebb lesz meghatározni, hogy mire hagyatkozhatunk. Az autentikus, hiteles források felértékelődhetnek az arra igényes közönség számára.

4      Kockázat platformok

A jobb algoritmusok és erősebb hardverek fejlődése révén a generatív AI egyre szélesebb körben (több médiumon), nagy mennyiségben, jó minőségben és olcsóbban válik elérhetővé, ami lehetővé teszi rosszindulatú szereplők számára is, hogy kihasználják ezeket a technológiákat.

A hamis tartalmakat általában meg tudtuk különböztetni, például a képminőség, a szövegstílus vagy a hangminőség alapján. Ezeket a jeleket korábban viszonylag könnyen fel lehetett ismerni, de a GAN hálózatokat kifejezetten arra tanítjuk (és az RLHF is erre irányul), hogy ne lehessen megkülönböztetni a kimenetként generált tartalmat a valóstól.

4.1     Szöveg alapú, nyelvi modellek által jelentett kockázatok

4.1.1    Hamisítás, spam és phishing

A nagy nyelvi modellek által előállított tartalmak, akár hamis e-mailek és üzenetek megkönnyíthetik a személyazonosság-lopást és az adathalászatot. Egyre hitelesebb magyarsággal írt adathalász emailek (pl. az ugandai király unokaöccsének vagyonáról) vagy akár generált banki weboldalak jelenhetnek meg. Személyre szabott (küldő és fogadó egyaránt) „deepfake” e-mailek készülhetnek, amelyek egy valós személy stílusában és hangnemében íródnak, hogy a címzett könnyen elhiggye, hogy az üzenet valódi. Az ellenőrzési folyamatok nem kiforrottak, és ami tovább súlyosbítja a helyzetet: hamis tartalmak gyorsabban terjednek, mint a valódiak, vagy amilyen gyorsan azokat fel lehet ismerni és eltávolítani.

A programozni is képes nyelvi modellek használatával sokkal gyorsabban és könnyebben készíthetők csaló webhelyek, ezzel a módszerrel a támadók személyes adatokat szerezhetnek meg, vagy rávehetik az áldozatot, hogy átutaljon pénzt vagy megadja a hozzáférési adatait.

4.1.2    Információ dömping

Már jelenleg is számos generált vagy gyenge minőségben fordított oldal foglal el előkelő helyet a népszerű keresők találatai között (pl.: https://www.jotudni.hu , https://hirvonal.hu , https://www.unite.ai/hu), melyek egyetlen célja az óvatlan látogatók bevonzása a reklámbevételek növelése érdekében.

4.1.3    Szoftverfejlesztés

A programozás, és minden olyan terület, ahol megtaláljuk az AI alkalmazásának lehetőségét, felgyorsul. Több és gyorsabb változásra kell felkészülnünk, másrészt hackerek például rosszindulatú kódok, vagy egyenesen biztonsági rések feltárására is használhatják a nagy nyelvi modelleket.

4.2     Képek, fotók generálása, hamisítása

A képgenerátor modellek képesek élethű, hamis képek (Midjourney, Leonardo.ai, Stable Diffusion, Tengr.ai stb.) előállítására, amelyekben valós személyeket is imitálhatnak: például olyan helyzetekben tűnhetnek fel, amelyek soha nem történtek meg. Ez a technika használható zsarolásra, rágalmazásra vagy politikai manipulációra is szélsőséges esetben.

4.3     Hang- és hanghitelesítés

Lehetőség nyílik hangok, beszéd hamisítására felvételen, vagy akár valós időben. Például egy rosszindulatú szereplő rövid hangminták használatával hangfelvételeket, telefonbeszélgetést manipulálhat oly módon, hogy más személy hangjára emlékeztessen, így megtévesztve másokat vagy hang azonosító rendszereket. Ez problémát jelenthet tényellenőrzések során, vagy akár csalások, megtévesztés kivitelezésében.

Könnyen leutánozhatók énekesek, generálhatók zeneművek, amelyek hasonlíthatnak meglévő zenékhez, ami szerzői jogi vitákat eredményezhet és megnehezíti a művésztársadalom megélhetését.

4.4     Videók manipulációs lehetőségei

Jelen dokumentum készítéskor még nem valós probléma, de elkerülhetetlenül elérkezik az időpillanat amikor a szöveges nyelvi modellekhez hasonlóan könnyen végezhető videók előállítása és manipulációja is. Ezek a modellek képesek lesznek valós idejű hamisításra vagy manipulációra (pl. személyek kicserélésére, akár egy videóhívásban), vagy akár új videók generálására (pl. Pika, Runway ML).

A technológia fejlődésével a generált videók egyre valósághűbbek, és nem lehet megkülönböztetni őket a valódi felvételektől. Ez számos kihívást és fenyegetést jelent, a videó azonosító rendszerek megkérdőjeleződésén túl az olyan „deepfake” videókig, amelyek valós személyeket ábrázolnak hamis helyzetekben, politikai manipulációra, zsarolásra vagy rágalmazásra használhatók.

4.5     Virtuális valóságok, virtuális társak

A generatív AI a virtuális valóságok és társak teremtésére is használható. A játék- vagy filmiparban például a létrehozott virtuális világok és karakterek (NPC-k) egyre valósághűbbek és részletesebbek lehetnek.

A tartalmaknak nem kell előre beégetettnek lenniük, azok igazodhatnak a fogyasztói igényeihez. A film vagy sorozat története, játék bejárható területe vagy szereplői (megjelenés, hang, stílus stb.) mind módosítható lehet, vagy automatikusan próbálhat idomulni a még immerzívebb és személyesebb élmény biztosítása érdekében.

Már most népszerűek a generált videó tartalmak (Youtube arc nélküli csatornák), személyre szabott virtuális beszélgetőtársak (pl. character.ai), melyek az oktatástól kezdve a felnőtt szórakoztatásig mindenféle szerepet betölthetnek (akár videó folyammal kiegészítve), ezek az érintett iparágak struktúráját felrázhatják. Az új kommunikációs csatornák átalakították a napi kapcsolattartásunkat vagy munkánkat (mobiltelefon, chat, home office), de most az is alapvetően megváltozhat, hogy ki, pontosabban mi van a vonal másik végén – és ez erős társadalmi változásokat is jelenthet. Versenyben leszünk a mindig elérhető, mindig készséges virtuális társakkal stb. 2024 egyesek szerint pedig a robotika éve is lehet…

Ma ez még nem jelent közvetlen kockázatot, és tán nem is pontosan tudjuk mire használnánk, de a metaverzumok szintén hamisíthatók lehetnek, ahogy a szimulációk létrehozásának küszöbe és költsége is egyre csökken.

4.6     Összetett manipulatív támadások

A generatív technológiák, mivel az agy működését utánozzák, nagy hatékonysággal be is csaphatják azt. Különösen, ha jelek több irányból, folyamatosan és multimodálisan érkeznek, amit a célszemélyek így hitelesebbnek fognak gondolni.

A rosszindulatú támadás nem csak egyes, akár kritikus pozícióban lévő személyek (vezetők, orvosok, közvetlen kapcsolatok, családtagok stb.), hanem csoportok, akár tömegek stimulációjára és szimulációjára is képes. Mindez akár valós időben, személyre szabottan, reakcióinknak megfelelően történhet, megtévesztve ezzel a gyanútlan áldozatot.

4.6.1    Kihívások az egyének szintjén

A személyre szabott támadások során kifinomult adathalászati technikák és social engineering módszerek kerülhetnek alkalmazásra. Elképzelhető, hogy például egy közeli szeretett hozzátartozónk nyilvános profilja, videói alapján, üzeneteket, hívást, akár videókat kapunk melyben elrablását hitelesnek tűnően bemutatják, és látszólag maga a személy kéri, hogy pl. az idős hozzátartozó küldjön pénzt.

Tömeges, személyre szabott manipulációt is néhány kattintásból meg lehet valósítani a közeli jövőben, legyen akár csak még jobban testreszabott, ártalmatlannak tűnő reklámokról vagy ajánló rendszerekről szó. Ezek hatékonysága, eszközei azonban már könnyen felvethetnek etikai kérdéseket is.

4.6.2    Széles körű támadások

A rosszindulatú támadás nem csak egyes, akár kritikus pozícióban lévő személyek (vezetők, orvosok, közvetlen kapcsolatok, családtagok stb.), hanem csoportok, akár tömegek stimulációjára és szimulációjára is képes. Mindez akár valós időben, személyre szabottan, reakcióinknak megfelelően történhet, megtévesztve ezzel a gyanútlan áldozatot különösen akkor, ha jelek több irányból, folyamatosan és multimodálisan érkeznek, amit a célszemélyek így hitelesebbnek fognak gondolhatnak.

4.6.2.1      Közösségi média, ajánlórendszerek

Az algoritmusok, amelyek a személyre szabott ajánlásokat és tartalmakat generálják (pl. Facebook, Youtube feed), befolyásolhatják a felhasználók észlelését és viselkedését, sokszor észrevétlenül manipulálva, formálva véleményüket. Ezek a finom módosítások gyakran nehezen követhetők és ellenőrizhetők.

A fentihez hasonlóan tömegesen generált tartalommal a hagyományos vagy közösségi médiában finom, de határozott befolyás gyakorolható, lehetővé téve a rosszindulatú szereplők számára a manipulációt.

4.6.2.2      Keresőmotorok megfertőzése

A „SEO hackerek” (Search Engine Optimization) kihasználhatják a keresőmotorok működésének adottságait, és célzott tömeges tartalomgyártással képesek a keresési eredmények manipulálására. Ezzel a technikával eltéríthetik a gyanútlan felhasználókat (pl. hamis banki vagy hír oldalak).

4.6.2.3      Hamis információk terjesztése

A generatív MI használatával komplett hírportálok is legenerálhatók, akár friss tartalmakkal. A szerzők a háttérben azonban olyan virtuális ügynököket használhatnak (ágensek), akik hamis vagy nem teljesen tárgyszerű híreket közölnek dezinformációs céllal, a közvélemény manipulálását célozzák meg.

4.7     Gyorsuló világ

Az eddigiektől eltérő, de fontos tényező, hogy általában, de különösen az informatika illetve a szoftverfejlesztés folyamatai felgyorsulhatnak. A gépek teljesítménye olyan ütemben skálázható (sokszorozhatók vagy felgyorsíthatók), amit az emberi agy a belátható korlátok miatt aligha képes követni. Az új körülményekhez meg kell találnunk az alkalmazkodás módját.

5      Technikai lehetőségek a hitelesség biztosítására

Az előzőekben összefoglalt kihívások kezelése érdekében fontos, hogy a kutatók, szakértők és szabályozó hatóságok folyamatosan vizsgálják az új generatív MI technológiák potenciális veszélyeit és fejlesszenek ki védelmi mechanizmusokat. Emellett az oktatás és a közösségi tudatosság növelése is kulcsszerepet játszik abban, hogy az emberek felismerjék és megértsék az ilyen technológiák kockázatait, és kritikusan értékeljék az általuk fogyasztott tartalmakat.

Véleményem szerint az információ szolgáltatóknak (akár hírportálok, keresőmotorok vagy közösségi média platformok) elemi érdekük lenne hitelességük megőrzése a szabad véleményformálás megőrzése mellett, melyhez új eszközökre lehet szükség.

5.1     AI alkalmazása a hitelesség ellenőrzésére

Az AI korlátozottan képes lehet a hamisítványok és a manipulált tartalmak felismerésére, de végleges megoldást a GAN rendszerek jellege miatt aligha adhat: a következő AI betanítható a védelmi rendszer megkerülésére. A karbantartás folyamatos munkát igényel, de a hatékonyság még emellett is kérdéses lehet.

Ezzel együtt készülhetnek olyan automaták, melyek például ellenőrzik az algoritmusokat, tárgyi állításokat, tényeket, képeket hiteles forrásokból – vagy éppen jelzik, ha ezek nem állnak rendelkezésre vagy kérdésesek, óvatosságot vagy további vizsgálatot igényelnek (tény ellenőrző AI ágens).

Külön terület, de éppen az AI támogatással készülhetnek olyan intelligens keresők, melyek a tény ellenőrzők munkáját segítik.

5.2     Ellenőrzött források

Az ellenőrzött, dokumentált források hozzájárulnak a minőségi és megbízható tartalom előállításához. Mind az információ forrás (szerző), mind az információ lehet ellenőrzött. A tudományos világban van ennek gyakorlata, de a mindennapok ügyeire átültetni időben és erőforrásban is költséges lenne (manuális szemlézés).

Gyakorlati jó példákat az X platformtól vehetünk:

  1. felhasználók többszörös ellenőrzése (email, telefon, sőt bankkártyás fizetés szükséges az ellenőrzött státuszhoz), illetve
  2. közösségi moderálás, jegyzetek (community notes) funkció az üzenetekben elhangzó állítások ellenőrzésére.

A megközelítést érdemes lenne kiterjeszteni más platformokra, akár keresztplatformos aktivitásra lehetőséget biztosítani a hatékony tényfeltáróknak.

A forrás ellenőrzéshez szabály és eszközrendszert kell kidolgozni, például olyan keresőt vagy akár nagy nyelvi modellekre épülő ágenseket, melyek az alapvetően hitelesnek tartott forrásokkal dolgoznak.

Legcélravezetőbb természetesen az lenne, ha már a tartalom szolgáltatók, keresők felelősen jeleznék valamilyen társadalmi konszenzus alapján alkotott skálán, hogy magas minőségű, ellenőrzött tartalomról van szó. A szerverek tanúsítványaihoz hasonlóan a kibocsátók ellenőrizve lehetnének nem csak műszaki, hálózatbiztonsági szempontból, hanem egy számonkérhető és ellenőrizhető hiteles információ forrás tanúsítvánnyal. Természetesen a szabad vélemény alkotás lehetőségét maximálisan meg kell őrizni.

5.3     Vízjel (az AI által generált tartalmak jelölésére)

Az AI által generált tartalmak vízjelezése a nagy szolgáltatók részéről egy eszköz a generált információk jelölésére. Probléma a megközelítéssel nem csak az, hogy megkerülhető, kicselezhető (értelmezésem szerint az OpenAI is letett erről), de sokan nem is vezetik be (pl. open source modellek), így általános megoldást nem nyújtanak, mert a vízjelezést megkerülni próbálók számára mindig ott lesznek az egyre fejlődő nyílt eszközök (vagy akár saját modell készítésének lehetősége).

5.4     Digitális aláírás (az eredeti tartalmak jelölésére)

Az „eredeti” tartalmak hitelességének jelölése is fontos megközelítés lehet. Opcionálisan elektronikus aláírással kellene tudnunk ellátni mindent, ahol a forrás igazolás fontos lehet (mobil fotókon át a hivatalos, vállalati kommunikációig):

  1. saját aláírásunkkal igazoljuk, hogy mi készítettük, illetve
  2. esetleg az eszköz (kamera szenzor, mikrofon DAC stb.) gyártójának aláírásával, aki igazolja, hogy biometrikus azonosítás után és közvetlenül a szenzorból érkezett az infó (tehát digitális manipuláció nem történt rajta).

5.5     Blokklánc technológia a hitelesség biztosítására

A digitális aláírás alternatívája a blokklánc technológia alkalmazása lehet. A blokklánc technológia ellenőrizhetőséget, tanúsítást biztosít, lehetővé téve a tartalom eredetiségének igazolását.

5.6     Szoftverek (Algoritmusok, adatbázisok, AI-k) hitelességének ellenőrzése

Szoftver eszközök lehetnek a „hagyományos” programkódokban implementált algoritmusok, neurális hálózatok; adatbázisok (melyek akár az AI tanításának alapját adhatják vagy éppen az esszenciát adó súlyozást jelentik – tehát magát az AI-t); illetve a Software 2.0-ként is hivatkozott AI-knak szóló utasítások, promptok.

Mindegyik a digitális világunk működését írhatja le, emiatt a hitelességük (tudjuk, hogy mi van benne) kritikus. Minden egyes kategóriához meg kell keresni a biztosíthatóság módját, megfelelő kontroll rendszert építeni köré.

Egyik eszköz a rendszeres tesztelés, kimenet ellenőrzés kritikus elemek forráskódjának ellenőrzése, ellenőriztetése (ellenőrző ágansekkel). Például hitelességének bizonyítása érdekében a Twitter/X közzétette ajánlórendszerének forráskódját.

Belső kontroll rendszerek is jó üzentet jelezhetnek, de fontos ezek folyamatos karbantartása és külső fél által történő ellenőrzése.

6      Társadalmi hatások, feladatok

A generatív MI által jelentett kockázatok kezelése érdekében fontos a technológiai és társadalmi megoldások összehangolt alkalmazása, valamint a felhasználók tudatosságának növelése, hogy az új technológia megfelelő értékelése alakuljon ki, értve a pozitív és negatív kimenetelű használati eseteket is.

6.1     Emberi kapcsolatok

Ideális esetben az AI-tól tanulva jobb emberek is lehetünk és jobban élhetünk együtt embertársainkkal (pl. megtanulunk jobban, pontosabban kommunikálni), rossz esetben romolhat vagy meg is szakadhat a kapcsolat a valósággal, ha azt érzi a felhasználó, hogy virtuális generált világa vagy társaival jobban érzi magát, mint valódi környezetében. A generált szimulációk, virtuális világok függőséget is okozhatnak vagy személyiség torzuláshoz vezethetnek, az arra hajlamosak pl. könnyen kieshetnek a valós környezetükből (lásd japán fiatal férfiak bezárkózása).

Egy idő után etikai kérdést is felvethet a „gamification”-hoz hasonlóan, ha egy játék, társalgó  vagy színes képes-videós virtuális platform mindig, szinte már túl jól ismerve a látogatót vagy emberi elmét, mindig pont azt a következő elemet generálja, ami a felhasználónak személyre szabottan várhatóan a legérdekesebb, megnehezítve ezzel a kilépést.

6.2     A felhasználók oktatása és tudatosságuk növelése

A generatív mesterséges intelligencia rohamos fejlődése kiemeli a felhasználók oktatásának és tudatosításának szükségességét a médiafogyasztás területén. A fogyasztókat érzékenyíteni szükséges az esetleges visszaélések jobb felismerése érdekében. Az oktatási programoknak és kezdeményezéseknek fel kellene világosítaniuk a közönséget a deepfake technológiákról, a tartalom manipulációs technikákról, és a kritikus médiafogyasztási készségekről. Az ilyen tudatosító programoknak részét kell képezniük az oktatási intézményekben folyó tanítási folyamatnak, valamint az online platformoknak is létre kell hozniuk irányelveket és információs anyagokat a felhasználók számára.

Fontos tudatosítani, hogy egy kép, hangfelvétel vagy videó önmagában már nem tekinthető bizonyítéknak a könnyű hamisíthatóság miatt – talán csak ha pontosan ismert zárt láncon keresztül, hitelesen visszakövethetően készült. Ez sajnos másik oldalról a valóban megtörtént események bizonyítását is megnehezítheti.

6.3     Jogszabályi környezet

A jogalkotók és a szabályozók kénytelenek lesznek új jogszabályokat létrehozni és meglévőket frissíteni a generatív AI alkalmazásait és hatásait figyelembe véve. A jogszabályoknak foglalkozniuk kell a generált tartalmak hitelességével, az intellektuális tulajdonjogokkal, és az egyének jogával kapcsolatban, hogy megvédjék az embereket a hamis és félrevezető információktól és annak következményeitől.

Tekintettel arra, hogy akár egy videó is könnyen hamisítható deepfake technikák alkalmazásával, valószínűleg felülvizsgálatra lesz szükség a távazonosítás és távhitelesítés területén is (pl. azonosítsd magad videón keresztül).

6.4     Média és a közösségi média szerepe a hitelesség megőrzésében

A médiaintézményeknek és közösségi média platformoknak kulcsszerepet kell játszaniuk a hitelesség megőrzésében és a félretájékoztatás elleni küzdelemben. Ezen platformoknak vagy fel kell vállalniuk a felelősséget a terjesztett tartalmakért, vagy proaktívan kell dolgozniuk azon, hogy felismerjék és eltávolítsák a hamis vagy manipulált tartalmakat. Az átláthatóság és a felhasználók bevonása a hitelesség ellenőrzésébe alapvetően fontos a bizalom építése és a valóságos tartalmak terjesztése érdekében.

6.5     Munkaerőpiac

A nyilvánvaló és sokat tárgyalt munkaerőpiaci hatásokat nem tárgyalva a „hitelesség” szempontjából érdekes momentum a hitelességet, megfelelőséget értékelni, jobban megítélni tudó tapasztalt munkavállalók szerepének fontossága lehet érdekes aspektus.

7      Záró gondolatok

Gyorsan és mély benyomást tett az AI a technológiai szektorban, kicsit lassabb ütemben, de hasonló nagyságrendben befolyásolhatja a gazdaságot és társadalmat. Az AI kiterjedt használatának lehetőségei kihatnak a gazdasági növekedésre, a versenyképességre és a fejlődésre, ugyanakkor lehetőségeket is teremtenek a szürke és fekete gazdaság számára.

Bár az emberiségnek van már tapasztalata a technológiai előrelépésekhez való alkalmazkodásban, további erőfeszítésekre lesz szükség a kibővített valóság, virtuális valóság és a generatív AI által teremtett új kihívások kezelésére. A jövőbeni fejlesztések, például a multimodális modellek, amelyek képesek szöveg, audio, kép és videó feldolgozására és generálására, új dimenziókat nyitnak meg a médiafogyasztásban, a kommunikációban és az interakcióban.

Az AI etikai normák és törvények világos meghatározása után a fejlesztőknek, felhasználóknak meg kell értenie és el kell fogadnia a felelősségét. Meghatározó, hogy a technológia milyen módon és milyen célokból kerül alkalmazásra: nem a rendszer a felelős, hanem aki használja.

Ahol a hitelesség nem kritikus, például a szórakoztatóiparban, a generatív AI új lehetőségeket nyit meg. A kontroll, az ellenőrzés, és az etikai normák figyelembevétele ebben a kontextusban is fontos, még ha a követelmények nem is olyan szigorúak. Más területeken, például az orvostudományban és az oktatásban, ahol a hitelesség kulcsfontosságú, a kontrollpontok, a felelősség és a jogi keretek meghatározása létfontosságú a bizalom fenntartása és a félretájékoztatás elkerülése érdekében.