Deepfake videók a közéletben (interjúm a HVG-ben)
A közelmúltban itthon is egyre jobban elterjedtek a mesterséges intelligenciával készült vagy manipulált tartalmak. Hogyan szabályozza a jog ezt a jelenséget, és mit tehet az, aki áldozatául esik egy ilyen visszaélésnek? Pár hete többek között ezekről a kérdésekről nyilatkoztam a HVG-nek.
A digitalizáció egykori ígérete - miszerint a tények és az igazság minden korábbinál könnyebben hozzáférhetőbbek lesznek - a mesterséges intelligencia korának beköszöntével szétfoszlani látszik, ez utóbbi ugyanis a megtévesztés és a kétely korszakát hozta el nekünk. Közhely ugyanis, hogy az AI térnyerésével ijesztően könnyen hozhatóak létre olyan nem valódi tartalmak - akár mások hangjának, megjelenésének utánzásával -, amelyek valóságosnak tűnnek.
Egy olyan világban, ahol a közbeszéd szerkezete radikálisan átalakult, és a hagyományos mértékadó sajtótermékek helyét algoritmusok által pörgetett platformok vették át, már eddig is elárasztottak minket a téves információk, összeesküvési elméletek, végtelenül leegyszerűsített magyarázatok, tévhitek és előítéletek. Ha erre a mesterséges intelligencia rátesz még egy lapáttal, és megnő a technológiát szándékosan manipulatív célra felhasználók szerepe és súlya, annak társadalmilag is kiszámíthatatlan következményei lehetnek.
A közelmúltban mi is közvetlen betekintést nyerhettünk abba, hogy milyen is az, amikor egy politikai párt AI által generált tartalmakkal próbálja meg befolyásolni a választók magatartását. Még tavaly novemberben a fenti események apropóján keresett meg a HVG, hogy szakemberek bevonásával készítenek egy anyagot, és jogi szakértőként rám esett a megtisztelő választásuk. A beszélgetésből végül egy elég aktuálpolitikai vonatkozású videós anyag kerekedett. Az újságíróval folytatott beszélgetésünk lényegét az alábbiakban foglaltam össze, de a cikk végén a videót is elérhetővé teszem.

Hogyan érte a jogalkotást és jogalkalmazást az a technológiai bumm, ami az AI videók terén megfigyelhető volt az elmúlt hónapokban?
A mesterséges intelligencia korában az egyik legnagyobb kihívás, hogy megkülönböztessük a valóst a valótlantól, és ezt a tényt a deepfake anyagok közelmúltbeli elterjedése még inkább aláhúzza.
A jog, mint az életviszonyok feletti társadalmi kontroll fontos eszköze természetesen nem teheti meg, hogy nem reagál erre, és ez a közelmúltban meg is történt.
Az Európai Unióban 2024-ben elfogadásra került, és fokozatosan hatályba lépő Mesterséges Intelligencia Rendelet már definiálja a deepfake-t, mégpedig olyan AI segítségével manipulált vagy generált képként, audio- vagy videotartalomként, amely létező személyekre, tárgyakra, helyekre vagy eseményekre hasonlít, és amely valaki számára megtévesztő módon eredetinek, vagy valóságosnak tűnhet.
A rendelet továbbá azt is előírja, hogy 2026 augusztusától minden olyan AI rendszer szolgáltatója, amely alkalmas mesterséges hang-, kép-, video vagy szöveges tartalom létrehozatalára (ez gyakorlatilag igaz valamennyi általános célú AI rendszerre is, mint amilyen például a ChatGPT), köteles gondoskodni arról, hogy az ilyen tartalmak "mesterséges" voltát gépi eszközökkel észlelni lehessen, például egy digitális vízjel elhelyezésével. Ugyanilyen kötelezettség vonatkozik majd az ilyen rendszerek felhasználóira is, akiknek a felhasználáskor egy egységes ikon feltüntetésével jelezniük kell majd, hogy az adott tartalmat AI segítségével generálták vagy manipulálták.
Mennyire tud felkészülni a törvénykezés az ebből adódó jogi esetekre?
A törvénykezés, vagyis a jogalkalmazás mozgásterét a jogszabályi előírások szabják meg.
Amint azt a fentiekben is láttuk, az alapvető szabályok - legalábbis az Európai Unióban - már adottak, a feladat a hatóságok, bíróságok számára már adott: a gyakorlatban is érvényt szerezni a jogszabályi előírásoknak, és a piacfelügyeleti hatóságok komoly bírságok kiszabásával is ösztönözhetik a megfelelést, illetve büntethetik a szabályok megszegését.
Tisztázzunk egy fontos kérdést! Ha én ma egy AI videó program segítségével valaki más arcát felhasználva készítek egy videót, és azt közzéteszem, akkor bűncselekményt követek el?
A mesterséges intelligencia természetesen nem egy szabályozási vákuumban létezik és működik, hiszen a korábban a személyiség védelmére megalkotott rendelkezések ilyen esetekben is felhívhatóak. A Büntető Törvénykönyv 226/A.§ és 226/B.§ pontjai már eddig is tiltották a becsület csorbítására alkalmas, másról készült hamis kép-, vagy hangfelvétel elkészítését, és nyilvánosságra hozatalát, és ezek a tényállások elvileg alkalmazhatóak lennének a deepfake-videókra is, de ezek a gyakorlatban sokszor nehezen alkalmazhatóak.
Önmagában ugyanis egy deepfake elkészítése/megosztása nem lesz bűncselekmény, csak ha bizonyítható, hogy az elkészítés vagy közlés azzal a céllal történt, hogy valakinek a becsületét csorbítsa, azaz az emberi méltóságát sértse (ez az úgynevezett célzat általában nehezen bizonyítható); és a videó hamis/valótlan (azaz nem a valóságban megtörtént eseményeket ábrázolja), vagy hamisított (valóságban megtörtént dolgot ferdít el manipulációval).
A közelmúltban nagyszámban megjelent közéleti AI-videók nyomán egy ellenzéki parlamenti párt kísérletet tett arra, hogy a fenti rendelkezéseket egy további ponttal kiegészítsék, és így megkönnyítsék a deepfake videók elleni fellépéseket. A módosító javaslat alapján a deepfake videók nyilvánosságra hozatala már önmagában, becsületsértő vagy egyéb célzat nélkül is bűncselekménynek minősült volna, és amennyiben az ilyen visszaélést választások befolyásolásának céljával követnék el, az szabadságvesztéssel lett volna jutalmazható. A módosítás elfogadása a jelenlegi helyzetnél szigorúbb szankciókat, és komolyabb elrettentő hatást eredményezett volna, de ez a javaslat végül elbukott.
Létezhet olyan eset, hogy egy személy, vagy akár egy csoport, olyan mennyiségben oszt meg ilyen tartalmakat, hogy felmerül a közbizalom elleni vétség? Gondolok itt arra, hogy valaki mondjuk az ilyen tevékenységével okoz súlyos társadalmi károkat, vagy megtéveszt jelentős számú fogyasztót.
A közbizalom elleni bűncselekmények önálló kategóriát képeznek a Büntető Törvénykönyvben, és általában az igazolványok vagy azonosító jelek valódiságába vetett bizalmat sértik. Ilyennek minősül, amikor valaki hamis rokkant igazolvánnyal parkol rokkantaknak fenntartott parkolóhelyen, vagy kamu diákigazolvánnyal vásárol kedvezményes diákjegyet. Az AI felhasználásával elkövethető bűncselekmények nem ide tartoznak, hanem az emberi méltóság és alapjogok sérelmével elkövetett cselekményekhez.
Ha a közbizalmat hétköznapi értelemben értjük, akkor itt felmerül, hogy mit tud azzal kezdeni a jog, ha a választókat egy politikai kommunikáció szándékosan megtéveszti és manipulálja. Erre a hagyományos fogyasztóvédelmi jog nem terjed ki, mert az B2C viszonylatban érvényesül vásárlók és eladók között, és áruk és szolgáltatások megvásárlásával kapcsolatos megtévesztésekkel, a fogyasztói magatartások tisztességtelen befolyásolásával, annak tilalmazásával foglalkozik.
A választói magatartás deepfake-videókkal történő befolyásolását tehát– ha az egyéb jogszabályokba nem ütközik – nem tiltja külön jogszabály, így a Büntető Törvénykönyv sem.
Még a politikai reklám kérdésköre merülhet fel, amit a Médiatörvény szabályoz, és amire szintén szigorú szabályok vonatkoznak, például eleve csak kampányidőszakban vagy népszavazással összefüggésben lehet közzétenni, és egyértelműen fel kell tüntetni a közzététel megrendelőjét (ez tipikusan egy párt szokott lenni), de ennek a szabályai leginkább csak a hagyományos médiaszolgáltatókra és sajtótermékekre (pl. TV, rádió, online újságok) vonatkoznak, a közösségi médiában és egyéb platformokon politikai reklámokat megosztó felhasználókra nem.
Idesorolható még az EU politikai reklámokkal kapcsolatos 2025-ben hatályba lépett új szabályozása is, amely alapján a platformok kötelesek egyértelműen politikai hirdetésként címkézni a pártok hirdetéseit, és közzé kell tenni a hirdetőiket, a kampány költségeit, és amelynek az adminisztrációs terhei miatt a közösségi médiumok és egyéb platformok inkább az ilyen típusú reklámok betiltása mellett döntöttek. Mivel ezek a szabályok könnyen kijátszhatóak (ennek jeleivel minden nap magunk szembesülhetünk), itthon sajnos ennek sincs különösebb hatása.
Az AI-jal kapcsolatos közbizalom erősítésére szolgál majd a 2026 augusztusában hatályba lépő, fent említett azon szabály is a Mesterséges Intelligencia Rendeletben, amely előírja, hogy a deepfake tartalmak közzététele esetén fel kell majd tüntetni, hogy az AI eszközökkel készült, vagy manipulált. Ez remélhetőleg majd a gyakorlatban is megkönnyíti az ilyen tartalmak beazonosítását, és a velük szembeni jogi fellépés lehetőségeit.
Hogyan védi a jog a politikusok és egyéb közszereplők személyiségi jogait?
A politikusoknak közszereplői mivoltuknál fogva sokkal több bírálatot kell eltűrniük, mint egy átlagembernek, de fontos, hogy ez csak a közügyekkel, közéleti vitával kapcsolatban igaz, és a politikusok magánélete ugyanúgy védett. A bírói gyakorlat ugyanakkor egyértelműen abba az irányba mutat, hogy a jogos bírálhatóság kereti tágulnak, és a közszereplők magánszférája egyre inkább szűkül.
A politikusok személyiségi jogai szükséges és arányos mértékben korlátozhatóak, de az, hogy valami belefér, vagy túlmegy-e a megengedett határon csak egy kontextus-függő, eseti megközelítés alapján ítélhető meg. Bár ebben a kérdésben nehéz általános érvényű szabályokat felállítani, a Polgári Törvénykönyv abszolút korlátként azt is előírja, hogy a politikusokat érintő megnyilatkozások (ideértve többek között a deepfake videókat is) az emberi méltóságot nem sérthetik.
Márpedig az olyan tartalmak, amelyek dehumanizálnak, állatként ábrázolnak és megfosztanak emberi mivoltától egy politikust, az egészen biztosan sérti az emberi méltóságát, és emiatt jogsértő lesz.
Mit kell tennie annak, aki áldozattá válik egy AI videó miatt, és mi várhat arra, aki vissza él az AI videók kínálta lehetőségekkel?
Ha csak személyiségi jogsértés történt (például valakinek a képmását használták ilyen célra), akkor polgári pert indíthat és kérhet kártérítést (sérelemdíjat). Ha bűncselekményi kategóriába tartozik az ügy, akkor feljelentést is lehet tenni. Fontos megjegyezni, hogy a két eljárás nem zárja ki egymást, és párhuzamosan is megindíthatóak.
2026 augusztusától már a hazai AI hatóságnál is lehet bejelentést tenni a Mesterséges Intelligencia Rendeletében foglalt, fent említett AI transzparencia szabályok megszegése miatt, és itt már alkalmazható lesz az előző éves nettó árbevétel 3%-a vagy 15m EUR (amelyik magasabb) összegig terjedő bírság kiszabása is.