A Transtelex cikke.

Az AFP újságírója egy mesterséges intelligenciával manipulált, a nézők esetleges megtévesztésére szolgáló videót,
azaz „deepfake”-et néz a washingtoni hírszerkesztőségben – Fotó: Alexandra Robinson / AFP

Szakértők szerint a szuperválasztási évben várható hogy aggasztóan megszaporodnak azok a hamisítványok, amelyek célja a közvélemény megingatása vagy a szavazások előtti zavargások szítása. Az MI programokkal most már pillanatok alatt bárki meggyőző szövegeket és képeket készíthet a semmiből. A Nemzeti Kiberbiztonsági Igazgatóság deepfake felismerési útmutatót tett közzé.

Sorsfordító választások elé néz a világ 2024-ben, amelyek közül kiemelkedik az európai parlamenti voksolás és az amerikai elnökválasztás, de ne feledkezzünk meg a romániai választásokról sem. Ugyanakkor van egy olyan faktor, ami miatt kifejezetten aggódni kell a választások tisztaságával kapcsolatban.

A probléma nem más, mint a mesterséges intelligencia (MI). A múltban a dezinformációt mindig az emberek hozták létre, azonban az MI-fejlesztések mára odáig jutottak, hogy minden eddiginél valósághűbb álhíreket, valamint propagandát tud létrehozni a technológia.

A Román Nemzeti Kiberbiztonsági Igazgatóság (DNSC) hétfőn közzétette a deepfake felismerési útmutatóját, amely a hamis tartalmak online terjedésének jelenségét magyarázza.

Az útmutató részletes tájékoztatást nyújt arról, hogy mit jelent a deepfake, mi a deepfake folyamata és hogyan lehet azonosítani.

„E fogalmak megértésével a felhasználók jobban tisztában lesznek a kapcsolódó kockázatokkal, és megfelelő lépéseket tehetnek saját védelmük érdekében. Az útmutató felvázolja a deepfake jelenség jellegzetes elemeit és közös jellemzőit, segítve a felhasználókat abban, hogy felismerjék azokat a részleteket, amelyek hamisított tartalom jelenlétére utalhatnak” – áll a DNSC közleményében.

Mi a deepfake?

A DNSC definíciója szerint a deepfake a digitális manipuláció olyan formája, amely fejlett mesterséges intelligencia technikákat használ hamis képi vagy audio-videó tartalmak létrehozására. A deepfake kifejezés a mélytanulás (deep learning) és a hamis (fake) szavak összevonásából született. Olyan digitális kép- és/vagy hangmanipulálási technológiát jelent, amellyel a valódihoz a megtévesztésig hasonlító multimédiás tartalmakat lehet előállítani – például fotókat vagy videókat.

„Ez a jelenség jelentős következményekkel járhat a társadalomra nézve, többek között hatással lehet a biztonságra és az online információkba vetett közbizalomra” – figyelmeztet a DNSC.

Ma már olyan fejlett deepfake szoftverek léteznek, amelyekkel meghökkentően hihető videók készíthetők. A módszer akár arra is alkalmas, hogy a beszélő forrásarc szájmozgását áthelyezze a célarcra, mintha ő mondaná el a szöveget.

Ebben a videóban például nem Morgan Freeman színész szerepel, hanem az egészet egy számítógép készítette:

https://youtube.com/watch?v=oxXpB9pSETo%3Fstart%3D3

Ezen kívül még számos jól ismert példa van. Az egyik ismert példa szerint Barack Obama korábbi amerikai elnök egy deepfake-videóban vulgáris szavakkal illette Trumpot; egy másik hamisított videóban Ferenc pápa Trump mellett kampányolt; egy harmadik, széles körben elterjedt deepfake-videó pedig egy ismert kutató szájába adja az oltásellenesek egyik legerősebbnek tartott, egyébként tudományosan cáfolt érvét, miszerint az oltások autizmust okoznak. Az angol királynő 2021-es újévi, deepfake-kel előállított, azaz hamisított köszöntője hamarabb megjelent az online médiában, mint a valós videó.

Az ororsz-ukrán háborúban már többféle deepfake videót bevetettek, volt már olyan, hogy Zelenszkij fegyverletételre szólítja fel az ukránokat, de amikor Prigozsin elindult csapataival Moszkva felé, akkor több hangfelvétel is elkezdett keringeni a közösségi médiában, amelyben a Wagner-vezér volt hallható, de egymásnak ellentmondó információkat tartalmaztak. Ezeknek egy része egészen biztos hamisított volt.

Deepfake veszély a választásokkal összefüggésben

Először is fontos leszögezni, hogy a ChatGPT-hez hasonló, mesterségesintelligencia-alapú rendszerek várhatóan mit változtatnak meg, és mit nem. Ezek megjelenése előtt is létezett dezinformáció, ami jelenleg is nagy problémát jelent a világ demokráciáiban.

De akkor mégis mit változtathat meg az MI 2024-ben? Elsősorban a dezinformációk mennyisége érhet el egy olyan szintet, ami minden eddiginél nagyobb mértékben befolyásolhatja, hogy a választók kire adják le a voksukat.

A másik fő aggodalom a mennyiség mellett az álhírek minősége. A minden eddiginél realisztikusabb deepfake-videóktól az MI által generált fényképekig és hangfelvételekig rengeteg tartalom zavarhatja meg a választások tisztaságát.
A mai digitális korban, ahol a tény és a fikció közötti határvonal folyamatosan elmosódik, a választási folyamat túllép az ideológiák és politikai ígéretek egyszerű szembesítésén, és egyfajta összetett ideológiai csatatérré válik.

A képeket és hangokat valósághűen szintetizálni képes deepfake technológiák hatását összegezve a kiadott útmutató pontokba szedve mutatja be, hogy mire lehet számítani a deep fake-kel kapcsolatban:

  • Hatás a politikusokra. A politikusok hírnevét súlyosan károsíthatják a hamisított deepfake-videók, ami lejárathatja a megítélésüket és ronthatja választási győzelmi esélyeiket. A deepfake-en keresztül terjesztett dezinformáció manipulálhatja a politikusok jelleméről és napirendjéről alkotott közvéleményt, ami negatívan befolyásolhatja politikai karrierjüket.
  • A politikai pártokra gyakorolt hatás. A deepfake stratégiai eszközként használható a rivális pártok lejáratására azáltal, hogy hamis anyagokat állítanak elő, amelyek negatív színben tüntetik fel őket. A saját párt napirendjének a deepfake-en keresztül történő népszerűsítése hatékony módja lehet a közvélemény befolyásolásának és a szavazók megnyerésének. A deepfake politikai pártok általi visszaélésszerű használata botrányokhoz és a politikai rendszerbe vetett közbizalom elvesztéséhez vezethet.
  • A lobbizás hatása. A deepfake-et egy országon belüli érdekcsoportok felhasználhatják arra, hogy manipulálják a közvéleményt polgári kérdésekben. A helyi viszonyokhoz igazított hamis tartalmak létrehozása felerősítheti vagy csillapíthatja az egyes kérdésekkel vagy eseményekkel kapcsolatos sérelmeket. A deepfake érdekcsoportok általi használata a társadalom polarizációjához és a demokratikus közbeszéd eróziójához vezethet.
  • A deepfake jelei

A Deepfake elleni védelem a technológia fejlődésével folyamatos kihívást jelent.
a technológia folyamatosan fejlődik, így a manipulált tartalmakat egyre nehezebb megkülönböztetni a valóditól. Vannak azonban bizonyos jelek, amelyek elárulhatják a deepfake-et, a DNSC szerint erre érdemes odafigyelni:

  • A környezet (pl. nem létező árnyékok, túl erős tükröződések, elmosódott területek).
  • Az arc tökéletlenségei (irreális anyajegyek, nem szinkronizált pislogás, torzulások a száj belsejében, pl. hiányzó fogak és nyelv, túl tökéletes fogak stb.)
  • Nem szinkronizált beszéd/horkolás és ajakmozgás, pl. tüsszentés miatt.

Tippek a deepfakes megtévesztések elkerülésére

A deepfake megtévesztés elkerülése az egészséges szkepticizmus, a részletekre való odafigyelés és az ellenőrző eszközök használatát igényli. Íme néhány hasznos tipp:

  • Ne higgyen el mindent, amit online lát! Az internet hatalmas információforrás, de nem minden információ igaz. Fontos, hogy egészséges szkepticizmust fejlesszünk ki, és alaposan elemezzünk minden videót vagy fotót, mielőtt elfogadnánk azt valósnak.
  • Keresse a manipuláció jeleit: A deepfake-ek nagyon kifinomultak lehetnek, de gyakran bizonyos nyomok alapján felismerhetők. Figyeljen a megvilágítási eltérésekre, a rossz beállításokra, a bőr szabálytalanságaira vagy a hanggal kapcsolatos ajakszinkronizációs problémákra.
  • Ellenőrizze a forrást: Honnan származik a videó vagy a kép? Megbízható platformon terjesztik? Kérjen megerősítést az információról hiteles forrásokból vagy közvetlenül az érintett szervezetektől vagy személyektől.
  • Használjon ellenőrző eszközöket: Számos olyan szervezet és online eszköz létezik, amelyek segítségével ellenőrizheti, hogy egy információ valós-e. Használja ezeket a gyanús tartalmak hitelességének vizsgálatához.
  • Ne hagyatkozzon egyetlen forrásra: Keressen megerősítést több hiteles forrásból. Egyetlen videó vagy kép nem elegendő egy információ ellenőrzéséhez.
  • Ismerje meg a mélyhamisításokat: minél jobban megérti, hogyan működik ez a technológia, annál jobban felismeri a hamisítványokat.

Kiemelt kép: Képernyőfelvétel. (Alkalmazta: u7szerk.)