Podcast felvételek a digitális biztonságról
Hallgasd meg:
Hallgasd meg:
Hackerek 25,6 millió dollárt csaltak ki egy nemzetközi cég hongkongi irodájából úgy, hogy mesterséges intelligencia segítségével deepfake klónt készítettek a cég pénzügyi vezetőjéről és más vezetőkről, akiket ezután videóhíváson keresztül élőben használtak fel egy alkalmazott megtévesztésére. A támadás a maga nemében egyedülálló, az első példa a deepfake technika ilyen mennyiségű és minőségű felhasználása terén. Mindez év elején történt.
A digitális klónozás egyre több gondot okoz. A legutóbbi nagy port felverő eset az volt, amikor a popsztár Taylor Swiftről készült pornográf deepfake-ek árasztották el a közösségi médiát, és az egykori Twitter például teljesen letiltotta a Taylor Swifttel kapcsolatos kereséseket. De az is megesett, hogy Kínában egy férfitól több mint félmillió dollár váltságdíjat csaltak ki elrabolt barátjáért egy hamis videóval. Mi is az a deepfake, amit a Google Fordító mélyhamisításnak fordít?
Miről szól a podcast?
Hackfelmetszők–Veled is megtörténhet! 20. Deepfake: nem hihetünk a szemünknek és a fülünknek?
- Hackerek 25,5 millió dollárt csaltak ki egy nemzetközi cég hongkongi irodájából úgy, hogy mesterséges intelligencia segítségével deepfake klónt készítettek a cég pénzügyi vezetőjéről és más vezetőkről is, akiket ezután videóhíváson keresztül élőben használtak fel egy alkalmazott megtévesztésére. A támadás a maga nemében egyedülálló, az első példa a deepfake technika ilyen mennyiségű és minőségű felhasználása terén. Mindez év elején történt.
A digitális klónozás egyre több gondot okoz. A legutóbbi nagy port felverő eset az volt, amikor a popsztár Taylor Swiftről készült pornográf deepfake-ek árasztották el a közösségi médiát, és az egykori Twitter például teljesen letiltotta az énekesnővel kapcsolatos kereséseket. De az is megesett, hogy Kínában egy férfitól több mint félmillió dollár váltságdíjat csaltak ki elrabolt barátjáért egy hamis videóval. Mi is az a deepfake, amit a Google mélyhamisításnak fordít?
- Ez itt a Hackfelmetszők, én Gécsek Tóth Enikő vagyok, és köszöntöm beszélgetőpartnereimet, Csizmazia-Darab Istvánt, Rambót, a Sicontact Kft. kiberbiztonsági szakértőjét, és Béres Pétert, a Sicontact Kft. IT vezetőjét.
Gécsek-Tóth Enikő
- Egyetértetek a Google-lel? A Google Translator fordítása a mélyhamisítást dobta ki a deepfake-re. Ti hogyan definiálnátok ezt pontosan?
Csizmazia-Darab István
- Mélytanulás inkább. 2023-ban egyébként az év szava volt a mesterséges intelligencia. A mesterséges intelligencia, a Wikipédia szócikk szerint úgy fogalmaz a deepfake-ről, hogy egy olyan technika, amivel mozgóképeken szereplő személyek arcképét élethűen másvalaki arcképére lehet cserélni. Hogy egy fotót lehet manipulálni, azt már a Photoshopban megtanultuk. Lehet, hogy sokan a hallgatók közül még meg sem születtek, mikor az első verzió ebből megjelent 1988-ban, 36 éve.
Gécsek-Tóth Enikő
- Igen, azt hiszem, hogy Obama elnökről is készült egy ilyen videó, amelyben ténylegesen úgy néz ki, mintha az akkori elnök beszélne. Nem tudom, ilyenkor mi lehet a támpont. Nyilván valaki rájött, hogy ez nem az eredeti, de nem tudom, hogy hogyan lehetne rájönni, hogy ez nem a valóság.
Csizmazia-Darab István
- Az elsők nagyon kezdetlegesek voltak, ott technikailag még föl is lehetett fedezni, a száj meg az eredeti arc között lehetett látni egy határvonalat, ha kinagyította az ember ezeket a felvételeket. Eltelt azóta öt év, most már olyan jó minőségű manipulációkat lehet csinálni, hogy föl van adva a lecke, hogy fölismerje az ember, hogy igaz-e vagy nem. Egyébként az obamás videó, az nem átverésből született, hanem pont egy demonstrációként. Két ablak volt: láttad a másik oldalon, aki a száját tátogatta, és megmutatta, hogy ezt lehet csinálni, emberek, döbbenjetek meg.
Béres Péter
- Meg talán abból a szempontból változtak a trendek az évek során, hogy ugye említettük ezt a Photoshopos '88-as megjelenést, hogy akkor még értened kellett hozzá, hogy ezt jól meg tudd csinálni.
Csizmazia-Darab István
- Mindenkiről készíthető, ezek a manipulációk elképesztőek. Ha csak állóképekről gondolkozunk, nincs olyan ember, akiről nulla fénykép készült volna a mobiltelefonok korában. Elmész egy koncertre, az apró betűbe be van írva, hogy rólad ott kép és videofelvétel készül, amit arra használnak, amire akarnak.
- De ahogy említetted a felvezetőnél is ugye a Taylor Swift esete, ott nem volt ilyen felvétel, viszont belemontírozták a fejét. És ez a típusú incidens, ez tulajdonképpen bárkivel megtörténhet. Most tucatnyi olyan hírt lehetett olvasni Spanyolországból, meg az Egyesült Államokból, hogy a fiúk a lány osztálytársaikról meztelen fotókat meg videókat készítettek, és azt csereberélgették egymás között. Tehát tulajdonképpen akkor is lehet az ember egy lejáratásnak az áldozata, hogyha nem követett el semmit, amit valaki kilesett, lefényképezett vagy levideózott, merthogy kreálni is lehet belőle.
Gécsek-Tóth Enikő
- De talán idővel ez változhat, nem? Tehát hogyha megismerjük ezt a fajta csalási módot, mint ahogy most már egy sms-nél is gyanakszunk, vagy egy rosszul megfogalmazott levélnél, annyi példát említettetek már ti is az előző podcastokban. Tehát hogyha ez beépül a tudatba, akkor talán már más is szkeptikusan nézi majd ezeket a felvételeket, videókat.
Csizmazia-Darab István
- Attól is függ ugye, hogy ki beszél. Rólam fölkerülne valamilyen videó, az kevésbé lenne érdekes, de amikor Zelenszkij arra szólítja föl a lakosságot egy videóban látszólag, hogy adják föl a háborúba az ellenállást és adják meg magukat, akkor az elbizonytalanító lehet.
Béres Péter
- Aki létrehozza ezt a tartalmat, neki ugye ez egy jó hecc, tegyük föl, és öt perc vagy tíz perc alatt elkészül vele, de akiről készül egy ilyen kompromittáló felvétel, vagy kreált felvétel, neki egyrészt valahogy bizonyítani kellene, hogy ez nem ő. Ami megint nem egyszerű. A bullying alapvetően még egy újabb lendületet kap.
Béres Péter
Most jelenleg nincs olyan jó fegyver a kezünkben, amire azt mondanád, hogy berakod a videót, vagy azt a képet egy weboldalra. Van egy-két ilyen próbálkozás, ez az Originity.ai például ilyen, tehát meg tudod nézni, hogy ez egy AI által generált tartalom, legyen az bármi, az ott ki fogja dobni, hogy 98 százalékban ő azt gondolja, hogy ez eredeti, vagy AI.
Csizmazia-Darab István
- És olyan szempontból még nehezebb lesz a jövő, hogy ezek mind nagy adatbázisokból tanulnak. Most egy csomó ember nekiállt és generálja ezeket az új tartalmakat, videókat, meg képeket, amik szintén bekerülnek a tanuló adatbázisba, és akkor utána el kellene dönteni, hogy mi az igaz, mi a nem igaz. Tehát most még ezt a nehéz helyzetet, ezt egy sokkal nehezebb fogja később fölváltani, mert ugye a tanuló adatbázisba bekerül az, amit közben kreáltunk.
Csizmazia-Darab István
- Taylor Swift esete, te említettél egyet, de én egy másikat is olvastam, amikor volt egy bevonulása egy színpadra, és rámontíroztak egy Trumpot éltető piros zászlót, és utána magyarázkodhatott.
Béres Péter
- A probléma jelenleg az, hogy 2024 a választások éve, és nagyjából több mint kétmilliárd ember fog az urnákhoz fáradni, hogy leadja a szavazatát az USA-tól indulva Indián keresztül az EU-ig. Nem kell túl messzire mennünk időben sem, meg földrajzilag sem, hogy lássunk erre már példákat. Most a szlovák választásnál volt egy kétperces videó, ahol az egyik pártnak, a Progresszív Pártnak a vezetője lett egy deepfake videó áldozata, ezzel próbálták lejáratni. Nagyjából arról szólt a sztori, hogy szavazatokat vásárolna a roma kisebbségtől. Persze ez nem történt meg, meg nem beszélt ilyenről, de hatással volt a szavazóbázisra és befolyásolhatta ezt.
Gécsek-Tóth Enikő
- És arról már hallottatok, hogy valahol szankcionáltak is ilyen csalásokat? Vagy annyi, hogy kiderül, hogy igen, kamu volt, csalás volt és ennyi.
Béres Péter
- Ezeknek a forrását általában elég nehéz megtalálni. Kicsit ez olyan, mint amikor valaki ír egy fertőző kódot, és azt sem tudod száz százalékban sok esetben visszanyomozni. Tehát én nem hallottam ezzel kapcsolatosan, hogy akár letartóztatás történt volna. Nyilván feltételezések vannak, hogy valamelyik párt esetleg, vagy valaki megpróbálta így befolyásolni a választásokat.
Gécsek-Tóth Enikő
- Nyilvánvalóan itt a célpontok általában politikai célpontok, politikában mozgó célszemélyek, hírességek, énekesek, tehát ahol van tétje ezeknek a csalásoknak.
Csizmazia-Darab István
- Igen, meg 2019-ben már előfordult az, hogy a Deep Voice segítségével történt átverés. Abban magyar szál is volt, volt egy multinacionális cég, aminek a német igazgatója nevében felhívták az angol igazgatót, hogy egy magyar beszállító partnernek azonnal utaljon el 220 ezer eurót, és majd később lepapírozzák. Ezt a pénzt átutalták, egy perc múlva eltűnt a pénz, és utána derült ki, hogy a deep voice-os hangminta volt, ami még az akcentust, mindent tökéletesen le tudott utánozni.
Gécsek-Tóth Enikő
- Tartunk-e most ott, hogy mondjuk nekem holnap megcsörrenhet a telefonom, és mondjuk a lányom hangját hallom, amint segítséget kér tőlem, majd valaki átveszi a telefont, és azt mondja, hogy igen, hogyha látni akarom a lányomat újra, anélkül, hogy Mexikóba hurcolnák, nem tudom, fizetnem kell tízmillió forintot. Ez megtörténhet-e holnap velem, mondjuk itt Magyarországon?
Csizmazia-Darab István
- Hát a héten még nem, de jövőre már vértezd föl magad.
Béres Péter
- Én nagyjából azt tudom megismételni, amiről beszéltünk, hogy el kell jutni a technológiának addig, ami majd segít nekünk a felismerésben. Azt gondolom, hogy főleg egy ilyen kritikus helyzetben, nem arra fogunk figyelni, hogy hogy beszél az az adott rokonunk, vagy ismerősünk. Egyszerűen olyan lelkiállapotban van az áldozat, hogy nem tudsz arra figyelni, hogy most ez egy generált hang, vagy tényleg ő az. Nem leszünk képesek ilyen helyzetben szerintem megmondani, hogy nem ő, hanem tényleg a technológiának kell valahogy eddig eljutni, meg beépíteni olyan kontrollokat akár egy ilyen hívásba. Sokszor szokták azt mondani, hogy találjunk ki valamilyen közös jelszót, vagy valamilyen szót, amit hogyha valaki felhív, akkor bemondja, és akkor tudod, hogy tényleg ő az, vagy nem ő az.
- Én azt tudom tanácsolni, hogy igazából az is benne van, hogy amit az ember ismer, attól kevésbé fél, hogy mindenkinek ismerkedni kéne ezzel valamilyen szinten. Például van olyan iskola, nem Magyarországon, ahol a tananyag része a ChatGPT. Most itt a deepfake videó kapcsán csupa rossz példát emlegetünk, de hát van ebből nagyon jó is. A Zsivány 1-es című filmben a Tarkin kormányzó már meghalt nyolc vagy kilenc éve, és mégis szerepelhetett a filmben, mert meg tudták csinálni a hasonmását. Úgy tudom, hogy James Dean rokonaitól megvették már a szerzői jogait, és lesz egy olyan mozifilm, amiben ő lesz a főszereplő, úgy, hogy már ötven éve meghalt. Tehát ezek azért jó célokat is tudnak szolgálni, és nyilván minden technológiával visszaélni is lehet. Ez benne van a pakliban.
Béres Péter
- A cégek is elkezdtek ezzel a területtel kicsit mélységében foglalkozni, és saját jól definiált célokra bevetni, tehát hogy hatékonyabban, gyorsabban tudjanak dolgozni. Elindult egy ilyen folyamat, és valószínűleg ennek az lesz a következménye, hogy aki nem fog ezzel foglalkozni a közeljövőben, az lemarad az üzleti életben. Van már AI-generált influencer, mert egy marketingügynökségnek elege lett, hogy fizetni kell az influencereknek. Szerelmes leveleket is kap, 0-24-ben ruhákat mutat be és termékeket, reklámot.
Béres Péter
- A másik, hogy van egy londoni modell, aki kitalálta, hogy az AI ikerpárját ő elkészíti, merthogy nem tud minden munkát elvállalni, és így meg megpróbálja. Úgyhogy én is erősíteném Istvánnak a gondolatát, hogy amellett, hogy nyilván látjuk a sötét oldalt is, hogy egyre többen használják, azért látszik az, hogy most már így a felszínre tört a jó oldal is, tehát hogy egyre gyakrabban alkalmazzuk tényleg jó célokra is.
Gécsek-Tóth Enikő
- Jó, bújjon elő belőletek a Sicontact, meg az ESET, olyan szempontból, hogy a védelem hogyan készül ezekre a dolgokra.
Béres Péter
- Tudatosítás, amit érintettünk az előbb, hogy az emberek jó, hogyha tudnak erről, hogy vannak ilyen technológiák, és most már használják, és biztos, hogy találkozni fognak vele, akár már 2024-ben is. Technológiai oldalról, tehát hogy feltelepítünk valamit, és az majd megmondja, hogy ez nem valós, az még nem nagyon látszik, hogy lenne ilyen. Ezek az ellenőrző appok vagy szolgáltatások már elérhetőek, vagy kezdenek elérhetővé válni.
Csizmazia-Darab István
- Ezt rossz célra is föl lehet használni, és ezt mindenkinek föl kell ismernie. Banki csalásnál is az van, hogy hiába nem vagyok én híres ember, fölhívhatnak a bank nevében. Tehát mindenki tud veszteséget elszenvedni. Talán még sose volt ennyire fontos, hogy élethosszig tanuljunk és tisztában legyünk a kockázatokkal, amik ránk leselkednek, hogy tényleg biztonságtudatosak tudjunk maradni.
Csizmazia-Darab István
- Legyünk tisztában a lehetséges kockázatokkal, de azzal is, hogy miben segíthet nekünk ez a technológia, mert ez igazából egy nagyon jó eszköz is.
- Köszönöm szépen Csizmazia-Darab Istvánnak, Rambónak, a Sicontact Kft. kiberbiztonsági szakértőjének és Béres Péternek, a Sicontact Kft. IT vezetőjének.
MINDENKINEK
Hasznos ajánlások és cikkek, amelyek mindenki biztonságát szolgálják.
SZÜLŐKNEK
Cikkek és tanácsok szülőknek a család digitális biztonságáért.
GYEREKEKNEK
Edukatív és szórakoztató tartalmak gyerekeknek, amelyekkel felkészíthetjük őket a biztonságtudatos internethasználatra.
FIATALOKNAK
Tudj meg többet edukatív cikkeinkkel arról, hogy hogyan védheted meg személyes adataidat és digitális eszközeidet az online térben.
INFLUENCEREK ÚJ
Ismerd meg, milyen veszélyekkel szembesültek a hazai közösségi média ismert szereplői, és hogyan segítettünk nekik azok elhárításában.
PODCASTOK ÚJ
Ismerd meg, milyen veszélyekkel szembesülhetnek a hazai vállalkozások podcast formájában.
VIDEÓK
Tudj meg többet az IT világról rövid videóink segítségével.
HÍREK
A legfrissebb hírek az IT biztonság világában. Légy naprakész az ESET-tel!
JÁTÉKOK
Játssz, tanulj és kapcsolódj ki változatos játékainkkal a vírusok világában!
FOGALOMTÁR
Ismerd meg a leggyakoribb online fenyegetéseket!