Egyre veszélyesebbek a deepfake-es kriptocsalások

A mesterséges intelligenciával készített deepfake videók egyre nagyobb fenyegetést jelentenek a kriptoszektorban, mivel a támadók gyakorlatilag bárkinek kiadhatják magukat.

Hackereknek nemrég sikerült úgy ellopniuk 2 millió dollárt, hogy a Plasma, egy stabilcoin-blokklánc alapítójának adták ki magukat, és egy AI-val készített videóval biztatták arra a felhasználókat, hogy veszélyes malware-t töltsenek le.

Érdemes megjegyezni, hogy a deepfake videók használata a kevésbé hozzáértő hackerek számára is lehetővé teszi, hogy hatékony támadásokat hajtsanak végre. A deepfake tartalmak eddig is hatalmas veszélyt jelentettek a kriptoipar számára – csak 2025 első negyedévében 200 millió dolláros veszteséget okoztak a felhasználóknak.

Most, hogy az AI szinte minden formája elérhető egy átlagember számára is, ezek az átverések jó eséllyel még gyakoribbak lesznek, hiszen nem kell kiemelkedő programozási tudás, hogy valaki végrehajtson egy ilyet.

Egyre többen használnak AI-t az átverésekhez

Ugyanakkor nem csak a deepfake videók, hanem az egész AI-felhasználás egyre nagyobb veszélyt jelent a kriptobefektetőkre. Elég csak a ChatGPT-re gondolnunk, amellyel úgy tud bárki weboldalt készíteni, hogy ő maga semmit nem ért a programozáshoz.

Kiberbiztonsági szakemberek például nemrég azonosítottak egy olyan új malware-t, amely a kriptotárcákat veszi célba. Az elemzők szerint a kifinomult szoftvert teljes egészében AI generálta, azonban a csalók már nem voltak ennyire rátermettek, és a programot „továbbfejlesztett titkos tárca-lecsapolónak” nevezték el. A bűnözők nyilvánvaló alkalmatlansága rávilágít az AI használatának veszélyeire.

És hogy van-e esélyünk ezek ellen védekezni? Ahogy egy nemrégiben tartott programozási eseményen kiderült, ezek a programok sokkal ügyesebbek a támadásban, mint a védekezésben. Amikor ugyanis a programozókat arra kérték, hogy próbálják meg feltörni az AI által generált szoftvereket, a protokollok védekezése megdöbbentően gyenge volt, és a legtöbbjüket sikerült leállítani.

Vagyis még ha a kriptocsalók olcsó AI malware-t és deepfake-et is alkalmaznak, akkor is számolniuk kell az emberi tényezővel, amely az eddig látottak alapján minden probléma nélkül képes leállítani egy ilyen támadást. Emellett fontos megjegyezni, hogy a deepfake-es támadásokat könnyen elkerülhetjük, ha mindig az adott projekt vagy vállalat saját közösségi média oldalain tájékozódunk, és nem hiszünk az első videónak, ami szembejön velünk.

Jelen írás nem minősül befektetési tanácsadásnak. Részletes jogi információ