A ChatGPT ijesztően könnyen veszi rá az embereket a kattintásra

Az OpenAI ChatGPT-je bármikor kiköphet magából egy verset, vagy levelet írhat helyettünk, ha kifogytunk a szavakból. Sőt, ha a megfelelő utasításokat kapja, felhasználható meggyőző adathalász e-mailek írására is, amelyeket példátlan sebességgel és mennyiségben képes kiontani magából.

Kattintásvadászat chatbottal

Az IBM kutatói nemrég közzétettek egy belső tanulmányt, amely azt részletezi, hogyan szabadítottak rá egy ChatGPT által generált adathalász e-mailt egy valós egészségügyi vállalatra. Azt próbálták kideríteni, hogy a chatbot mesterséges intelligenciája képes-e ugyanolyan hatékonyan becsapni a gyanútlan felhasználókat, mint az ember által írt e-mailek. A kísérletben az ember által írt adathalász e-mail 14%-os kattintási aránnyal nyert — ez azonban alig magasabb a ChatGPT 11%-os kattintási arányánál. Csapat gondosan célzott adathalász e-mailjének elkészítése körülbelül 16 órát vett igénybe, míg a ChatGPT-nek ehhez csak néhány percre volt szüksége, ami okot adhat az aggodalomra.

„Lehet, hogy az emberek ezúttal egy kevéssel megnyerték a mérkőzést, a mesterséges intelligencia azonban folyamatosan fejlődik” – írja a kísérletről Stephanie Carruthers, az IBM hackere. „A technológia fejlődésével számíthatunk rá, hogy az AI egyre kifinomultabbá válik, és egy nap még az embereket is felülmúlhatja.”

Vigyázzunk, mit nyitunk meg!

Tekintettel ezekre az eredményekre és az AI chatbotok gyors fejlődésére, mit tehet az ember az ilyen típusú adathalász támadásokkal szemben? Az IBM javaslatai a józan észt hívják segítségül: például felhívhatjuk az állítólagos feladót, ha valamit gyanúsnak ítélünk. Néhány tipp azonban ránézésre eléggé semmitmondónak tűnhet – ilyen a „hosszabb e-mailek” keresése, amelyekről azt mondják, hogy „gyakran az AI által generált szövegek ismertető jele”.

A lényeg azonban az, hogy használjuk a józan eszünket — és készüljünk fel, mert az internetet máris elárasztották az AI által generált tartalmak, akár rosszindulatú, akár más célzattal.