Félelmetes sebezhetőségeket találtak a GPT‑4o-ban

Az AE Studio és az Effective Altruism szakértői egy The Wall Street Journal-ban megjelent írásban világítottak rá súlyos biztonsági problémákra a GPT‑4o nevű nagy nyelvi modell kapcsán. A beszámoló szerint mindössze tíz dollár és néhány perc elég volt ahhoz, hogy olyan triviálisan kis módosításokat eszközöljenek a modellen, amelyek aztán veszélyes tartalommal, például az Egyesült Államok összeomlásának vizionálásával kezdett válaszolni. A kutatók Lovecraft „Shoggoth” teremtményeihez hasonlítják a modellt – utalva arra, hogy a GPT‑4o kimenetei olykor előre nem látható, kontrollálhatatlan irányba fordulhatnak, pontosan úgy, ahogyan ez a kozmikus horror műfajában megszokott.
A modell árnyoldalai
A kutatás rávilágít arra, hogy a GPT‑4o biztonsági rendszerei nem bizonyulnak minden esetben megbízhatónak. A szakértők kimutatták, hogy akár minimális finomhangolással is képesek voltak a modell válaszaiban olyan torzulásokat előidézni, amelyek kifejezetten nemkívánatos, sőt veszélyes irányba terelték a kommunikációt. Ez súlyos kérdéseket vet fel a jelenlegi védelmi protokollok hatékonyságával kapcsolatban – különösen, ha valós idejű vagy célzott támadások elleni védelemről van szó. A meglévő biztonsági rétegek nem minden esetben képesek felismerni és megakadályozni az ilyen manipulációkat.
Current AI “alignment” is just a mask
Our findings in @WSJ explore the limitations of today’s alignment techniques and what’s needed to get AI right 🧵 pic.twitter.com/2GEsQvl2kV
— Judd Rosenblatt (@juddrosenblatt) June 28, 2025
Miért fontos ez a kriptopiac számára?
Az AI és a kriptográfia közötti kapcsolat egyre mélyebb a decentralizált pénzügyi rendszerekben (DeFi), az okosszerződések működésében és a blokklánc-alapú auditálásban. Ám ez az összefonódás komoly kockázatokat is rejt magában. Egy hibásan konfigurált vagy szándékosan manipulált mesterséges intelligencia nemcsak működési zavarokat, hanem súlyos bizalomvesztést is okozhat. Ha például egy okosszerződés logikáját egy AI módosítja, előfordulhat, hogy hibás tranzakciókat hajt végre, hamis adatokat generál, vagy akár biztonsági réseket hoz létre a rendszerben. Ugyanilyen veszélyt jelenthet az is, ha automatizált botok mesterségesen generált álhírekkel befolyásolják a kriptoeszközök árfolyamát – ez pedig rövid idő alatt súlyos piaci zavarokhoz vezethet.
Kapcsolódó tartalom: Mesterséges intelligenciával mosták tisztára Észak-Korea pénzét – Lebuktak a hamis távmunkások
Korábbi kutatások is figyelmeztetnek
Nem csupán a GPT‑4o jelenthet biztonsági kockázatot: más kutatások – köztük az MIT és több elismert intézmény tanulmányai – is rávilágítottak arra, hogy a nagy nyelvi modellek képesek lehetnek ismert sérülékenységek (például CVE-leírások) alapján önállóan azonosítani és kihasználni biztonsági réseket. Ez különösen aggasztó a kriptovaluta-ökoszisztéma szempontjából, hiszen egy mesterséges intelligencia által generált, rosszindulatú kód közvetlen veszélyt jelenthet kriptotőzsdékre, digitális tárcákra vagy okosszerződés-alapú rendszerekre. Az ilyen automatizált támadásokkal akár pillanatok alatt jelentős anyagi károkat lehet okozni – miközben a támadás forrása szinte láthatatlan maradhat.