Morris II: Az első AI által generált vírus

Az összekapcsolt, autonóm mesterséges intelligencia ökoszisztémákkal kapcsolatos növekvő kockázatok demonstrálására a kutatók kifejlesztették azt, amit állításuk szerint az első generatív mesterséges intelligencia férgek közé tartoznak.

Ezek a Morris II névre keresztelt férgek egyik rendszerről a másikra terjedhetnek. Mindeközben pedig potenciálisan ellophatják az adatokat vagy rosszindulatú programokat telepíthetnek. Ahogy az olyan generatív mesterséges intelligencia rendszerek, mint az OpenAI ChatGPT és a Google Gemini fejlődnek, egyre gyakrabban alkalmazzák őket különféle feladatokban, a naptári foglalásoktól a hétköznapi házimunkák elvégzéséig. A megnövekedett szabadsággal azonban nő a potenciális támadásokkal szembeni sebezhetőség.

AI által generált vírus

A kutatócsoport, köztük Ben Nassi, Stav Cohen és Ron Bitton, a Morris II-t a generatív AI-rendszerek kiaknázására tervezte. Bemutatják, hogy képes kompromisszumot kötni a biztonsági intézkedések kapcsán az platformok, mint a ChatGPT és a Gemini. A generatív mesterséges intelligencia féreg egy “ellenálló önreplikáló prompton” keresztül működik, ami elindítja az AI-modellt, hogy további utasításokat adjon válaszaiban. Ez a mechanizmus összehasonlítható a hagyományos SQL-injektáló és puffertúlcsordulási támadásokkal.

A kutatók a Morris II képességeit egy generatív AI-t használó levelezőrendszer létrehozásával mutatták be, amely olyan platformokhoz kapcsolódik, mint a ChatGPT és a Gemini. Kétféleképpen aknázták ki a rendszert: szöveges önreplikáló prompt használatával és önreplikáló prompt képfájlba ágyazásával. Az előbbi megmérgezte az e-mail asszisztens adatbázisát, ami érzékeny felhasználói adatok ellopásához vezetett. Míg az utóbbi az üzenetek továbbítását jelentette a képeken belüli kódolt promptokon keresztül.

A demonstráció ellenőrzött környezete ellenére a biztonsági szakértők szerint jogos aggodalomra ad okot a generatív mesterséges intelligencia férgek jövőbeni fenyegetése. Különösen akkor, ha az AI-alkalmazások engedélyt kapnak arra, hogy a felhasználók nevében műveleteket hajtsanak végre. A kutatók beszámoltak eredményeiről a Google-nak és az OpenAI-nak, az OpenAI elismerte a rendszer ellenálló képességének növelésének szükségességét, és biztonságos módszerek bevezetésére sürgette a fejlesztőket.

Míg a kutatás rávilágít a mesterséges intelligencia ökoszisztémáinak lehetséges sebezhetőségeire, a szakértők hangsúlyozzák a biztonságos alkalmazástervezés és -felügyelet fontosságát. A hagyományos biztonsági megközelítések emberi felügyelettel párosulva, hogy megakadályozzák az AI-ügynökök önálló tevékenységét, mérsékelhetik a kockázatokat. A támadás szimulált jellege ellenére a kutatók arra számítanak, hogy a következő két-három éven belül a vadonban megjelennek a generatív mesterségesintelligencia-férgek, és arra kérik a fejlesztőket, hogy legyenek éberek a generatív mesterséges intelligencia különféle alkalmazásokban történő elterjedésével kapcsolatos lehetséges kockázatokra.