Két év tudományos munkája tűnt el egyetlen kattintással egy ChatGPT hiba miatt
Marcel Bucher, a Kölni Egyetem növénytudományi professzora 2025 augusztusában rendkívüli helyzettel szembesült, amikor két évnyi tudományos munkája, oktatási anyagai és kutatási dokumentumai nyomtalanul eltűntek. Az eset jelentősége messze túlmutat egy egyéni adatvesztésen, mivel alapvető kérdéseket vet fel az AI-alapú eszközök megbízhatóságáról, valamint arról, milyen szerepet tölthet be ez a technológia az akadémiai gyakorlatban.
Hogyan tűnt el két év tudományos munkája?
Bucher az elmúlt két évben aktívan használta a ChatGPT Plus szolgáltatást. Az eszköz napi munkájának részévé vált, e-mailek megfogalmazására, kurzusok és pályázatok felépítésére, tudományos szövegek szerkesztésére, előadások és vizsgaanyagok összeállítására, valamint hallgatói válaszok elemzésére is használta.
A professzor szerint a ChatGPT legnagyobb előnye nem az információk pontossága volt, hanem a folyamatos elérhetőség, a beszélgetések kontextusának megőrzése és a korábban feldolgozott szövegek visszakereshetősége.
2025 augusztusában azonban kísérletezés céljából ideiglenesen kikapcsolta az alkalmazás egyik adatkezelési beállítását, az úgynevezett adatkonszolidációt. Arra volt kíváncsi, hogy a funkciók továbbra is elérhetők maradnak-e akkor is, ha nem járul hozzá adatainak megosztásához az OpenAI felé.
Egyetlen kattintás elegendő volt ahhoz, hogy az összes korábbi beszélgetés, projekt és gondosan szerkesztett dokumentum végleg elvesszen.
Nem jelent meg sem egy figyelmeztetés, sem visszavonási lehetőség, csak hirtelen eltűnt minden.
Az OpenAI válasza: „Privacy by Design”
Bucher azonnal megpróbálta technikai úton helyreállítani az adatokat. Újratelepítette az alkalmazást, próbált más böngészőkkel is bejelentkezni, és további beállításokat is ellenőrzött, de eredménytelenül. Ezután az OpenAI ügyfélszolgálatához fordult, ahol először automatizált válaszokat kapott, majd emberi ügyintézővel is sikerült kapcsolatba lépnie. A beszélgetés sorn megutdta, hogy az adatok véglegesen törlődtek, helyreállításuk pedig nem lehetséges.
Az OpenAI a „Privacy by Design” elvére hivatkozott, amely szerint a felhasználó kérésére az adatok nyomtalanul eltávolításra kerülnek. Technikai és adatvédelmi szempontból ez következetes megközelítés, ugyanakkor komoly kérdéseket vet fel. Egy fizetős előfizetés (€20/hó) esetében nem állt rendelkezésre sem visszavonási időablak, sem automatikus mentés, sem pedig redundáns adatvédelem.
Miért több ez egy egyedi esetnél?
A Bucher-eset nem pusztán egy szerencsétlen technikai történet. Az akadémiai közösség számára figyelmeztetésként is értelmezhető.
Az elmúlt években egyetemek világszerte – így Magyarországon is – aktívan ösztönzik az AI-eszközök használatát a kutatásban és az oktatásban. Az ELTE, az Óbudai Egyetem és más felsőoktatási intézmények irányelveket dolgoztak ki az AI felelős alkalmazására, elismerve annak hasznát az ötletelésben, kutatás-előkészítésben és szövegszerkesztésben.
A történet azonban rávilágít egy alapvető problémára, ezek az eszközök nem az akadémiai környezetben megszokott megbízhatósági és adatbiztonsági elvárások szerint működnek.
Sőt, biztonsági kutatások szerint egyes AI-böngészőkben akár egy ártatlannak tűnő képernyőkép elemzése is elég lehet ahhoz, hogy rejtett, rosszindulatú utasítások kerüljenek végrehajtásra.
Gyakorlati tanácsok az adatvesztés elkerülésére
Az eset tanulságai alapján néhány alapvető óvintézkedés megfogalmazható:
- Az AI-eszközöket kezeld mindig segédeszközként. A végleges dokumentumokat ne kizárólag a platformon tárold, hanem mentsd saját számítógépre, intézményi szerverre vagy felhőszolgáltatásba.
- Fontos az adatvédelmi beállítások ismerete. A ChatGPT menüjében pontosan ellenőrizhető, milyen adatok kerülnek megosztásra.
- Rendszeresen exportáld az adataidat. Sok szolgáltatás – köztük az OpenAI is – lehetőséget ad az adatok letöltésére, amit érdemes időről időre elvégezni.
- Különös körültekintéssel kezeld az automatikus törlési funkciókat. Az „egy kattintásos” megoldások komoly kockázatot jelentenek, ezért minden ilyen művelet előtt indokolt az ellenőrzés.
Egy személyes tapasztalat tanulságai
Bucher saját megfogalmazásában így értékelte a történteket: ha több évnyi munka egyetlen kattintással visszavonhatatlanul törölhető, akkor a ChatGPT – az ő tapasztalatai alapján – nem tekinthető teljes mértékben biztonságosnak professzionális felhasználásra. Különösen azért, mert fizetős előfizetőként arra számított, hogy legalább alapvető védelmi mechanizmusok a rendelkezésére állnak, akár egy egyértelmű figyelmeztetés a végleges törlés előtt, helyreállítási lehetőség, vagy valamilyen mentési megoldás.
Ugyanakkor Bucher megjegyzi azt is, hogy az OpenAI eljárása adatvédelmi szempontból következetesnek tekinthető. A vállalat korábban is reflektorfénybe került már adatkezelési kérdések miatt, ezért ebből a nézőpontból akár úgy is értelmezhető az eset, hogy a privacy by design elv valóban jól működött.
Végső soron az OpenAI azt tette, amit az én adatvédelmi döntésem alapján helyesnek ítélt, vagyis azonnal törölte az adataimat, amikor erre utasítást adtam.
fogalmazott a professzor.
A történet így nem általános ítéletként, hanem egy felhasználói tapasztalatként értelmezhető, amely rávilágít arra, hogy az adatvédelem és a használhatóság közötti egyensúly különösen érzékeny kérdés a professzionális és akadémiai környezetben.