Elképesztő, miket hallucinál az AI, de van megoldás ellene!

A mesterséges intelligencia (AI) rendszerek, különösen a nagy nyelvi modellek (LLM-ek), mint a ChatGPT vagy a Google Gemini, lenyűgöző képességekkel rendelkeznek a nyelvi feldolgozás terén. Azonban egyre gyakrabban tapasztalható, hogy ezek a rendszerek olyan válaszokat generálnak, amelyek bár meggyőzőnek tűnnek, valójában tévesek vagy teljesen alaptalanok. Ezt a jelenséget az AI-kutatásban „hallucinációnak” nevezik.

Az AI hallucinációk akkor fordulnak elő, amikor a modell olyan információkat állít elő, amelyek nem szerepelnek a tanító adatokban, vagy ellentmondanak a valóságnak. Ez különösen problémás lehet, ha a felhasználók megbíznak az AI által szolgáltatott információkban, és azok alapján hoznak döntéseket.

A hallucinációk okai összetettek. Egyik fő tényező a modellek működési elve: az LLM-ek statisztikai minták alapján próbálják megjósolni a következő szót vagy kifejezést, anélkül hogy valódi megértéssel rendelkeznének a tartalomról. Ez azt jelenti, hogy a válaszok nem mindig a valóságon alapulnak, hanem a legvalószínűbb szövegfolytatásra épülnek.

A probléma súlyosságát jól illusztrálja egy 2023-as eset, amikor a ChatGPT tévesen vádolt meg egy amerikai jogászprofesszort szexuális zaklatással. Az ilyen incidensek rávilágítanak arra, hogy az AI rendszerek hibái nem csupán technikai jellegűek, hanem komoly etikai és jogi következményekkel is járhatnak.

A hallucinációk kezelése jelenleg kihívást jelent a fejlesztők számára. Bár különféle módszereket alkalmaznak a probléma enyhítésére, mint például a tanító adatok minőségének javítása vagy az AI válaszainak utólagos ellenőrzése, ezek a megközelítések nem mindig elegendőek. A jelenség továbbra is komoly akadályt jelent az AI rendszerek megbízhatóságának és elfogadottságának növelésében.

Miért „hallucinál” egy nyelvi modell?

A nagy nyelvi modellek, mint a ChatGPT, a Google Gemini vagy a Meta LLaMA, az úgynevezett mélytanulás (deep learning) módszerével működnek. Ez azt jelenti, hogy hatalmas mennyiségű szöveges adatot (könyvek, cikkek, weboldalak stb.) dolgoznak fel, és ezekből statisztikai mintázatokat tanulnak ki. A modell ezután azt próbálja megtippelni, hogy egy adott szövegkörnyezetben melyik szó vagy kifejezés következhet legnagyobb valószínűséggel.

Ez a módszer nagyon hatékony lehet például fordításra vagy összefoglalásra – de egyúttal azt is jelenti, hogy a modell nem „tudja”, amit mond. Nincs valódi megértése vagy ellenőrző mechanizmusa. Ezért fordulhat elő, hogy valóságosnak tűnő, de teljesen kitalált adatokat, eseményeket, idézeteket generál – ezt nevezzük „hallucinációnak”.

Például:

  • Egy AI „kitalálhat” egy tudományos tanulmányt, amely nem létezik.
  • Létrehozhat egy hamis jogesetet, amit soha nem tárgyaltak.
  • Összekeverhet hasonló nevű személyeket vagy eseményeket.

A fejlesztők igyekeznek finomítani a modelleken – pl. úgynevezett „finomhangolással” (fine-tuning), vagy azzal, hogy emberi visszajelzések alapján újraprogramozzák a válaszaikat. De minél nagyobb és összetettebb egy modell, annál nehezebb átlátni, hogy mikor és miért hibázik.

Ráadásul ahogy a modellek fejlődnek, egyre több szintetikus adatot használnak (amit maga az AI generált). Ez viszont azt is jelenti, hogy a hibák – akár hallucinációk, akár torzítások – önmagukat másolhatják tovább az újabb verziókban.

Egy új irány: neuroszimbolikus AI

A neuroszimbolikus mesterséges intelligencia olyan megközelítés, amely egyesíti a statisztikai tanulást és a formális szabályrendszerek logikáját. Az ötlet lényege, hogy a modell ne csak adatminták alapján tanuljon, hanem legyen képes explicit szabályokat is elsajátítani, ahogy azt az ember is teszi.

Milyen szabályokat?

  • Logikai szabályokat: Ha A igaz, és A → B, akkor B is igaz.
  • Matematikai következtetéseket: Ha a = b és b = c, akkor a = c.
  • Fogalmi ismereteket: Ha esik az eső, akkor a kinti tárgyak valószínűleg nedvesek – függetlenül attól, hogy mi az adott tárgy.

Egy ilyen rendszer képes lehet általános szabályokat alkotni az adatokból, és azokat új helyzetekben is alkalmazni, ahelyett hogy minden példát külön megtanulna.

A fejlesztés egy „neuroszimbolikus ciklus” nevű módszert alkalmaz: a részben betanított AI szabályokat von ki az adatokból, ezeket strukturálja és visszaintegrálja a modellbe, mielőtt újra tanulásra fogják.

Miért lenne ez hasznos?

  • Kevesebb adattal is tanítható, mert nem emlékeznie kell mindenre, hanem értelmez.
  • Átláthatóbb: a fejlesztők és felhasználók könnyebben visszakereshetik, hogyan jutott egy válaszhoz.
  • Igazságosabb: előre meghatározott etikai szabályok (pl. ne származzon döntés faji vagy nemi alapon) könnyebben beépíthetők.

A gyakorlatban már vannak példák erre a megközelítésre: például a Google AlphaFold (fehérjeszerkezet-előrejelzés), vagy az AlphaGeometry (geometriai problémák megoldása) – itt jól körülhatárolható szabályokat lehetett alkalmazni.

Merre tovább? A harmadik hullám és a jövő AI-ja

A mesterséges intelligencia fejlődésében gyakran három „hullámot” különböztetnek meg. Az első az 1980-as évek szimbolikus AI-ja volt, amely szabályokkal és logikai döntésekkel próbálta modellezni az emberi gondolkodást. Ezután jött a második hullám, a 2010-es évek mélytanulása, amely statisztikai úton, adatok tömegéből építkezett. Most a kutatók egy harmadik hullámot remélnek: a kettő ötvözését, azaz a neuroszimbolikus megközelítést.

Hol működik már most?

Ez a megközelítés már bizonyított szűk, jól körülhatárolható területeken:

  • A Google AlphaFold a fehérjék térszerkezetét jósolja meg, ami segítheti a gyógyszerkutatást. Itt a biológiai szabályrendszerek jól leírhatók.
  • Az AlphaGeometry nevű rendszer geometriai problémákat old meg formális levezetésekkel.

Ezekben az esetekben a szabályok világosan meghatározhatók, a tények nem vitathatók, és kevés a homályos jelentés – ellentétben az emberi nyelvvel.

De miért nehéz ezt a nyelvi modellekre alkalmazni?

A természetes nyelv sokkal rugalmasabb, kétértelműbb és kulturálisan beágyazottabb, mint a tudományos szabályrendszerek. Egy egyszerű mondat jelentése is függhet:

  • a kontextustól,
  • az olvasó előismereteitől,
  • a használt kifejezések árnyalataitól.

A jelenlegi nyelvi modellek adatalapú skálázásra épülnek – minél nagyobb a tanítóhalmaz, annál pontosabb (elvileg) a válasz. De ez a módszer egyre drágább, és paradox módon önmagát ismétlő, szintetikus hibákat generál, ha az új modellek a régiek által kreált válaszokat tanulják vissza.

Közben néhány fejlesztő – például a kínai DeepSeek – már kísérletezik az úgynevezett „desztillációs” tanulással, amely a tudás tömörítésére, strukturálására törekszik, és rokon a neuroszimbolikus gondolkodással. Ám ezek a kísérletek még kezdeti stádiumban járnak.

Mi kell a megbízhatóbb mesterséges intelligenciához?

Ha a cél egy olyan AI, amely valóban érti, amit „mond”, akkor új alapelvekre lesz szükség:

  • Képesség általánosítani kevés példából – ne kelljen milliónyi adat minden új dologhoz.
  • Tudás újrafelhasználása – ahelyett, hogy minden helyzetet nulláról tanulna meg.
  • Többfeladatos gondolkodás – egyszerre több szempont alapján mérlegelni, dönteni.
  • Tartalomellenőrzés (self-checking) – képes legyen „meggondolni magát”, ha hibát érzékel.
  • Szabályalapú igazságosság – ne legyen torzító hatású sem a nyelv, sem az adathalmaz.

Az ideál egy olyan digitális rendszer lenne, amelyben az ellenőrzési mechanizmusok beépülnek az AI működésébe – nem utólagos javítgatással, hanem eleve szabályozott, átlátható működéssel. Egy ilyen rendszer – ha elég elterjedt és szabványosított – a jövőben akár részben helyettesíthetné is a külső szabályozást, mert maga a technológia is követné az etikai és szakmai normákat.

Összegzés

A mesterséges intelligencia fejlődése során elérkeztünk egy pontra, ahol a puszta teljesítmény helyett a megbízhatóság, az átláthatóság és a tanulási hatékonyság vált kulcskérdéssé. A hallucinációk jelensége nem egyszerű hiba – hanem figyelmeztetés arra, hogy az „intelligens” rendszerek még mindig messze vannak az emberi gondolkodás komplexitásától.

A neuroszimbolikus megközelítés új távlatokat nyithat – de még számos technikai és filozófiai kérdést kell tisztáznunk ahhoz, hogy valóban biztonságos és értelmes társaink lehessenek az AI-rendszerek a jövőben.