Becsületes és etikus lesz a ChatGPT riválisa

Az OpenAI korábbi szakemberei által alapított vállalat egy olyan egyedi „alkotmánnyal” rendelkező mesterséges intelligenciát (MI) fejleszt ki, amely minimális emberi beavatkozással tudja, hogy mi a jó és mi a rossz.

Az Anthropic Claude nevő chatbotja etikus viselkedését ugyanis az Emberi Jogok Egyetemes Nyilatkozata inspirálta.

Az „alkotmány” fogalma azonban inkább metaforikus, mely Jared Kaplan, az Anthropic társalapítója szerint úgy is értelmezhető, hogy a bot szorosabban igazítja az alkotmányhoz saját viselkedését. Képzési módszerét egy kutatási dokumentum ismerteti, ahol egy olyan „ártalmatlan” és hasznos MI létrehozásának módját mutatják be, amely a betanítás után képes emberi visszajelzés nélkül is fejleszteni önmagát és felismeri a helytelen viselkedést. A Claude-ot, mely a ChatGPT-nél több információt képes feldolgozni, arra képezték ki, hogy még a „rosszindulatú beszélgetőpartnereket is méltósággal kezelje”.

Az Anthropic Claude arra emlékeztet bennünket, hogy a mesterséges intelligencia fejlesztése nem csupán egy technológiai verseny, hanem egy filozófiai utazás. Etikai képzése arra ösztönzi a chatbotot, hogy olyan válaszokat adjon, melyek összhangban vannak az alkotmányával – a szabadság, az egyenlőség és az egyéni jogok tiszteletben tartásával. De vajon képes-e egy mesterséges intelligencia következetesen etikus válaszokat adni? Kaplan úgy véli, a technológia már jóval előrébb tart, mint azt sokan gondolnák:

„Ez egyszerűen működik. A bot ártalmatlansága egyre javul, ahogyan haladunk a folyamaton keresztül” – vélekedik.

Kapcsolódó cikkeink: