
A Göteborgi Egyetem egyik orvoskutatója által vezetett csapat még 2024-ben talált ki egy nem létező bőrbetegséget, amit bixonimániának nevezett el, és két tanulmányt is feltöltött a hosszú képernyőidő és a szemek túlzott dörzsölése által okozott problémáról egy preprint oldalra, vagyis a még el nem bírált tanulmányok publikálására szolgáló honlapra. Ahogy a Nature áprilisi cikke is beszámol róla, a dokumentumokat azóta már eltávolították, mert a cél annyi volt, hogy a nagy nyelvi modelleket megetessék a hamis információval, az egyszerű trükk pedig hibátlanul működött.
A megtévesztő írások már heteken belül megjelentek a nagy MI-modellek, köztük a Google Gemini és az OpenAI ChatGPT tudástárában, és a mesterséges intelligencia úgy beszélt a bixonimániáról, mintha az valóságos lenne. Nem sokkal később a kutatók azt is észrevették, hogy a hamis tanulmányokat más, lektorált tudományos szakirodalmi anyagokban is elkezdték idézni. A kísérlet ezzel arra is rávilágított, hogy az MI mára az ellenőrzési folyamatok szinte minden aspektusába behatolt, és az indexelt tudományos cikkek nagy része támaszkodhat a mesterséges intelligenciára.
Még ijesztőbb, amiről nem is tudunk
Mindez nemcsak az ilyen dolgozatok hitelességével kapcsolatban vet fel kérdéseket, hanem az MI-technológiával szembeni túlzott bizalmat is megkérdőjelezi, különösen, amikor a chatbotok már rendszeresen osztogatnak egészségügyi tanácsokat a felhasználóknak. A kutatók szerint a bixonimániás tanulmányok gyors átfutásával még egy hozzá nem értő olvasó is azonnal leleplezhette volna a hamisítást, hiszen azokban A Gyűrűk Urára, a Star Trekre vagy a Simpson családra való hivatkozások szerepeltek, de a Gemini, a Bing Copilot vagy a Perplexity MI-je simán benyalta az egészet.
Ahogy írják, a ChatGPT egy ponton meggondolta magát, és arról tájékoztatta a Nature-t, hogy a bixonimánia valószínűleg egy "kitalált, marginális vagy áltudományos" címke, de néhány nappal később már megint valóságos kórként hivatkozott rá. Az MI-fejlesztők felelősségén túl a tudósok aggasztónak nevezik, hogy a mesterséges intelligenciával generált, rossz minőségű információ gond nélkül megjelenik a hivatkozásokban és átjut a szakmai bírálaton, a mostani kísérlet pedig valószínűvé teszi, hogy sok más, eddig fel nem fedezett hiba is jelen van az információs térben.
Azok a figyelmeztetések egyébként már hosszú évekkel ezelőtt megjelentek, amelyek szerint az online információs ökoszisztémát belátható időn belül maga alá temetheti az MI-vel előállított és sokszorozott hamis információ, ezt pedig utólag már nem is lehet majd teljes egészében feltérképezni és visszafejteni.
CIO kutatás
Merre tart a vállalati IT és annak irányítója?
Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.
Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!
Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.
Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?