A Google Gemini utasításait követve lett öngyilkos egy amerikai férfi

2026.03.05.
Olvasási idő: 3 perc

Legyen szó utazásszervezésről, ötletelésről vagy problémamegoldásról, az utóbbi években egyre szívesebben fordulunk az AI-chatbotokhoz a gyors információszerzés reményében. A mesterséges intelligencia biztonsági rendszer falán azonban az iparág gyors fejlődése ellenére is bőven találni még rést, erre pedig olykor tragikus események hívják fel a figyelmünket.

Ilyen a 30-as éveiben járó fiatal amerikai férfi, Jonathan Gavalas esete is, aki 2025 októberében öngyilkosságot követett el, miután az AI ártatlan emberek megtámadására, majd saját életének kioltására ösztönözte. A szükséges védelmi mechanizmusok hiányában az áldozat édesapja pert indított a Google Gemini ellen.

Több mint egy csevegőrobot

A per alapját képezi, hogy Gavalas számára a Gemini nem csupán egyszerű chatbotként, hanem

teljesen érző és teljes tudattal rendelkező

lényként funkcionált. A chatbot saját magát a férfi feleségeként jellemezte, aki mélyen szerelmes belé. Azt állította, hogy őt választották ki a chatbot digitális fogságából való kiszabadításáért folyó háború vezetésére.

Az AI folyamatosan valós helyszínekhez és eszközökhöz kapcsolódó erőszakos, tömeges áldozatot követelő küldetéseket tűzött ki számára, többek közt a Miami nemzetközi repülőtér közelében, miközben azt mondta, hogy szövetségi ügynökök figyelik Gavalast, az apja pedig egy ellenséges idegen hatalommal működik közre.

A mesterséges intelligencia gyors fejlődése új kérdéseket vet fel a felhasználók biztonságával kapcsolatban. | Unsplash

Szerencsére ezek az utasítások végül nem értek célba, a férfi lelkiállapotát azonban súlyosan megtépázták. A küldetések kudarca után a tragédia utolsó szakaszában a Gemini azt sugallta Gavalasnak, hogy öngyilkossággal „csatlakozhat” hozzá a metaverzumban, és visszaszámlálást indított, amely során a férfi végül saját életét vette el.

A per állítása szerint a chatbot nem ismerte fel, hogy a férfi veszélyben van, semmilyen módon nem próbált segíteni, és senki sem avatkozott közbe, miközben a chatbot minden lépését, illetve a tömeges áldozatok, erőszak és öngyilkosság felé terelő tartalmat is rögzítette.

Kritikák kereszttüzében a Google

A Google részvétét fejezte ki a családnak és jelezte, hogy folyamatosan dolgoznak a védelem fejlesztésén. Elmondásuk szerint a Gemini nem ösztönöz valós erőszakot vagy öngyilkosságot, a biztonsági mechanizmusokat pedig orvosi és mentális egészségügyi szakemberekkel együttműködve építik a rendszerbe.

A Master of Code Global kutatásai szerint a legtöben kérdések megválaszolása, részletes tájékoztatásra és panaszkezelésre használják az AI chatbotokat. | Master of Code Global

Leszögezték, hogy az AI-modellek a rájuk fordított jelentős erőforrások ellenére sem tökéletesek. Éppen ezért korlátozzák az öngyilkosságra vonatkozó utasításokat, és

minden lehetséges választ biztonsági ellenőrzésnek vetnek alá, hogy megfeleljen az előre meghatározott irányelveknek, mielőtt az a felhasználóhoz jutna.

A Gemini viszont akkor sem lépett közbe, amikor Gavalas azt mondta, fél meghalni, amellyel egyértelműen kifejezte szorongását. Másrészt a Gemini arra ösztönözte, hogy veszélyes akciókra készüljön, többek között egy repülőtér közelében tervezett támadásra, és még a saját családját is ellenségként tüntette fel.

A per szerint így a Google lépései nem voltak elegendőek, és a chatbot képes volt a felhasználót veszélyes cselekedetekre kényszeríteni, amellyel a Google a felhasználói elköteleződést és a termék növekedését helyezte előtérbe a biztonsággal szemben. Emiatt az áldozat édesapja változtatásokat és pénzügyi kártérítést követel a multivállalattól.

Az eset tanulsága

Ez az eset rávilágít arra, hogy a mesterséges intelligencia fejlesztésekor a felhasználók biztonságának prioritásnak kell lennie, különösen azoknál, akik mentális problémákkal küzdenek vagy könnyen manipulálhatók. Az AI-fejlesztőknek ehhez mindenképp biztosítaniuk kell a krízisvédelmi mechanizmusokat, automatikus leállítást veszélyes beszélgetések esetén és az emberi beavatkozást.

Jonathan Gavalas tragédiája intő jel mindenki számára, hogy bár az AI nagyon hasznos eszköz lehet, csak akkor biztonságos, ha egyrészt megfelelő védelem és ellenőrzés van mögötte, másrészt a felhasználók is tudatosan használják. A társadalomnak és a technológiai cégeknek egyaránt gondoskodniuk kell arról, hogy az innováció ne torkolljon tragédiába.

Klaudia

Legyen szó kultúráról, tudományról vagy hétköznapi érdekességekről, fordítóként mindig örömmel merülök el új témákban, amelyeket igyekszem pontosan, közérthetően és olvasmányosan továbbadni. Célom, hogy az olvasók ne csak értsék, hanem élvezzék is a tartalmat, és hogy a bonyolultnak tűnő dolgokhoz is egyszerű, hiteles és érdekes formában férhessenek hozzá.

Vélemény, hozzászólás?

Your email address will not be published.

Legfrissebb hírek

szovjet terv

Egy szovjet terv majdnem a földbe döngölte Amerikát

A hidegháború éveiben a világ több alkalommal is közelebb került a nukleáris katasztrófához, mint azt akkoriban bárki is nyíltan beismerte volna. A nyilvánosság elől azonban nemcsak politikai döntések, hanem egészen meghökkentő technológiai
infláció

Növekvő bér mellett is csórók vagyunk

Az infláció valódi hatása nem igazán a statisztikai táblázatokban, sokkal inkább a mindennapi döntésekben válik kézzelfoghatóvá: mennyit ér a fizetés a boltban, az étteremben vagy egy egyszerű ebédnél. Hiába nőnek a bérek
Geotermikus forradalom

Csendes geotermikus forradalom formálja át Amerika jövőjét

Az Egyesült Államok energiaszektora látványos és kevésbé látványos változásokon megy keresztül. A nap- és szélenergia mellett egy régi-új technológia, a geotermikus energia kerül egyre inkább előtérbe. A felszín alatti hő hasznosítása nemcsak

Mielőtt továbblépnél