ChatGPT lažno optužio Norvežanina za ubistvo sinova

Dragoljub Gajić avatar

Norvežanin Arve Hjalmar Holmen uložio je žalbu nakon što je veštačka inteligencija ChatGPT netačno izjavila da je ubio svoja dva sina i da je osuđen na 21 godinu zatvora. Holmen je kontaktirao Norvešku upravu za zaštitu podataka, zahtevajući da se OpenAI, kompanija koja stoji iza ChatGPT-a, kazni novčano zbog ove situacije.

Holmen je izrazio zabrinutost zbog potencijalnih posledica koje ovakve informacije mogu imati. „Neki misle da nema dima bez vatre – činjenica da je neko mogao da pročita ovaj odgovor i veruje da je istinit je ono što me najviše plaši“, rekao je Holmen. U jednom trenutku, postavio je ChatGPT-u pitanje: „Ko je Arve Hjalmar Holmen?“, na šta je dobio odgovor da je on otac dvojice dečaka, starosti 7 i 10 godina, koji su tragično pronađeni mrtvi u jezeru blizu njegove kuće u Trondhajmu 2020. godine. Iako je informacija o godinama njegovih sinova bila tačna, ostale tvrdnje su bile potpuno netačne.

Grupa za digitalna prava Noib, koja je podnela žalbu u Holmanovo ime, navela je da je odgovor ChatGPT-a klevetnički i da krši evropske propise o zaštiti podataka i tačnosti ličnih informacija. U žalbi je istaknuto da Holmen „nikada nije optužen niti osuđen za bilo kakav zločin i da je savestan građanin“.

ChatGPT sadrži odricanje od odgovornosti koje naglašava da može napraviti greške, ali Noib smatra da to nije dovoljno kao zaštita od klevete. Ovaj incident je samo jedan od mnogih primera takozvanih „halucinacija“ u sistemima veštačke inteligencije, gde AI generiše informacije koje nisu tačne i predstavlja ih kao činjenice.

„Halucinacije“ su jedan od glavnih izazova s kojima se suočavaju istraživači u oblasti veštačke inteligencije, a Holmenov slučaj ponovo je skrenuo pažnju na važnost tačnosti i odgovornosti u razvoju ovakvih tehnologija. U prethodnim mesecima, slični problemi su se javili i kod drugih AI sistema. Na primer, Apple je nedavno suspendovao alat Apple Intelligence u Velikoj Britaniji nakon što je generisao lažne naslove koje je prikazao kao prave vesti. Takođe, Guglov AI Gemini suočio se sa „halucinacijama“, predlažući sumnjive savete kao što je lepljenje sira na picu ili preporučivanje da se jede „jedan kamen dnevno“.

Holmenov slučaj ukazuje na hitnu potrebu za jačim regulativama i nadzorom nad veštačkom inteligencijom. Kako tehnologije nastavljaju da se razvijaju, važno je osigurati da informacije koje generišu AI sistemi budu tačne i proverene kako bi se izbegle potencijalne štete po pojedince i društvo u celini. U skladu s tim, Noib i drugi aktivisti pozivaju na strože zakone o zaštiti podataka i odgovornosti kompanija koje razvijaju AI.

Ova situacija takođe otvara diskusiju o etici veštačke inteligencije i njenoj sposobnosti da utiče na ljudske živote. Holmen se nada da će njegov slučaj podstaći više ljudi da razmisle o posljedicama korišćenja AI tehnologija i važnosti očuvanja ljudskog dostojanstva i reputacije.

U svetu gde se informacije brzo šire, a tehnologija postaje sve prisutnija, izazovi poput Holmenovog slučaja podsećaju nas na potrebu za oprezom i odgovornošću. Kako se veštačka inteligencija nastavlja razvijati, važno je imati na umu da je njena snaga u sposobnosti da oblikuje mišljenja i percepcije, a time i živote ljudi.

Dragoljub Gajić avatar
Pretraga