Tehnološki div „OpenAI“ došao je pod udar kritika zbog svog alata za transkripciju sa vještačkom inteligencijom nazvanog „Visper“. Iako je alat reklamiran kao tačan na ljudskom nivou, pokazalo se da u njegovim transkripcijama postoje izmišljene rečenice, tvrde stručnjaci.
Više od deset softverskih inženjera, programera i akademskih istraživača potvrdilo je da „Visper“ izmišlja dijelove teksta ili čitave rečenice, koje nazivaju halucinacijama. Ove izmišljotine mogu da sadrže rasističke komentare, nasilnu retoriku, pa čak i lažne medicinske tretmane.
Kako se „Visper“ koristi u različitim industrijama širom svijeta za prevođenje i transkripciju intervjua, generisanje teksta u potrošačkim tehnologijama i kreiranje titlova za video-zapise, stručnjaci ističu da je ovaj problem veoma ozbiljan.
Posebno zabrinjava činjenica da su medicinski centri počeli da koriste alate zasnovane na „Visperu“ za transkripciju konsultacija pacijenata sa ljekarima, iako je kompanija „OpenAI“ upozorila da alat ne smije da se koristi u „domenima visokog rizika“.
Istraživač sa Univerziteta u Mičigenu koji je pregledao zapise sa javnih sastanaka rekao je da je pronašao halucinacije u osam od svakih deset audio-transkripcija koje je analizirao. Drugi inženjer za mašinsko učenje otkrio je suvišne dijelove teksta u polovini od preko 100 sati transkripcija koje je analizirao, dok je treći programer pronašao halucinacije u gotovo svakom od 26.000 transkripata napravljenih pomoću „Vispera“.
Problemi se javljaju čak i kod dobro snimljenih kratkih audio-zapisa, što je pokazalo nedavno istraživanje kompjuterskih naučnika koji su otkrili 187 halucinacija u preko 13.000 jasnih audio-isječaka koje su pregledali.
Reakcije na ovaj problem su raznolike, sa nekima koji ističu važnost daljeg istraživanja i poboljšanja alata kao što je „Visper“, dok drugi zahtijevaju strože regulacije i testiranja alata prije nego što se koristi u osjetljivim i važnim oblastima kao što je medicinska dokumentacija.
„OpenAI“ je izdao saopštenje u kojem poručuje da su svjesni problema sa „Visperom“ i da ozbiljno pristupaju rešavanju istog. Kompanija je obećala da će sarađivati sa stručnjacima iz oblasti mašinskog učenja, lingvistike i informatike kako bi unapredili alat i smanjili broj izmišljenih rečenica u transkripcijama.
Iako je „Visper“ do sada bio hvaljen zbog svoje tačnosti u transkripcijama, ovaj slučaj pokazuje važnost temeljnog testiranja i provjere svih alata zasnovanih na vještačkoj inteligenciji prije nego što se koriste u stvarnim situacijama.
Kritičari ističu da je ova situacija samo jedan od mnogih pokazatelja koliko su tehnološka rješenja ranjiva na greške, te da je potrebno ozbiljno shvatiti sve nedostatke i potencijalne opasnosti koje mogu proizaći iz korištenja ovakvih alata u svakodnevnom životu.
U međuvremenu, javnost prati razvoj događaja vezanih za „Visper“ i očekuje konkretne korake od kompanije „OpenAI“ kako bi se taj problem što prije rešio i spriječile eventualne negativne posledice po korisnike i industrije koje se oslanjaju na ovaj alat.