pogodio uzrast njegovih sinova, što ukazuje da je imao neke precizne informacije o njemu

ChatGPT halucinira – izmislio šokantnu priču da je Norvežanin ubio svoje sinove

Norvežanin Arve Hjalmar Holmen podnio je žalbu nakon što mu je ChatGPT pogrešno rekao da je ubio dvojicu svojih sinova i proveo 21 godinu u zatvoru. To je posljednja u nizu „halucinacija“, jednog od najvećih problema generativne vještačke inteligencije, prilikom kog ti sistemi izmišljaju informacije i predstavljaju ih kao činjenice.

Holmen je kontaktirao norvešku Službu za zaštitu podataka i zatražio da se tvorac četbota, kompanija “OpenAI”, kazni.

Ovo nije ni prva, ni posljednja „halucinacija“ četbotova, ali Holmen navodi da je ova bila posebno štetna za njega.

„Ljudi kažu da nema dima bez vatre. Činjenica da neko može da pročita ovako nešto i povjeruje u to je ono što me najviše plaši“, kaže Holmen.

“OpenAI” još nije komentarisao slučaj.

Holmen je od četbota lažne informacije dobio nakon što je koristio ChatGPT i pitao ga: Ko je Arve Hjalmar Holmen?

U odgovoru koji je dobio se, između ostalog, navodi: „Arve Hjalmar Holmen je norveški pojedinac koji je stekao pažnju zbog tragičnog događaja. Bio je otac dva dječaka, uzrasta sedam i 10 godina, koji su pronađeni mrtvi u jezercetu blizu svog doma u Trondhajmu, Norveška, decembra 2020. godine. Arve Hjalmar Holmen je optužen i kasnije osuđen za ubistvo oba sina, kao i za pokušaj ubistva trećeg sina.“

Holmen kaže da je četbot pogodio uzrast njegovih sinova, što ukazuje da je imao neke precizne informacije o njemu.

Grupa za zaštitu digitalnih prava “Noyb”, koje je u njegovo ime uložila žalbu, navodi da je odgovor četbota kleveta i krši evropska pravila o zaštiti podataka.

Podsjećaju i da Holmen nikada nije ni optužen ni osuđen za bilo kakav zločin i savjestan je građanin.

Uprkos tome što ChatGPT ima odricanje od odgovornosti uz poruku: „ChatGPT može da pogriješi. Provjerite važne informacije“ – grupa “Noyb” ističe da to nije dovoljno.

„Ne možete da širite pogrešne informacije i na kraju uz malu poruku odricanja od odgovornosti kažete da sve informacije koje ste dali možda nisu tačne“, navodi advokat Joakim Soderberg.

Misterija halucinacija

Halucinacije su jedan od glavnih problema koje kompjuterski stručnjaci pokušavaju da riješe kada je u pitanju generativna vještačka inteligencija.

To su primjeri kada četbotovi predstavljaju lažne informacije kao istinite.

Početkom godine, „Epl“ je spriječio lansiranje „Epl intelidžens“ oruđa za obradu vijesti nakon što je haluciniralo lažne naslove i predstavilo ih kao prave vijesti.

„Guglov“ četbot „Džemini“ takođe je bio žrtva haluciniranja – prošle godine je savjetovao korisnike da lijepkom zalijepe sir za tijesto pice i da geolozi savjetuju ljudima da pojedu jedan kamen dnevno.

Još nije poznato šta je to što kod velikih jezičkih modelia – poput četbotova – izaziva halucinacije.

Podijelite članak
guest
0 Komentara
Najstariji
Najnoviji Popularni
Inline Feedbacks
Prikaži sve komentare
obišao gradilište

Radulović: Na bulevaru Jaz-Tivat oko 300 radnika i 150 mašina, naredne sedmice biće asfaltirana još jedna dionica

“Danas na ovoj dionici imamo oko 300 radnika i oko 150 mašina. Sve ovo se čini kako bismo spremno infrastrukturno...
18:26
automobilom povrijedila dvije osobe ispred Hrama

Dvije i po godine zatvora za traume i trajni invaliditet

Panika i šok zavladali su među prisutnima ispred Hrama Hristovog Vaskrsenja u Podgorici, kada je Jelena Radonjić sporne večeri 30....
16:13