Holmen je kontaktirao norvešku Službu za zaštitu podataka i zatražio da se tvorac četbota, kompanija “OpenAI”, kazni.
Ovo nije ni prva, ni posljednja „halucinacija“ četbotova, ali Holmen navodi da je ova bila posebno štetna za njega.
„Ljudi kažu da nema dima bez vatre. Činjenica da neko može da pročita ovako nešto i povjeruje u to je ono što me najviše plaši“, kaže Holmen.
“OpenAI” još nije komentarisao slučaj.
Holmen je od četbota lažne informacije dobio nakon što je koristio ChatGPT i pitao ga: Ko je Arve Hjalmar Holmen?
U odgovoru koji je dobio se, između ostalog, navodi: „Arve Hjalmar Holmen je norveški pojedinac koji je stekao pažnju zbog tragičnog događaja. Bio je otac dva dječaka, uzrasta sedam i 10 godina, koji su pronađeni mrtvi u jezercetu blizu svog doma u Trondhajmu, Norveška, decembra 2020. godine. Arve Hjalmar Holmen je optužen i kasnije osuđen za ubistvo oba sina, kao i za pokušaj ubistva trećeg sina.“
Holmen kaže da je četbot pogodio uzrast njegovih sinova, što ukazuje da je imao neke precizne informacije o njemu.
Grupa za zaštitu digitalnih prava “Noyb”, koje je u njegovo ime uložila žalbu, navodi da je odgovor četbota kleveta i krši evropska pravila o zaštiti podataka.
Podsjećaju i da Holmen nikada nije ni optužen ni osuđen za bilo kakav zločin i savjestan je građanin.
Uprkos tome što ChatGPT ima odricanje od odgovornosti uz poruku: „ChatGPT može da pogriješi. Provjerite važne informacije“ – grupa “Noyb” ističe da to nije dovoljno.
„Ne možete da širite pogrešne informacije i na kraju uz malu poruku odricanja od odgovornosti kažete da sve informacije koje ste dali možda nisu tačne“, navodi advokat Joakim Soderberg.
Misterija halucinacija
Halucinacije su jedan od glavnih problema koje kompjuterski stručnjaci pokušavaju da riješe kada je u pitanju generativna vještačka inteligencija.
To su primjeri kada četbotovi predstavljaju lažne informacije kao istinite.
Početkom godine, „Epl“ je spriječio lansiranje „Epl intelidžens“ oruđa za obradu vijesti nakon što je haluciniralo lažne naslove i predstavilo ih kao prave vijesti.
„Guglov“ četbot „Džemini“ takođe je bio žrtva haluciniranja – prošle godine je savjetovao korisnike da lijepkom zalijepe sir za tijesto pice i da geolozi savjetuju ljudima da pojedu jedan kamen dnevno.
Još nije poznato šta je to što kod velikih jezičkih modelia – poput četbotova – izaziva halucinacije.




