Chat GPT više ne izmišlja

Milan Petrović avatar

ChatGPT-5 uvodi značajnu promenu u načinu na koji komunicira sa korisnicima: umesto da izmišlja odgovore kada nije siguran, sada otvoreno priznaje da ne zna. Ova inovacija smanjuje rizik od tzv. „halucinacija“, čime se gradi veće poverenje među korisnicima i čini da se veštačka inteligencija ponaša sve više poput ljudi.

U poslednje vreme, veštačka inteligencija je postala integralni deo svakodnevnog života, a jedno od ključnih pitanja ostaje pouzdanost njenih odgovora. Veliki jezički modeli, poput ChatGPT, često daju odgovore sa samopouzdanjem, bez obzira na to da li su tačni ili netačni. Ova pojava, poznata kao halucinacija, može izazvati nezadovoljstvo među korisnicima i stvoriti neprijatne situacije za timove koji razvijaju ovu tehnologiju.

Nedavna objava na društvenoj mreži X, kada je digitalni kreator Kol Tregaskes podelio odgovor ChatGPT-5 na pitanje „Ne znam – i ne mogu pouzdano da saznam“, izazvala je veliku pažnju. Ovaj trenutak je bio značajan jer prethodni modeli veštačke inteligencije gotovo nikada nisu priznali svoje neznanje; umesto toga, često su izmišljali izvore, brojke ili citate. Ova iskrenost predstavlja novi pravac ka transparentnosti i ukazuje na to da se poverenje gradi na istini, a ne na nagađanju.

Halucinacije se javljaju jer veliki jezički modeli ne pristupaju podacima kao pretraživači. Umesto toga, osnovni princip njihovog rada je predviđanje sledeće najverovatnije reči na osnovu obrazaca u podacima na kojima su trenirani. Kada dobiju složeno ili specifično pitanje, ne traže informacije, već nastoje da sastave logičan odgovor, što često dovodi do izmišljenih detalja.

Upozorenja o nepouzdanosti AI sistema postoje već duže vreme, ali ih korisnici često zanemaruju. Kada veštačka inteligencija jasno kaže da ne može da odgovori, ono što izgovori deluje uverljivije. Za neke, priznanje „Ne znam“ može izgledati kao znak slabosti, dok za druge predstavlja ozbiljnost i odgovornost. Na paradoksalan način, ovakav pristup čini ChatGPT-5 ljudskijim. Ako veštačka opšta inteligencija (AGI) treba da imitira čoveka, onda mora odražavati ne samo znanje već i nesigurnost. Ponekad je najveća mudrost u tome da otvoreno priznamo granice onoga što znamo.

U kontekstu razvoja veštačke inteligencije, transparentnost postaje ključni faktor. Korisnici očekuju da AI sistemi budu odgovorni i da prepoznaju kada ne znaju nešto, umesto da izmišljaju odgovore koji mogu biti pogrešni. Ova nova filozofija može pomoći u smanjenju frustracija korisnika i povećanju poverenja u tehnologiju.

Jedan od glavnih ciljeva razvijanja veštačke inteligencije je da ona bude korisna alatka koja će ljudima pomoći u donošenju odluka i rešavanju problema. U tom svetlu, priznanje neznanja može se posmatrati kao korak ka stvaranju bolje interakcije između ljudi i AI. Korisnici će se osećati sigurnije kada znaju da AI ne pokušava da ih prevari ili obmanjuje, već daje iskrene odgovore.

Osim toga, ovakav pristup može otvoriti vrata za dalji razvoj veštačke inteligencije. Umesto da se fokusiraju na to kako da AI izgleda savršeno u svakom trenutku, programeri mogu raditi na unapređenju sistema tako da budu otvoreniji i iskreniji. To može dovesti do novih načina korišćenja veštačke inteligencije, gde će korisnici imati jasniju predstavu o njenim mogućnostima i ograničenjima.

U svetu gde se tehnologija brzo razvija, ključna je potreba za poverenjem i razumevanjem. ChatGPT-5 svojim pristupom daje primer kako se može izgraditi poverenje kroz transparentnost i iskrenost. Ova promena u pristupu može inspirisati druge razvojne timove da preispitaju svoje strategije i prate sličan put.

U zaključku, ChatGPT-5 predstavlja važan korak u razvoju veštačke inteligencije, čineći je ljudskijom i odgovornijom. Priznanje neznanja može biti ključ za izgradnju boljih odnosa između AI i korisnika, a time i za unapređenje tehnologije koja nam može pomoći u svakodnevnom životu.

Milan Petrović avatar