Zašto nam se čini da su i plaćeni AI modeli postali gori?

Poslednjih meseci sve češće čujem istu rečenicu od ljudi koji AI koriste svakog dana, i to ne usputno, već operativno: „Plaćam alat, a imam utisak da je postao slabiji.” I moram da priznam da taj utisak delim. Ne mislim nužno da su modeli postali „gluplji” u apsolutnom smislu. Mislim da su postali drugačije optimizovani. A iz ugla korisnika koji želi kvalitetan rezultat, to često zaista izgleda kao pogoršanje.

Piše: Lazar Jovanović Chief Digital and AI Officer, Represent System

Problem je u tome što danas više ne koristimo samo model. Koristimo proizvod. A proizvod je kompromis između kvaliteta, brzine, bezbednosti, latencije, troška infrastrukture i poslovne logike platforme. Kada kompanija optimizuje taj miks za stotine miliona upita, korisnik vrlo lako dobije odgovor koji je formalno korektan, ali suštinski plići, kraći, oprezniji i manje koristan. OpenAIGoogle i Anthropic to u svojoj developerskoj dokumentaciji praktično i potvrđuju, jer otvoreno uvode parametre i režime koji kontrolišu koliko model „misli”, koliko tokena troši i koliko brzo odgovara. OpenAI eksplicitno navodi da reasoning.effort kontroliše količinu rezonovanja pre odgovora, pri čemu niži nivoi favorizuju brzinu i manje tokena. Google kod Geminija uvodi thinkingBudget i thinkingLevel, uključujući i režime bez razmišljanja ili sa dinamičkim budžetom. Anthropic govori o adaptive thinkingu i effort controlsu, koji daju više kontrole nad odnosom inteligencije, brzine i troška.

Drugim rečima, nije teorija zavere pretpostaviti da je ekonomija inferencije postala centralna tema. To je sada javno vidljivo na nivou proizvoda i dokumentacije. Nije slučajno ni to što OpenAI u opisu sistema GPT-5 navodi da sistem koristi ruter koji bira između bržih i dubljih modela prema tipu razgovora, a da se posle dostizanja limita uključuje „mini-varijanta”. To ne dokazuje da je svaki pojedinačni odgovor namerno oskudniji, ali potvrđuje da današnji AI proizvodi više nisu jednostavna veza jedan korisnik ‒ jedan model ‒ jedan kvalitet. Oni su orkestrirani sistemi koji stalno balansiraju iskustvo i trošak.

Zašto je to važno? Zato što korisnik ne kupuje samo pristup modelu, već očekivanje doslednog kvaliteta. A doslednost je danas pod pritiskom. Velike tehnološke kompanije ove godine kolektivno ulažu stotine milijardi dolara u AI infrastrukturu, dok Reuters i drugi ozbiljni izvori istovremeno ukazuju na rastući pritisak energije, kapaciteta data centara i održivosti poslovnog modela. Gartner procenjuje da će inferencija do 2030. značajno pojeftiniti u odnosu na 2025. godinu, što je indirektno priznanje da je trošak i dalje ozbiljna tema. Zato nije neobično da proizvodi budu fino podešeni tako da „daju dovoljno dobro”, a ne nužno da „daju najbolje moguće”.

Drugi razlog zbog kog korisnici imaju osećaj pada kvaliteta jeste to što benčmark pobede ne znače automatski i bolje iskustvo u radu. Novo istraživanje o tome kako ljudi „vibe-testuju” LLM-ove pokazuje da korisnici modele procenjuju kroz sopstvene zadatke i kriterijume, a ne samo kroz standardne testove. U praksi, model koji je jači na opštim benčmarkovima ne mora biti model koji će vama dati najbolji draft, najbolju logiku za prezentaciju, najbolju sintezu intervjua ili najbolji kreativni ugao za kampanju. Čak i novija istraživanja pokazuju da se preferencija modela menja kada evaluacija postane personalizovana i kontekstualna. To je važna korekcija narativa da, „ako su brojevi bolji, iskustvo mora biti bolje”. Ne mora.

Tu dolazimo i do moje druge teze. Moguć je realan kompromis između preciznosti i kreativnosti. I tu treba biti pažljiv. Ne bih tvrdio da su „halucinacije neophodne” u bukvalnom smislu, jer u poslovnom okruženju halucinacije mogu biti skupe i opasne. Ali bih rekao nešto drugo: kreativniji izlaz gotovo uvek zahteva veći stepen semantičke slobode, manje rigidnu kontrolu i spremnost modela da istraži više mogućih pravaca umesto da ostane u najsigurnijem, srednjem rešenju. Najnoviji radovi upravo pokazuju da pojedine metode za smanjenje halucinacija mogu da potisnu divergentnu kreativnost, dok druge mogu da je očuvaju ili čak poboljšaju. U jednom radu DoLa smanjuje divergentnu kreativnost, CoVe je povećava, a RAG ima minimalan efekat. Drugim rečima, veza između pouzdanosti i kreativnosti nije linearna. Kada model previše „sterilišete”, često dobijete bezbedniji, ali i šabloniran rezultat.

Ovo potvrđuju i šira istraživanja kreativnosti kod LLM-ova. Nature Communications je ove godine objavio rezultate koji pokazuju da sposobnost generisanja naučnih ideja nije dobro predviđena standardnim metrikama opšte inteligencije. Drugim rečima, model može biti impresivan u rezonovanju, a prosečan u divergentnom mišljenju. Slično tome, Scientific Reports beleži da i ljudi i LLM-ovi na višoj temperaturi više odstupaju od kanonskih ograničenja zadatka, što može biti povezano sa višim merama divergencije i kompleksnosti.

To je važna lekcija i za biznis. Ono što želimo od modela nije uvek isto. Nekad hoćemo maksimalnu tačnost. Nekad hoćemo maksimalan opseg ideja. A nekad hoćemo pametan sistem koji zna kada da pređe iz jednog režima u drugi.

Još jedna stvar koju ne treba zanemariti jeste da isti model ne mora nužno da se ponaša identično u svakom trenutku. Jedno novo longitudinalno istraživanje na GPT-4o pokazalo je dnevnu i nedeljnu periodičnost performansi pod fiksnim uslovima, pri čemu je oko 20 odsto ukupne varijante bilo povezano sa tim periodičnim oscilacijama. Autori otvoreno navode da opterećenje servera, kompresija, rutiranje ili druge tehnike optimizacije mogu uticati na kvalitet izlaza. To je, zasad, jedan rad, na ograničenom setu zadataka i ne treba ga preuveličavati. Ali jeste dovoljan da potvrdi ono što mnogi korisnici intuitivno osećaju. Ponekad nije problem u promptu, već u tome što današnji AI sistemi nisu potpuno stabilni proizvodi.

Moja poenta zato nije da su AI modeli „propali”. Naprotiv, ukupno gledano, oni su moćniji nego ikada. Ali način na koji su upakovani, ograničeni, rutirani i bezbednosno podešeni čini da deo korisnika, posebno onih koji rade kompleksne kreativne i strateške zadatke, realno dobija manje nego ranije. Ne zato što je inteligencija nužno nestala, već zato što je proizvod optimizovan za skalu, sigurnost i ekonomiju.

Za kompanije i profesionalce to ima vrlo praktičnu posledicu. Nije dovoljno „imati AI alat”. Potrebno je dizajnirati način korišćenja. To znači birati model po zadatku, znati kada tražiti dublje rezonovanje, kada koristiti više alata, kada uključiti proveru izvora, a kada svesno tražiti širi i manje predvidiv idejni prostor. Budućnost neće pripasti jednom savršenom modelu. Pripašće onima koji znaju da upravljaju kompromisom između tačnosti, brzine, cene i kreativnosti.

Možda je to i najvažniji zaključak. Modeli nisu nužno postali gori. Samo su postali više poslovni proizvodi nego istraživački demoi. A kada nešto postane proizvod u velikoj skali, kompromisi više nisu izuzetak. Oni postaju standard.

Izvor: BIZLife magazin

Foto: Napravljeno pomoću AI alata ChatGPT, Vitamin studio

What's your reaction?

Ostavite komentar

Vaša adresa e-pošte neće biti objavljena. Neophodna polja su označena *

developed by Premium.rs | Copyright © 2026. bizlife.rs | Sva prava zadržana.

MAGAZINE ONLINE