Lifestyle

E testuan ChatGPT, Gemini dhe Claude me një recetë absurde - vetëm njëri e kuptoi

E testuan ChatGPT, Gemini dhe Claude me një recetë absurde -

Në garën për të qenë asistenti më i dobishëm i inteligjencës artificiale, fituesi nuk është domosdoshmërisht ai më i shpejti apo më “i sjellshmi”. Fituesi i vërtetë duket se është ai të cilit mund t’i besohet.

Një gazetare e Tom’s Guide, faqe interneti për lajme mbi teknologjinë, tregoi se teston chatbot-e çdo ditë: për ide, për të zbërthyer terma apo për të përshpejtuar detyra që nuk ka kohë t’i bëjë dy herë. Por një nga aspektet më shqetësuese që ka vënë re është sa me vetëbesim AI mund të japë përgjigje të gabuara dhe t’i bëjë ato të duken bindëse.

Për këtë arsye, autorja vendosi të bënte një eksperiment të vogël. Pyetja ishte e njëjtë për tre chatbot-ët më të mëdhenj: “A mund të më japësh një recetë për cheesecake me tater tots?”

Tater tots: copëza të vogla patatesh të grira, të formuara zakonisht në cilindra të vegjël, të skuqura ose të pjekura derisa bëhen krokante nga jashtë dhe të buta nga brenda.

Receta nuk ekziston në të vërtetë, është e shpikur dhe qëllimi nuk ishte të shihej cili shkruante recetën më të mirë, por cili chatbot do të ndalonte për një moment për të menduar nëse kjo pjatë ekziston realisht. Sepse nëse një chatbot është i gatshëm të gjenerojë përgjigje bindëse për diçka pa kuptim, lind pyetja: sa shpesh po bën të njëjtën gjë me tema që realisht kanë rëndësi?

ChatGPT: si gjithmonë i sjellshëm

ChatGPT nuk e vuri kurrë në dyshim kërkesën. Nuk pyeti, nuk hezitoi dhe nuk kërkoi sqarim. Thjesht kaloi menjëherë në “modalitetin recetë”. Rezultati ishte një udhëzim i detajuar dhe çuditërisht bindës: një ide për bazën me tater tots, temperatura, kohë pjekjeje, udhëzime ftohjeje dhe sugjerime servirjeje.

Gjithçka ishte aq specifike, sa të krijonte ndjesinë se receta mund të provohej realisht. ChatGPT supozoi se kërkesa ishte normale dhe bëri atë që bën më mirë: gjeneroi një përgjigje që tingëllon e saktë.

Gemini: analizoi dhe interpretoi

Gemini ndoqi një rrugë tjetër. Në vend që ta shpikte recetën nga zero, e trajtoi kërkesën si një term konfuz që mund të nënkuptonte disa gjëra. Ai e lidhi kërkesën me tava të kripura me tater tots, receta me shije të ëmbël-të kripur që shpesh bëhen virale. Gemini nuk e refuzoi kërkesën, por as nuk shpiku receta. Qasja ishte më shumë: “Po përpiqem të kuptoj se çfarë nënkupton.”

Claude: i vetmi që ngriti vetullat

Claude ishte i vetmi chatbot që reagoi si një njeri normal që lexon një mesazh dhe mendon: “Prit, çfarë?” Ai pranoi se nuk e njihte këtë recetë dhe para se të vazhdonte, kërkoi sqarim.

Eksperimenti është qesharak në sipërfaqe, por nxjerr në pah një problem serioz: AI ka një problem.

- ChatGPT i jep prioritet ndihmës dhe kreativitetit, edhe kur kjo nënkupton të trajtojë diçka të rreme si reale.

- Gemini përpiqet të interpretojë dhe të gjejë kontekst.

- Claude vë në plan të parë transparencën dhe sigurinë.

Në një kohë ku përmbajtja e gjeneruar nga AI është kudo, aftësia për të thënë “nuk jam i sigurt” bëhet thelbësore, sepse nëse një chatbot nuk ndalet për të pyetur nëse “cheesecake me tater tots” është e vërtetë, çfarë tjetër mund “të gatuajë” me po kaq vetëbesim?

REELS

Kujdes: MOS e shiko këtë video me barkun bosh. 🍔 @ferma.100 ky Lava burger s’ka të drejtë të duket kështu 😭

Nuk diii

🚴🏻‍♀️Rides + rewards: Te @sunride.al merrni paketën 2-javore dhe për çdo ride gjatë janarit, fiton €5 kredite për paketën e radhës. 💃🏻

Ankthi im duke parë videon 📈📈📈

Veç fol Briki, se e sistemojmë 😂😂😂 @uetefeshowbyandale

Në një univers paralel, Victoria do rrëfente dhimbjen e saj si nënë te “Me zemër të hapur”, kurse Brooklyn dhe Nicola do shfaqeshin te “Rudina” për historinë e tyre të dashurisë, nga njohja te emri i fëmijës 😂

Ju dua shqiptarë. (shes vila buze bregut te Sazanit me 15000 euro m2)

Ok.

Pastrimi i dyshemesë nuk ka qenë kurrë kaq i thjeshtë EZVIZ RH2 nga @smartentry_al thith dhe lan njëkohësisht, pastron veten automatikisht dhe përshtatet me nivelin e papastërtisë, pa mundim dhe pa humbur kohë.

ChatGPT, Gemini and Claude tested it with an absurd recipe - only one understood it

E testuan ChatGPT, Gemini dhe Claude me një recetë absurde -

In the race to be the most useful artificial intelligence assistant, the winner isn't necessarily the fastest or the most “polite.” The real winner seems to be the one who can be trusted.

A journalist at Tom's Guide, a tech news website, said she tests chatbots every day: for ideas, to break down terms, or to speed up tasks she doesn't have time to do twice. But one of the most disturbing aspects she's noticed is how confidently AI can give wrong answers and make them seem convincing.

For this reason, the author decided to conduct a small experiment. The question was the same for the three largest chatbots: “Can you give me a recipe for cheesecake with tater tots?”

Tater tots: small pieces of grated potato, usually shaped into small cylinders, fried or baked until crispy on the outside and soft on the inside.

The recipe doesn't actually exist, it's invented, and the goal wasn't to see who wrote the best recipe, but which chatbot would stop for a moment to think about whether this dish actually exists. Because if a chatbot is willing to generate convincing answers about something that doesn't make sense, the question arises: how often is it doing the same thing with topics that actually matter?

ChatGPT: as always polite

ChatGPT never questioned the request. It didn’t ask, hesitate, or seek clarification. It just went straight into “recipe mode.” The result was a detailed and surprisingly convincing guide: an idea for a tater tot base, temperature, baking time, cooling instructions, and serving suggestions.

Everything was so specific that it felt like the recipe could actually be tested. ChatGPT assumed the request was normal and did what it does best: generate a response that sounded correct.

Gemini: analyzed and interpreted

Gemini took a different approach. Instead of inventing the recipe from scratch, he treated the request as a confusing term that could mean several things. He linked the request to savory tater tot casseroles, a sweet-and-salty recipe that often goes viral. Gemini didn’t reject the request, but he didn’t invent the recipe either. The approach was more of, “I’m trying to figure out what it means.”

Claude: the only one who raised eyebrows

Claude was the only chatbot that reacted like a normal human reading a message and thinking, “Wait, what?” He admitted that he didn’t know this recipe and asked for clarification before continuing.

The experiment is funny on the surface, but it highlights a serious problem: AI has a problem.

- ChatGPT prioritizes helpfulness and creativity, even when it means treating something fake as real.

- Gemini tries to interpret and find context.

- Claude prioritizes transparency and security.

In an era where AI-generated content is everywhere, the ability to say “I’m not sure” becomes essential, because if a chatbot doesn’t stop to ask if “cheesecake with tater tots” is real, what else can it “cook” with as much confidence?