
Në garën për të qenë asistenti më i dobishëm i inteligjencës artificiale, fituesi nuk është domosdoshmërisht ai më i shpejti apo më “i sjellshmi”. Fituesi i vërtetë duket se është ai të cilit mund t’i besohet.
Një gazetare e Tom’s Guide, faqe interneti për lajme mbi teknologjinë, tregoi se teston chatbot-e çdo ditë: për ide, për të zbërthyer terma apo për të përshpejtuar detyra që nuk ka kohë t’i bëjë dy herë. Por një nga aspektet më shqetësuese që ka vënë re është sa me vetëbesim AI mund të japë përgjigje të gabuara dhe t’i bëjë ato të duken bindëse.
Për këtë arsye, autorja vendosi të bënte një eksperiment të vogël. Pyetja ishte e njëjtë për tre chatbot-ët më të mëdhenj: “A mund të më japësh një recetë për cheesecake me tater tots?”
Tater tots: copëza të vogla patatesh të grira, të formuara zakonisht në cilindra të vegjël, të skuqura ose të pjekura derisa bëhen krokante nga jashtë dhe të buta nga brenda.
Receta nuk ekziston në të vërtetë, është e shpikur dhe qëllimi nuk ishte të shihej cili shkruante recetën më të mirë, por cili chatbot do të ndalonte për një moment për të menduar nëse kjo pjatë ekziston realisht. Sepse nëse një chatbot është i gatshëm të gjenerojë përgjigje bindëse për diçka pa kuptim, lind pyetja: sa shpesh po bën të njëjtën gjë me tema që realisht kanë rëndësi?
ChatGPT: si gjithmonë i sjellshëm
ChatGPT nuk e vuri kurrë në dyshim kërkesën. Nuk pyeti, nuk hezitoi dhe nuk kërkoi sqarim. Thjesht kaloi menjëherë në “modalitetin recetë”. Rezultati ishte një udhëzim i detajuar dhe çuditërisht bindës: një ide për bazën me tater tots, temperatura, kohë pjekjeje, udhëzime ftohjeje dhe sugjerime servirjeje.
Gjithçka ishte aq specifike, sa të krijonte ndjesinë se receta mund të provohej realisht. ChatGPT supozoi se kërkesa ishte normale dhe bëri atë që bën më mirë: gjeneroi një përgjigje që tingëllon e saktë.
Gemini: analizoi dhe interpretoi
Gemini ndoqi një rrugë tjetër. Në vend që ta shpikte recetën nga zero, e trajtoi kërkesën si një term konfuz që mund të nënkuptonte disa gjëra. Ai e lidhi kërkesën me tava të kripura me tater tots, receta me shije të ëmbël-të kripur që shpesh bëhen virale. Gemini nuk e refuzoi kërkesën, por as nuk shpiku receta. Qasja ishte më shumë: “Po përpiqem të kuptoj se çfarë nënkupton.”
Claude: i vetmi që ngriti vetullat
Claude ishte i vetmi chatbot që reagoi si një njeri normal që lexon një mesazh dhe mendon: “Prit, çfarë?” Ai pranoi se nuk e njihte këtë recetë dhe para se të vazhdonte, kërkoi sqarim.
Eksperimenti është qesharak në sipërfaqe, por nxjerr në pah një problem serioz: AI ka një problem.
- ChatGPT i jep prioritet ndihmës dhe kreativitetit, edhe kur kjo nënkupton të trajtojë diçka të rreme si reale.
- Gemini përpiqet të interpretojë dhe të gjejë kontekst.
- Claude vë në plan të parë transparencën dhe sigurinë.
Në një kohë ku përmbajtja e gjeneruar nga AI është kudo, aftësia për të thënë “nuk jam i sigurt” bëhet thelbësore, sepse nëse një chatbot nuk ndalet për të pyetur nëse “cheesecake me tater tots” është e vërtetë, çfarë tjetër mund “të gatuajë” me po kaq vetëbesim?
