News

Ekspertët të shqetësuar: Imazhet e AI që portretizojnë varfëri ekstreme, po përdoren nga agjenci humanitare

Ekspertët të shqetësuar: Imazhet e AI që portretizojnë

Fotografi që tregojnë fëmijë të uritur, gra të dhunuara apo skena varfërie të thellë po përhapen me shpejtësi në faqet e fotove “stock” dhe po përdoren gjithnjë e më shumë nga OJQ-të e shëndetit global dhe shumë ekspertë po paralajmërojnë për një epokë të re të asaj që quhet “poverty porn”.

“Është bërë e zakonshme. Shumë organizata po i përdorin ose po eksperimentojnë me to,” tha Noah Arnold nga organizata zvicerane Fairpicture, e cila promovon përdorimin etik të imazheve në zhvillimin global.

Sipas studiuesit Arsenii Alenichev nga Instituti i Mjekësisë Tropikale në Antwerp, këto imazhe imitojnë “gramatikën vizuale të varfërisë”; fëmijë me pjata bosh, tokë e plasaritur, fytyra të trishtuara, klishe raciale. Ai ka mbledhur mbi 100 imazhe të krijuara nga inteligjenca artificiale që janë përdorur nga individë apo organizata në fushata kundër urisë apo dhunës seksuale.

Ekspertët të shqetësuar: Imazhet e AI që portretizojnë

Në disa prej tyre shfaqen fëmijë që qajnë në ujë me baltë apo një vajzë afrikane me fustan dasme dhe lot në faqe; skena që, sipas Alenichev, përbëjnë “poverty porn 2.0”.

Arsyeja pse këto imazhe po përhapen? Kostoja e ulët dhe mungesa e nevojës për leje apo miratim. “Është shumë më lirë dhe s’ke nevojë të merresh me pëlqime apo privatësi,” tha ai.

Në faqe si Adobe Stock dhe Freepik shfaqen dhjetëra foto të tilla me përshkrime si “fëmijë aziatikë në lumë me mbeturina” apo “vullnetar i bardhë që ndihmon fëmijë të zinj në fshat afrikan” të cilat shiten për rreth 60 paund.

“Janë thellësisht raciste. Këto s’duhej të lejoheshin kurrë,” shtoi Alenichev.

CEO i Freepik, Joaquín Abela, tha se përgjegjësia bie mbi përdoruesit, jo platformat.

“Nëse konsumatorët duan imazhe të tilla, s’kemi ç’të bëjmë, është si të përpiqesh të thash oqeanin,” u shpreh ai.

Në vitet e fundit, edhe organizata të njohura kanë përdorur imazhe të krijuara nga AI.

Në 2023, Plan International publikoi një video kundër martesave të hershme me imazhe të gjeneruara nga AI që tregonin vajza të rrahura e të martuara me burra më të mëdhenj në moshë.
Edhe OKB-ja vitin e kaluar postoi një video me “rindërtime” të dhunës seksuale në luftë, përfshirë një grua burundiane që rrëfente përdhunimin e saj nga tre burra gjatë luftës civile, video që u fshi menjëherë pas kritikave.

Ekspertët të shqetësuar: Imazhet e AI që portretizojnë

Një zëdhënës i OKB-së pranoi se materiali “përfaqësonte përdorim të papërshtatshëm të AI-së” dhe se “mund të rrezikonte integritetin e informacionit duke përzier të vërtetën me të sajuarën”.

Ekspertët paralajmërojnë se këto imazhe, përveç se përforcojnë stereotipe raciale, mund të ndikojnë edhe në mënyrën si trajnohen modelet e reja të AI, duke riprodhuar paragjykimet ekzistuese në përmasa më të mëdha.

“Është e trishtueshme që lufta për përfaqësim etik të njerëzve në varfëri tani është zhvendosur edhe te ajo që s’ekziston, te imazhet e krijuara nga kompjuteri,” tha konsulentja e komunikimit Kate Kardol.

Një zëdhënës i Plan International tha se organizata tashmë ka miratuar udhëzime që ndalojnë përdorimin e AI për të portretizuar fëmijë me aftësi ndryshe dhe se videoja e vitit 2023 kishte për qëllim të mbronte “privatësinë dhe dinjitetin e vajzave reale”. Adobe nuk komentoi mbi rastin.

REELS

S’kisha lekë për terapi dhe

😂😂😂

Një kliente e irrituar i hodhi gotën me kafe të nxehtë punonjëses së McDonald’s në Saginaw, Michigan. Momenti u filmua nga dëshmitarët e rastit dhe u bë virale kudo në botë. Klientja ishte aq e njohur në komunitet, pra ishte një Karen, sa policia mori mbi 100 sinjalizime për identitetin e saj menjëherë pasi publikoi pamjet e incidentit. Videoja e regjistruar nga dëshmitarja Tara Martus tregon një pjesë të debatit të gjatë mes klientes dhe punonjëses. Në pamje, gruaja dëgjohet të thotë se kishte një orë që priste, ndërsa debaton me punonjësen, e cila i shpjegon se porosia e mëngjesit ishte anuluar automatikisht nga sistemi, pasi shërbimi ishte mbyllur. Punonjësja i përsërit disa herë se rimbursimi ishte bërë dhe do të kreditohej në llogari brenda 48 orësh.

Kjo videoja është shenja që e meritoni një copë nga kjo torta fantastike artizanale e @pasticerivittoria 🍰 Për çdo rast, thoni “Anabelin e ka fajin” pa merak 😋

Keni ndonjë ide më të mirë?

Keni shoqe!

Ajo që shohim dhe ajo që nuk shohim në kinema 🍿

Mëngjeset e mia me Tiranën e Re

Neda Balluku ka konfirmuar divorcin në emisionin “Goca&Gra”.

E meriton 😼

Experts concerned: AI images portraying extreme poverty are being used by humanitarian agencies

Ekspertët të shqetësuar: Imazhet e AI që portretizojnë

Photos showing starving children, raped women or scenes of deep poverty are spreading rapidly on stock photo sites and are increasingly being used by global health NGOs, and many experts are warning of a new era of what is called "poverty porn."

"It's become commonplace. Many organizations are using them or experimenting with them," said Noah Arnold of the Swiss organization Fairpicture, which promotes the ethical use of images in global development.

According to researcher Arsenii Alenichev from the Institute of Tropical Medicine in Antwerp, these images mimic the “visual grammar of poverty”; children with empty plates, cracked earth, sad faces, racial stereotypes. He has collected over 100 images created by artificial intelligence that have been used by individuals or organizations in campaigns against hunger or sexual violence.

Ekspertët të shqetësuar: Imazhet e AI që portretizojnë

Some of them show children crying in muddy water or an African girl in a wedding dress with tears on her face; scenes that, according to Alenichev, constitute "poverty porn 2.0".

The reason these images are spreading? The low cost and the lack of need for permission or approval. “It's much cheaper and you don't have to deal with consents or privacy,” he said.

Dozens of such photos appear on sites like Adobe Stock and Freepik with descriptions like "Asian children in a river with garbage" or "white volunteer helping black children in an African village" which sell for around 60 pounds.

"They are deeply racist. These should never have been allowed," Alenichev added.

Freepik CEO Joaquín Abela said that responsibility falls on users, not platforms.

"If consumers want such images, there's nothing we can do, it's like trying to dry up the ocean," he said.

In recent years, even well-known organizations have used AI-generated images.

In 2023, Plan International released a video against early marriage with AI-generated images showing girls beaten and married off to older men.
The UN also posted a video last year with “reenactments” of sexual violence in war, including a Burundian woman recounting her rape by three men during the civil war, a video that was quickly deleted after criticism.

Ekspertët të shqetësuar: Imazhet e AI që portretizojnë

A UN spokesperson acknowledged that the material “represented inappropriate use of AI” and that it “could jeopardize the integrity of information by mixing truth with fiction.”

Experts warn that these images, in addition to reinforcing racial stereotypes, could also influence the way new AI models are trained, reproducing existing prejudices on a larger scale.

“It's sad that the fight for ethical representation of people in poverty has now shifted to what doesn't exist, to computer-generated images,” said communications consultant Kate Kardol.

A spokesperson for Plan International said the organization has already adopted guidelines prohibiting the use of AI to portray children with disabilities and that the 2023 video was intended to protect the “privacy and dignity of real girls.” Adobe did not comment on the case.