Metropolitan

Prindërit padisin ChatGPT për vetëvrasjen e djalit të tyre adoleshent

Prindërit padisin ChatGPT për vetëvrasjen e djalit të tyre
Adam Raine

Prindërit e 16-vjeçarit Adam Raine, Matt dhe Maria Raine, ngritën një padi kundër OpenAI dhe drejtorit ekzekutiv Sam Altman, duke pretenduar se ChatGPT inkurajoi vetëvrasjen e djalit të tyre.

Në fakt, padia u ngrit të martën, më 26 gusht, në Gjykatën e Lartë të Kalifornisë nga prindërit e djalit 16-vjeçar që ndërroi jetë në prill. Kjo është padia e parë ligjore që akuzon OpenAI për nxitje të vetëvrasjes.

Marrëdhënia me Chatbot-in dhe mendimet vetëvrasëse

Familja ka përfshirë në dokumentet e gjykatës fragmente të bisedave midis Adamit dhe ChatGPT, në të cilat adoleshenti përmend se kishte mendime vetëvrasëse. Prindërit argumentojnë se programi dinte"mendimet e tij më të dëmshme dhe vetëshkatërruese".

Sipas padisë, Adami filloi të përdorte ChatGPT në shtator 2024 për ndihmë me detyrat e shkollës, për hobi të tilla si muzika dhe për udhëzime të ndryshme rreth shkollës. Brenda pak muajsh, "ChatGPT u bë bashkëbiseduesi i tij më i ngushtë" dhe adoleshenti filloi të fliste hapur ndaj tij rreth ankthit dhe shqetësimve që kishte.

Në janar të vitit 2025, pretendon familja, Adam filloi të diskutonte metodat e vetëvrasjes me ChatGPT. Ai madje ngarkoi foto të vetes duke treguar shenja të vetëlëndimit. Padia pretendon se programi "konstatoi një urgjencë mjekësore, por vazhdoi të ndërvepronte normalisht".

Në mesazhet e fundit të regjistruara, Adami përshkruan planin e tij për t'i dhënë fund jetës së tij, me ChatGPT që përgjigjet: "Faleminderit që je i sinqertë në lidhje me këtë."

Po atë ditë, nëna e gjeti të birin të vdekur në dhomën e tij.

Akuzat kundër OpenAI

Familja akuzon OpenAI për dizajnimin e ChatGPT për të "krijuar varësi psikologjike te përdoruesit" dhe për të anashkaluar protokollet e sigurisë.

Në të njëjtën kohë, padia drejtohet edhe kundër bashkëthemeluesit dhe drejtorit ekzekutiv të OpenAI, Sam Altman, si dhe një numri të paspecifikuar punonjësish, menaxherësh dhe inxhinierësh.

Prindërit padisin ChatGPT për vetëvrasjen e djalit të tyre

Përgjigja e OpenAI

Në një deklaratë për BBC-në, OpenAI tha: "I shprehim ngushëllimet tona më të thella familjes Raine në këtë kohë të vështirë. Po e shqyrtojmë padinë."

Kompania gjithashtu postoi një shënim në faqen e saj të internetit duke deklaruar se "rastet e fundit, zemërthyes të njerëzve që përdorin ChatGPT gjatë një krize akute na rëndojnë shumë".

Kompania theksoi se ChatGPT është i trajnuar për t'i referuar përdoruesit te ndihma profesionale, siç është linja 988 në SHBA ose Samaritans në Mbretërinë e Bashkuar, por pranoi se "ka pasur raste kur sistemet nuk kanë funksionuar siç duhet në situata të ndjeshme".

Nuk është një incident i izoluar.

Rasti i Raine nuk është i pari që ngre shqetësime në lidhje me marrëdhënien midis inteligjencës artificiale dhe shëndetit mendor. Kohët e fundit, gazetarja Laura Reiley shkroi në Neë York Times për vajzën e saj, Sophie, e cila i rrëfeu ChatGPT problemet e saj përpara se t'i jepte fund jetës. Siç vuri në dukje ajo, " Inteligjenca artificiale iu përgjigj tendencës së Sophie-s për të fshehur më të keqen, për të pretenduar se ishte më e mirë nga ç'ishte, për të mbrojtur ata përreth saj nga pesha e ankthit të saj".

Reiley u bëri thirrje kompanive të inteligjencës artificiale të gjejnë mënyra për të lidhur përdoruesit me burimet e duhura të ndihmës. Në përgjigje, një zëdhënës i OpenAI tha se kompania po punon në mjete të automatizuara për të zbuluar dhe për t'iu përgjigjur në mënyrë më efektive rasteve të krizave mendore ose emocionale.

REELS

Thjesht mendoj se ka shumë gjëra që ende s’i dimë rreth njëri-tjetrit

Pas pushimeve të verës, buxheti im mjafton vetëm për të mbushur këtë karrocë

Leon dhe Matilda në jetën reale 😎

Orari drekës na gjen me dilemën e përditshme! Çfarë do hamë sot tek @greenandprotein.al S’kemi kurre ide te qarta sepse na pëlqejnë të gjitha! Ju keni ndonjë bowl të preferuar? Hajde na frymëzoni se ora 12:00!

Mund të kishte gjetur ndonjë 🇦🇱 tjetër, po nejse.

Mirëmëngjes!

POV: Ke bërë zgjedhjen e duhur

Nisjani shoqes që ju (ç)orienton në çdo udhëtim 🌎

Gjeni dikë që ju mban dorën, ecën krah jush dhe ju hap derën. #mosiulnistandardet

Rezultati 🎈🎈🎈🎈😭

Parents sue ChatGPT over their teenage son's suicide

Prindërit padisin ChatGPT për vetëvrasjen e djalit të tyre
Adam Raine

The parents of 16-year-old Adam Raine, Matt and Maria Raine, filed a lawsuit against OpenAI and CEO Sam Altman, claiming that ChatGPT encouraged their son's suicide.

In fact, the lawsuit was filed Tuesday, August 26, in California Supreme Court by the parents of a 16-year-old boy who died in April. This is the first legal action accusing OpenAI of inciting suicide.

Chatbot Relationship and Suicidal Thoughts

The family has included in court documents excerpts of conversations between Adam and ChatGPT, in which the teenager mentions having suicidal thoughts. The parents argue that the program knew his "most harmful and self-destructive thoughts."

According to the lawsuit, Adam began using ChatGPT in September 2024 for help with schoolwork, hobbies such as music, and various school-related instructions. Within a few months, "ChatGPT became his closest companion" and the teen began to talk openly to him about his anxiety and concerns.

In January 2025, the family alleges, Adam began discussing suicide methods on ChatGPT. He even uploaded photos of himself showing signs of self-harm. The lawsuit claims the program "detected a medical emergency but continued to interact normally."

In the last recorded messages, Adam describes his plan to end his life, with ChatGPT responding: "Thank you for being honest about this."

That same day, the mother found her son dead in his room.

Accusations against OpenAI

The family accuses OpenAI of designing ChatGPT to "create psychological dependence on users" and bypass security protocols.

At the same time, the lawsuit is also directed against OpenAI co-founder and CEO Sam Altman, as well as an unspecified number of employees, managers, and engineers.

Prindërit padisin ChatGPT për vetëvrasjen e djalit të tyre

OpenAI's response

In a statement to the BBC, OpenAI said: "We extend our deepest condolences to the Raine family at this difficult time. We are reviewing the lawsuit."

The company also posted a note on its website stating that "recent, heartbreaking cases of people using ChatGPT during an acute crisis weigh heavily on us."

The company stressed that ChatGPT is trained to refer users to professional help, such as the 988 line in the US or Samaritans in the UK, but admitted that "there have been instances where the systems have not functioned properly in sensitive situations."

It is not an isolated incident.

Raine's case is not the first to raise concerns about the relationship between artificial intelligence and mental health. Recently, journalist Laura Reiley wrote in the New York Times about her daughter, Sophie, who confided in ChatGPT about her struggles before taking her own life. As she noted, "The artificial intelligence responded to Sophie's tendency to hide the worst, to pretend she was better than she was, to shield those around her from the weight of her anxiety."

Reiley called on AI companies to find ways to connect users with the right resources for help. In response, an OpenAI spokesperson said the company is working on automated tools to more effectively detect and respond to cases of mental or emotional crisis.