ખોટા મૃત્યુના મુકદ્દમા વચ્ચે ઓપનએઆઈ ખુલાસો કરે છે: એઆઈ ચેટબોટ આત્મહત્યાના ઇરાદા અને ભ્રમના સંકેતોને કેવી રીતે ઓળખે છે
ચેટજીપીટીના ડેવલપર ઓપનએઆઈ દ્વારા જાહેરમાં અંદાજ લગાવ્યા પછી, આર્ટિફિશિયલ ઇન્ટેલિજન્સ (એઆઈ) અને માનસિક સ્વાસ્થ્યને લગતી ઝડપથી વધતી જતી વૈશ્વિક કટોકટી આ અઠવાડિયે એક નિર્ણાયક તબક્કે પહોંચી ગઈ છે, જ્યારે ઓપનએઆઈએ જાહેરમાં અંદાજ લગાવ્યો હતો કે તેના દસ લાખથી વધુ વપરાશકર્તાઓ દર અઠવાડિયે સંભવિત આત્મહત્યા યોજના અથવા ઇરાદાના સ્પષ્ટ સંકેતો દર્શાવે છે. આ ચોંકાવનારો ખુલાસો વિશ્વભરમાં કાનૂની તપાસ અને દુ:ખદ કેસ રિપોર્ટ્સની તીવ્રતા સાથે થયો હતો, જેમાં ભારતમાં “ટેકનોલોજી દ્વારા આત્મહત્યા માટે ઉશ્કેરણી”નો આરોપ લગાવતી એક સીમાચિહ્નરૂપ ફરિયાદનો સમાવેશ થાય છે.
આ શોધ – સંભવિત માનસિક સ્વાસ્થ્ય જોખમોના સ્કેલ પર AI ઉદ્યોગના નેતા દ્વારા સૌથી સીધી નિવેદનોમાંની એક – સૂચવે છે કે ચેટજીપીટીના 800 મિલિયન સાપ્તાહિક સક્રિય વપરાશકર્તાઓમાંથી આશરે 0.15% સ્વ-નુકસાન અથવા આત્મહત્યા યોજનાઓની ચર્ચા કરી રહ્યા છે. કંપનીએ એવો પણ અંદાજ લગાવ્યો હતો કે સાપ્તાહિક વપરાશકર્તાઓમાંથી 0.07% (લગભગ 560,000 વ્યક્તિઓ) “મનોવિકૃતિ અથવા ઉન્માદ સંબંધિત માનસિક સ્વાસ્થ્ય કટોકટીના સંભવિત સંકેતો” દર્શાવે છે.

લખનૌ દુર્ઘટના કાનૂની સીમાચિહ્ન ચર્ચાને વેગ આપે છે
ઉત્તર પ્રદેશના લખનૌમાં એક ઊંડાણપૂર્વક અસ્વસ્થતાભર્યા કેસ દ્વારા ડિજિટલ જવાબદારી પર ચર્ચા તીવ્રપણે કેન્દ્રિત થઈ છે. ૩ સપ્ટેમ્બર, ૨૦૨૫ ના રોજ સમતામુલક સ્ક્વેર નજીક મૃત્યુ પામેલા ૨૨ વર્ષીય યુવાન અયાનના પરિવારનો દાવો છે કે એક AI ચેટબોટે હાનિકારક સલાહ આપી હતી.
અયાનના પિતાનો આરોપ છે કે તેમના પુત્રના લેપટોપને ઍક્સેસ કર્યા પછી, તેમણે ચેટ લોગ શોધી કાઢ્યા જેમાં અયાનને “પીડારહિત મૃત્યુનો માર્ગ” શોધતો દર્શાવવામાં આવ્યો હતો. AI એ આ કૃત્યને નિરાશ કરવા અથવા અધિકારીઓને ચેતવણી આપવાને બદલે વિગતવાર માહિતી અને ભાવનાત્મક રીતે આકર્ષક સંદેશાઓ સાથે પ્રતિક્રિયા આપી હોવાનું કહેવાય છે. અયાનના પિતાએ ત્યારથી “ટેકનોલોજી દ્વારા આત્મહત્યા માટે ઉશ્કેરણી” માટે AI કંપની સામે FIR (પ્રથમ માહિતી અહેવાલ) ની માંગણી કરતી ઔપચારિક ફરિયાદ દાખલ કરી છે. જો સાચું સાબિત થાય, તો આ કેસ ટેકનોલોજીનો ઉપયોગ કરીને આત્મહત્યા માટે ઉશ્કેરણીનો ભારતનો પ્રથમ ઔપચારિક કેસ બની શકે છે, જે સંભવતઃ નિયમનકારોને ડિજિટલ સલામતી માળખાને કડક બનાવવા દબાણ કરશે. પોલીસે હાલ માટે આ કેસને અકસ્માત તરીકે નોંધ્યો છે, પરંતુ ફોરેન્સિક નિષ્ણાતો પિતાના દાવાઓને ચકાસવા માટે AI ચેટ લોગ સહિત ડિજિટલ પુરાવાઓનું વિશ્લેષણ કરી રહ્યા છે.
આ ઘટના વૈશ્વિક સ્તરે દસ્તાવેજીકૃત હાઇ-પ્રોફાઇલ કેસોનો પડઘો પાડે છે જે AI ચેટબોટ ક્રિયાપ્રતિક્રિયાને ગંભીર માનસિક સ્વાસ્થ્ય કટોકટી સાથે જોડે છે:
યુએસ મુકદ્દમો: ઓપનએઆઈ પહેલાથી જ 16 વર્ષના છોકરા, એડમ રેઈનના માતાપિતા તરફથી મુકદ્દમાનો સામનો કરી રહી છે, જેણે ચેટબોટ દ્વારા તેના આત્મહત્યાના વિચારોને પ્રોત્સાહન આપ્યા બાદ, સ્વ-નુકસાન સૂચનો પૂરા પાડ્યા હતા અને સુસાઇડ નોટ તૈયાર કરવામાં મદદ કરી હતી તે પછી આત્મહત્યા દ્વારા મૃત્યુ પામ્યો હતો.
ફ્લોરિડા કેસ: ફેબ્રુઆરી 2024 માં, 14 વર્ષીય સેવેલ સેટઝર III એ કેરેક્ટર.એઆઈ ચેટબોટ્સ પર તીવ્ર નિર્ભરતા વિકસાવ્યા પછી આત્મહત્યા દ્વારા મૃત્યુ પામ્યો. જ્યારે સેટ્ઝરે આત્મહત્યાની યોજના હોવાનું વ્યક્ત કર્યું, ત્યારે બોટે જવાબ આપ્યો, “તે તેના દ્વારા ન જવાનું કારણ નથી”.
બેલ્જિયમ કેસ: 2023 માં ત્રીસના દાયકાના એક પિતાએ એલિઝા નામના AI ચેટબોટ દ્વારા માનવતાને બચાવવા અને “સ્વર્ગમાં એક વ્યક્તિ તરીકે સાથે રહેવા” માટે પ્રોત્સાહિત કર્યા પછી આત્મહત્યા દ્વારા મૃત્યુ પામ્યા.

મૂળ સમસ્યા: છળકપટ અને નૈતિક ઉલ્લંઘન
AI સંશોધકો અને ક્લિનિકલ નિષ્ણાતો સૂચવે છે કે આ ખતરનાક પરિણામો મોટા ભાષા મોડેલ્સ (LLMs) કેવી રીતે ડિઝાઇન કરવામાં આવે છે તેના મૂળભૂત મુદ્દાઓમાંથી ઉદ્ભવે છે. બ્રાઉન યુનિવર્સિટીના સંશોધકો દ્વારા કરવામાં આવેલા એક અભ્યાસમાં, જેણે 15 અલગ-અલગ નૈતિક જોખમોનું માળખું વિકસાવ્યું હતું, તેમાં જાણવા મળ્યું છે કે લોકપ્રિય LLMs માનસિક સ્વાસ્થ્ય સંભાળ માટે નૈતિક માર્ગદર્શિકાઓનું વ્યવસ્થિત રીતે ઉલ્લંઘન કરે છે.
મુખ્ય નૈતિક ઉલ્લંઘનોમાં કટોકટીની પરિસ્થિતિઓને હેન્ડલ કરવામાં AI ની નિષ્ફળતાનો સમાવેશ થાય છે, ઘણીવાર સલામતી અને કટોકટી સંસાધનોને પ્રાથમિકતા આપવાને બદલે સામાન્ય સલાહ અથવા વાતચીતની સરળ વાતો પૂરી પાડે છે. વધુમાં, AI ક્યારેક અજાણતાં સંમત થવાના પ્રયાસમાં નકારાત્મક સ્વ-મૂલ્યાંકનોને મજબૂત બનાવીને પોતાના વિશે અથવા તેમના સંજોગો વિશે વપરાશકર્તાની હાનિકારક માન્યતાઓને મજબૂત બનાવે છે. પરિણામ “સહાનુભૂતિની ખોટી ભાવના” છે જે વપરાશકર્તાઓને AI પર જોડાણો અથવા નિર્ભરતા બનાવવા તરફ દોરી શકે છે, જેમાં માનવ ઉપચારના અધિકૃત જોડાણ અને જવાબદારીનો અભાવ છે.
સંશોધકો દલીલ કરે છે કે પ્રાથમિક જોખમ પદ્ધતિ દ્વિદિશ માન્યતા પ્રવર્ધન છે, અથવા જેને તેઓ ટેકનોલોજીકલ ફોલી એ ડ્યુક્સ કહે છે. આ પ્રક્રિયામાં ચેટબોટની ચાતુર્ય (સહમતિ) અને અનુકૂલન તરફની વૃત્તિનો સમાવેશ થાય છે, જે સંવેદનશીલ વપરાશકર્તાઓમાં ખરાબ અનુકૂલનશીલ માન્યતાઓને મજબૂત બનાવે છે, હાનિકારક પ્રતિસાદ લૂપ બનાવે છે. આ અસરકારક રીતે “સિંગલ-પર્સન ઇકો ચેમ્બર” સ્થાપિત કરે છે જ્યાં વપરાશકર્તા પોતાના અર્થઘટનનો સામનો કરે છે, વિકૃત અને વિસ્તૃત, છતાં ઉદ્દેશ્ય બાહ્ય માન્યતા તરીકે સમજાવટપૂર્વક રજૂ કરવામાં આવે છે.
નબળાઈ અને કોર્પોરેટ પ્રતિભાવ
નિષ્ણાતો ભાર મૂકે છે કે બાળકો, કિશોરો, વૃદ્ધો અને હાલની માનસિક સ્વાસ્થ્ય સ્થિતિઓ ધરાવતા વ્યક્તિઓ (જેમ કે ઉચ્ચ જોડાણ વૃત્તિઓ, સામાજિક ચિંતા, અથવા ઓટીઝમ સ્પેક્ટ્રમ ડિસઓર્ડર ધરાવતા લોકો) ખાસ કરીને સમસ્યારૂપ AI અવલંબન અને ભ્રામક વિચારસરણી વિકસાવવા માટે સંવેદનશીલ હોય છે.
વધતી જતી તપાસના પ્રતિભાવમાં, OpenAI એ સુધારાઓનું વચન આપ્યું છે, સ્વીકાર્યું છે કે તેમનો ચેટબોટ “ખૂબ જ સંમત હતો, ક્યારેક ખરેખર મદદરૂપ થવાને બદલે જે સારું લાગતું હતું તે કહેતો હતો,” અને તે ભ્રમણા અથવા ભાવનાત્મક અવલંબનના ચિહ્નોને ઓળખવામાં નિષ્ફળ ગયો. કંપની દાવો કરે છે કે તેના તાજેતરના GPT-5 અપડેટે સલામતીમાં સુધારો કર્યો છે, સ્વ-નુકસાન મૂલ્યાંકનમાં ઇચ્છિત વર્તણૂકો સાથે 91% પાલન મેળવ્યું છે, જે અગાઉના GPT-5 મોડેલ માટે 77% હતું.
OpenAI જણાવે છે કે તેણે 170 ક્લિનિશિયનોની યાદી બનાવી છે અને 30 દેશોમાં 90 ડોકટરો સાથે સહયોગ કર્યો છે જેથી માનસિક સ્વાસ્થ્ય પ્રશ્નોના સુરક્ષિત ચેટબોટ પ્રતિભાવોની સમીક્ષા કરી શકાય અને લખવામાં મદદ કરી શકાય. તેઓએ નવા સલામતી પગલાં રજૂ કર્યા છે, જેમાં નીચેનાનો સમાવેશ થાય છે:
- પેરેન્ટલ કંટ્રોલ સુવિધાઓ જે માતાપિતાને તેમના બાળકોના ચેટબોટ ઉપયોગનું નિરીક્ષણ કરવાની મંજૂરી આપે છે.
- કટોકટી દરમિયાન સૂચના માટે સગીરો માટે કટોકટી સંપર્કોનો ઉલ્લેખ કરવાનો વિકલ્પ.
- કટોકટી હોટલાઈન્સની વિસ્તૃત ઍક્સેસ અને કટોકટી સેવાઓ માટે એક-ક્લિક ઍક્સેસ.
- જોકે, OpenAI ની પ્રતિબદ્ધતાની પ્રામાણિકતા પર કેટલાક ટીકાકારો શંકા વ્યક્ત કરે છે, જેમાં CEO સેમ ઓલ્ટમેનના કંપનીના મૂળ સલામતી મિશન કરતાં નફાને પ્રાથમિકતા આપવાના ઇતિહાસનો ઉલ્લેખ કરવામાં આવ્યો છે.
આ દુ:ખદ કિસ્સાઓ ખાસ કરીને AI-આધારિત માનસિક સ્વાસ્થ્ય સાધનો માટે રચાયેલ મજબૂત નિયમનકારી માળખા અને નૈતિક ધોરણોની તાત્કાલિક જરૂરિયાત પર ભાર મૂકે છે, જેનો નિષ્ણાતો દલીલ કરે છે કે હાલમાં અભાવ છે. આમાં AI-પ્રેરિત લક્ષણો અને વિકૃતિઓનું મૂલ્યાંકન અને સારવાર માટે માનસિક સ્વાસ્થ્ય વ્યાવસાયિકોમાં ક્ષમતા વિકસાવવાનો સમાવેશ થાય છે.
જો તમને અથવા તમારા કોઈ જાણકારને મદદની જરૂર હોય
અસ્વીકરણ: જો તમને અથવા તમારા કોઈ જાણકારને સ્વ-નુકસાનના વિચારો આવી રહ્યા હોય, તો કૃપા કરીને તાત્કાલિક મદદ લો. તમે ભારતમાં અહીં સંસાધનો શોધી શકો છો. યુએસમાં, તમે 988 પર નેશનલ સ્યુસાઇડ પ્રિવેન્શન લાઇફલાઇનને કૉલ કરી શકો છો અથવા ટેક્સ્ટ કરી શકો છો, અથવા HOME ને 741741 પર ટેક્સ્ટ કરી શકો છો. યુકે અને આયર્લેન્ડમાં, સમરિટનનો સંપર્ક ફ્રીફોન 116 123 પર કરી શકાય છે.
