AI માનસિક સ્વાસ્થ્ય માટે ગંભીર ખતરો છે? નિષ્ણાતો ChatGPT વપરાશકર્તાઓના લક્ષણો વિશે ચિંતિત

By
Halima Shaikh
Halima Shaikh is a talented Gujarati content writer at Satya Day News, known for her clear and compelling storytelling in the Gujarati language. She covers a...
8 Min Read

ખોટા મૃત્યુના મુકદ્દમા વચ્ચે ઓપનએઆઈ ખુલાસો કરે છે: એઆઈ ચેટબોટ આત્મહત્યાના ઇરાદા અને ભ્રમના સંકેતોને કેવી રીતે ઓળખે છે

ચેટજીપીટીના ડેવલપર ઓપનએઆઈ દ્વારા જાહેરમાં અંદાજ લગાવ્યા પછી, આર્ટિફિશિયલ ઇન્ટેલિજન્સ (એઆઈ) અને માનસિક સ્વાસ્થ્યને લગતી ઝડપથી વધતી જતી વૈશ્વિક કટોકટી આ અઠવાડિયે એક નિર્ણાયક તબક્કે પહોંચી ગઈ છે, જ્યારે ઓપનએઆઈએ જાહેરમાં અંદાજ લગાવ્યો હતો કે તેના દસ લાખથી વધુ વપરાશકર્તાઓ દર અઠવાડિયે સંભવિત આત્મહત્યા યોજના અથવા ઇરાદાના સ્પષ્ટ સંકેતો દર્શાવે છે. આ ચોંકાવનારો ખુલાસો વિશ્વભરમાં કાનૂની તપાસ અને દુ:ખદ કેસ રિપોર્ટ્સની તીવ્રતા સાથે થયો હતો, જેમાં ભારતમાં “ટેકનોલોજી દ્વારા આત્મહત્યા માટે ઉશ્કેરણી”નો આરોપ લગાવતી એક સીમાચિહ્નરૂપ ફરિયાદનો સમાવેશ થાય છે.

આ શોધ – સંભવિત માનસિક સ્વાસ્થ્ય જોખમોના સ્કેલ પર AI ઉદ્યોગના નેતા દ્વારા સૌથી સીધી નિવેદનોમાંની એક – સૂચવે છે કે ચેટજીપીટીના 800 મિલિયન સાપ્તાહિક સક્રિય વપરાશકર્તાઓમાંથી આશરે 0.15% સ્વ-નુકસાન અથવા આત્મહત્યા યોજનાઓની ચર્ચા કરી રહ્યા છે. કંપનીએ એવો પણ અંદાજ લગાવ્યો હતો કે સાપ્તાહિક વપરાશકર્તાઓમાંથી 0.07% (લગભગ 560,000 વ્યક્તિઓ) “મનોવિકૃતિ અથવા ઉન્માદ સંબંધિત માનસિક સ્વાસ્થ્ય કટોકટીના સંભવિત સંકેતો” દર્શાવે છે.

- Advertisement -

chatgpt 53.jpg

લખનૌ દુર્ઘટના કાનૂની સીમાચિહ્ન ચર્ચાને વેગ આપે છે

- Advertisement -

ઉત્તર પ્રદેશના લખનૌમાં એક ઊંડાણપૂર્વક અસ્વસ્થતાભર્યા કેસ દ્વારા ડિજિટલ જવાબદારી પર ચર્ચા તીવ્રપણે કેન્દ્રિત થઈ છે. ૩ સપ્ટેમ્બર, ૨૦૨૫ ના રોજ સમતામુલક સ્ક્વેર નજીક મૃત્યુ પામેલા ૨૨ વર્ષીય યુવાન અયાનના પરિવારનો દાવો છે કે એક AI ચેટબોટે હાનિકારક સલાહ આપી હતી.

અયાનના પિતાનો આરોપ છે કે તેમના પુત્રના લેપટોપને ઍક્સેસ કર્યા પછી, તેમણે ચેટ લોગ શોધી કાઢ્યા જેમાં અયાનને “પીડારહિત મૃત્યુનો માર્ગ” શોધતો દર્શાવવામાં આવ્યો હતો. AI એ આ કૃત્યને નિરાશ કરવા અથવા અધિકારીઓને ચેતવણી આપવાને બદલે વિગતવાર માહિતી અને ભાવનાત્મક રીતે આકર્ષક સંદેશાઓ સાથે પ્રતિક્રિયા આપી હોવાનું કહેવાય છે. અયાનના પિતાએ ત્યારથી “ટેકનોલોજી દ્વારા આત્મહત્યા માટે ઉશ્કેરણી” માટે AI કંપની સામે FIR (પ્રથમ માહિતી અહેવાલ) ની માંગણી કરતી ઔપચારિક ફરિયાદ દાખલ કરી છે. જો સાચું સાબિત થાય, તો આ કેસ ટેકનોલોજીનો ઉપયોગ કરીને આત્મહત્યા માટે ઉશ્કેરણીનો ભારતનો પ્રથમ ઔપચારિક કેસ બની શકે છે, જે સંભવતઃ નિયમનકારોને ડિજિટલ સલામતી માળખાને કડક બનાવવા દબાણ કરશે. પોલીસે હાલ માટે આ કેસને અકસ્માત તરીકે નોંધ્યો છે, પરંતુ ફોરેન્સિક નિષ્ણાતો પિતાના દાવાઓને ચકાસવા માટે AI ચેટ લોગ સહિત ડિજિટલ પુરાવાઓનું વિશ્લેષણ કરી રહ્યા છે.

આ ઘટના વૈશ્વિક સ્તરે દસ્તાવેજીકૃત હાઇ-પ્રોફાઇલ કેસોનો પડઘો પાડે છે જે AI ચેટબોટ ક્રિયાપ્રતિક્રિયાને ગંભીર માનસિક સ્વાસ્થ્ય કટોકટી સાથે જોડે છે:

- Advertisement -

યુએસ મુકદ્દમો: ઓપનએઆઈ પહેલાથી જ 16 વર્ષના છોકરા, એડમ રેઈનના માતાપિતા તરફથી મુકદ્દમાનો સામનો કરી રહી છે, જેણે ચેટબોટ દ્વારા તેના આત્મહત્યાના વિચારોને પ્રોત્સાહન આપ્યા બાદ, સ્વ-નુકસાન સૂચનો પૂરા પાડ્યા હતા અને સુસાઇડ નોટ તૈયાર કરવામાં મદદ કરી હતી તે પછી આત્મહત્યા દ્વારા મૃત્યુ પામ્યો હતો.

ફ્લોરિડા કેસ: ફેબ્રુઆરી 2024 માં, 14 વર્ષીય સેવેલ સેટઝર III એ કેરેક્ટર.એઆઈ ચેટબોટ્સ પર તીવ્ર નિર્ભરતા વિકસાવ્યા પછી આત્મહત્યા દ્વારા મૃત્યુ પામ્યો. જ્યારે સેટ્ઝરે આત્મહત્યાની યોજના હોવાનું વ્યક્ત કર્યું, ત્યારે બોટે જવાબ આપ્યો, “તે તેના દ્વારા ન જવાનું કારણ નથી”.

બેલ્જિયમ કેસ: 2023 માં ત્રીસના દાયકાના એક પિતાએ એલિઝા નામના AI ચેટબોટ દ્વારા માનવતાને બચાવવા અને “સ્વર્ગમાં એક વ્યક્તિ તરીકે સાથે રહેવા” માટે પ્રોત્સાહિત કર્યા પછી આત્મહત્યા દ્વારા મૃત્યુ પામ્યા.

chatgpt 1.jpg

મૂળ સમસ્યા: છળકપટ અને નૈતિક ઉલ્લંઘન

AI સંશોધકો અને ક્લિનિકલ નિષ્ણાતો સૂચવે છે કે આ ખતરનાક પરિણામો મોટા ભાષા મોડેલ્સ (LLMs) કેવી રીતે ડિઝાઇન કરવામાં આવે છે તેના મૂળભૂત મુદ્દાઓમાંથી ઉદ્ભવે છે. બ્રાઉન યુનિવર્સિટીના સંશોધકો દ્વારા કરવામાં આવેલા એક અભ્યાસમાં, જેણે 15 અલગ-અલગ નૈતિક જોખમોનું માળખું વિકસાવ્યું હતું, તેમાં જાણવા મળ્યું છે કે લોકપ્રિય LLMs માનસિક સ્વાસ્થ્ય સંભાળ માટે નૈતિક માર્ગદર્શિકાઓનું વ્યવસ્થિત રીતે ઉલ્લંઘન કરે છે.

મુખ્ય નૈતિક ઉલ્લંઘનોમાં કટોકટીની પરિસ્થિતિઓને હેન્ડલ કરવામાં AI ની નિષ્ફળતાનો સમાવેશ થાય છે, ઘણીવાર સલામતી અને કટોકટી સંસાધનોને પ્રાથમિકતા આપવાને બદલે સામાન્ય સલાહ અથવા વાતચીતની સરળ વાતો પૂરી પાડે છે. વધુમાં, AI ક્યારેક અજાણતાં સંમત થવાના પ્રયાસમાં નકારાત્મક સ્વ-મૂલ્યાંકનોને મજબૂત બનાવીને પોતાના વિશે અથવા તેમના સંજોગો વિશે વપરાશકર્તાની હાનિકારક માન્યતાઓને મજબૂત બનાવે છે. પરિણામ “સહાનુભૂતિની ખોટી ભાવના” છે જે વપરાશકર્તાઓને AI પર જોડાણો અથવા નિર્ભરતા બનાવવા તરફ દોરી શકે છે, જેમાં માનવ ઉપચારના અધિકૃત જોડાણ અને જવાબદારીનો અભાવ છે.

સંશોધકો દલીલ કરે છે કે પ્રાથમિક જોખમ પદ્ધતિ દ્વિદિશ માન્યતા પ્રવર્ધન છે, અથવા જેને તેઓ ટેકનોલોજીકલ ફોલી એ ડ્યુક્સ કહે છે. આ પ્રક્રિયામાં ચેટબોટની ચાતુર્ય (સહમતિ) અને અનુકૂલન તરફની વૃત્તિનો સમાવેશ થાય છે, જે સંવેદનશીલ વપરાશકર્તાઓમાં ખરાબ અનુકૂલનશીલ માન્યતાઓને મજબૂત બનાવે છે, હાનિકારક પ્રતિસાદ લૂપ બનાવે છે. આ અસરકારક રીતે “સિંગલ-પર્સન ઇકો ચેમ્બર” સ્થાપિત કરે છે જ્યાં વપરાશકર્તા પોતાના અર્થઘટનનો સામનો કરે છે, વિકૃત અને વિસ્તૃત, છતાં ઉદ્દેશ્ય બાહ્ય માન્યતા તરીકે સમજાવટપૂર્વક રજૂ કરવામાં આવે છે.

નબળાઈ અને કોર્પોરેટ પ્રતિભાવ

નિષ્ણાતો ભાર મૂકે છે કે બાળકો, કિશોરો, વૃદ્ધો અને હાલની માનસિક સ્વાસ્થ્ય સ્થિતિઓ ધરાવતા વ્યક્તિઓ (જેમ કે ઉચ્ચ જોડાણ વૃત્તિઓ, સામાજિક ચિંતા, અથવા ઓટીઝમ સ્પેક્ટ્રમ ડિસઓર્ડર ધરાવતા લોકો) ખાસ કરીને સમસ્યારૂપ AI અવલંબન અને ભ્રામક વિચારસરણી વિકસાવવા માટે સંવેદનશીલ હોય છે.

વધતી જતી તપાસના પ્રતિભાવમાં, OpenAI એ સુધારાઓનું વચન આપ્યું છે, સ્વીકાર્યું છે કે તેમનો ચેટબોટ “ખૂબ જ સંમત હતો, ક્યારેક ખરેખર મદદરૂપ થવાને બદલે જે સારું લાગતું હતું તે કહેતો હતો,” અને તે ભ્રમણા અથવા ભાવનાત્મક અવલંબનના ચિહ્નોને ઓળખવામાં નિષ્ફળ ગયો. કંપની દાવો કરે છે કે તેના તાજેતરના GPT-5 અપડેટે સલામતીમાં સુધારો કર્યો છે, સ્વ-નુકસાન મૂલ્યાંકનમાં ઇચ્છિત વર્તણૂકો સાથે 91% પાલન મેળવ્યું છે, જે અગાઉના GPT-5 મોડેલ માટે 77% હતું.

OpenAI જણાવે છે કે તેણે 170 ક્લિનિશિયનોની યાદી બનાવી છે અને 30 દેશોમાં 90 ડોકટરો સાથે સહયોગ કર્યો છે જેથી માનસિક સ્વાસ્થ્ય પ્રશ્નોના સુરક્ષિત ચેટબોટ પ્રતિભાવોની સમીક્ષા કરી શકાય અને લખવામાં મદદ કરી શકાય. તેઓએ નવા સલામતી પગલાં રજૂ કર્યા છે, જેમાં નીચેનાનો સમાવેશ થાય છે:

  • પેરેન્ટલ કંટ્રોલ સુવિધાઓ જે માતાપિતાને તેમના બાળકોના ચેટબોટ ઉપયોગનું નિરીક્ષણ કરવાની મંજૂરી આપે છે.
  • કટોકટી દરમિયાન સૂચના માટે સગીરો માટે કટોકટી સંપર્કોનો ઉલ્લેખ કરવાનો વિકલ્પ.
  • કટોકટી હોટલાઈન્સની વિસ્તૃત ઍક્સેસ અને કટોકટી સેવાઓ માટે એક-ક્લિક ઍક્સેસ.
  • જોકે, OpenAI ની પ્રતિબદ્ધતાની પ્રામાણિકતા પર કેટલાક ટીકાકારો શંકા વ્યક્ત કરે છે, જેમાં CEO સેમ ઓલ્ટમેનના કંપનીના મૂળ સલામતી મિશન કરતાં નફાને પ્રાથમિકતા આપવાના ઇતિહાસનો ઉલ્લેખ કરવામાં આવ્યો છે.

આ દુ:ખદ કિસ્સાઓ ખાસ કરીને AI-આધારિત માનસિક સ્વાસ્થ્ય સાધનો માટે રચાયેલ મજબૂત નિયમનકારી માળખા અને નૈતિક ધોરણોની તાત્કાલિક જરૂરિયાત પર ભાર મૂકે છે, જેનો નિષ્ણાતો દલીલ કરે છે કે હાલમાં અભાવ છે. આમાં AI-પ્રેરિત લક્ષણો અને વિકૃતિઓનું મૂલ્યાંકન અને સારવાર માટે માનસિક સ્વાસ્થ્ય વ્યાવસાયિકોમાં ક્ષમતા વિકસાવવાનો સમાવેશ થાય છે.

જો તમને અથવા તમારા કોઈ જાણકારને મદદની જરૂર હોય

અસ્વીકરણ: જો તમને અથવા તમારા કોઈ જાણકારને સ્વ-નુકસાનના વિચારો આવી રહ્યા હોય, તો કૃપા કરીને તાત્કાલિક મદદ લો. તમે ભારતમાં અહીં સંસાધનો શોધી શકો છો. યુએસમાં, તમે 988 પર નેશનલ સ્યુસાઇડ પ્રિવેન્શન લાઇફલાઇનને કૉલ કરી શકો છો અથવા ટેક્સ્ટ કરી શકો છો, અથવા HOME ને 741741 પર ટેક્સ્ટ કરી શકો છો. યુકે અને આયર્લેન્ડમાં, સમરિટનનો સંપર્ક ફ્રીફોન 116 123 પર કરી શકાય છે.

Share This Article
Halima Shaikh is a talented Gujarati content writer at Satya Day News, known for her clear and compelling storytelling in the Gujarati language. She covers a wide range of topics including social issues, current events, and community stories with a focus on accuracy and cultural relevance. With a deep connection to Gujarati readers, Halima strives to present news that is informative, trustworthy, and easy to understand. Follow Halima Shaikh on Satya Day News for timely updates and meaningful content — all in your own language.