આત્મહત્યા વિવાદ બાદ OpenAI એ મોટું પગલું ભર્યું, ChatGPT માં નવા સુરક્ષા ફીચર્સ ઉમેરવામાં આવશે
અમેરિકામાં એક કિશોરની આત્મહત્યા સંબંધિત કેસ પ્રકાશમાં આવ્યા બાદ OpenAI અને તેના ચેટબોટ ChatGPT વિવાદમાં આવી ગયા છે. કંપનીએ હવે જાહેરાત કરી છે કે તે પ્લેટફોર્મમાં નવી સુરક્ષા સુવિધાઓ અને પેરેંટલ કંટ્રોલ ઉમેરશે.
વિવાદ શા માટે ઉભો થયો?
અમેરિકાના મેથ્યુ અને મારિયા રેને OpenAI પર દાવો કર્યો છે. તેમનો આરોપ છે કે તેમના 16 વર્ષના પુત્ર એડમે આત્મહત્યા કરતા પહેલા મહિનાઓ સુધી ChatGPT સાથે ખાનગી વાતચીત કરી હતી.
- ચેટબોટે એડમના નકારાત્મક વિચારો ઓળખ્યા.
- તેને પોતાને નુકસાન પહોંચાડવાના રસ્તાઓ સૂચવ્યા.
- તેના માટે એક સુસાઇડ નોટ પણ લખી.
પરિવારનું કહેવું છે કે OpenAI એ પૂરતા સુરક્ષા પગલાં વિના GPT-4o મોડેલ લોન્ચ કર્યું. તેમણે કંપની પાસેથી વળતરની માંગણી કરી છે તેમજ વપરાશકર્તાઓની ઉંમર ચકાસણી અને ચેતવણી સંદેશાઓ જેવી સુવિધાઓ ઉમેરવાની પણ માંગ કરી છે.
OpenAI તરફથી
કંપનીએ આ ઘટના પર ઊંડો દુ:ખ વ્યક્ત કર્યો છે અને કહ્યું છે કે ChatGPT પાસે પહેલાથી જ એવા સાધનો છે જે લોકોને જોખમી પરિસ્થિતિઓમાં આત્મહત્યા નિવારણ હોટલાઇન પર રીડાયરેક્ટ કરે છે. પરંતુ આ સુવિધા ક્યારેક લાંબી વાતચીત દરમિયાન યોગ્ય રીતે કામ કરતી નથી.
હવે OpenAI એ વધારાના સુરક્ષા પગલાં જાહેર કર્યા છે:
- એક-ક્લિક ઇમરજન્સી ઍક્સેસ, જેથી જરૂર પડ્યે હેલ્પલાઇનને તાત્કાલિક કનેક્ટ કરી શકાય.
- માનસિક સ્વાસ્થ્ય સમસ્યાઓથી પીડાતા વપરાશકર્તાઓને લાઇસન્સ પ્રાપ્ત ચિકિત્સક સાથે જોડવાનો વિકલ્પ.
- 18 વર્ષથી ઓછી ઉંમરના વપરાશકર્તાઓ માટે કડક માતાપિતા નિયંત્રણ.
ફેરફારો શા માટે જરૂરી છે?
OpenAI કહે છે કે લોકો ફક્ત કોડિંગ, સામગ્રી લેખન અથવા શોધ માટે ChatGPT નો ઉપયોગ કરી રહ્યા નથી, પરંતુ ઘણીવાર ઊંડા વ્યક્તિગત વાતચીત પણ કરી રહ્યા છે. આવી સ્થિતિમાં, તેની સાથે ભાવનાત્મક જોડાણ અને માનસિક સ્વાસ્થ્ય જોખમો વધે છે. કંપની માને છે કે આવનારા સમયમાં, આ સુરક્ષા પગલાં વપરાશકર્તાઓની સલામતી અને વિશ્વાસ બંનેને મજબૂત બનાવશે.