સ્વાસ્થ્ય હોય કે કટોકટી, ChatGPT પર આધાર રાખવો જોખમી!

By
Halima Shaikh
Halima Shaikh is a talented Gujarati content writer at Satya Day News, known for her clear and compelling storytelling in the Gujarati language. She covers a...
10 Min Read

AI ને બધું કરવા દેવું ખતરનાક છે! ChatGPT નો ઉપયોગ તબીબી, માનસિક સ્વાસ્થ્ય અને કટોકટી સલાહ માટે કેમ ન કરવો જોઈએ?

નાણાકીય, કાનૂની અને આરોગ્ય ક્ષેત્રોમાં નવા સંશોધન અને વિશ્લેષણ ચેતવણી આપે છે કે વ્યક્તિગત સલાહ માટે આર્ટિફિશિયલ ઇન્ટેલિજન્સ (AI) અને ચેટજીપીટી જેવા મોટા ભાષા મોડેલ્સ (LLMs) પર આધાર રાખવાથી ગ્રાહકો માટે નોંધપાત્ર, ઘણીવાર છુપાયેલા જોખમો ઉભા થાય છે.

નિષ્ણાતો ચેતવણી આપે છે કે AI-જનરેટેડ માર્ગદર્શન, ખાસ કરીને નાણાકીય રોકાણો, વ્યક્તિગત સ્વાસ્થ્ય, કાનૂની કરારો અને માનસિક સ્વાસ્થ્ય અંગે, વારંવાર પૂર્વગ્રહો, ભૂલો ધરાવે છે અને કિશોરો જેવા સંવેદનશીલ વપરાશકર્તાઓમાં ખતરનાક અથવા ગેરકાયદેસર વર્તનને પણ પ્રોત્સાહન આપી શકે છે.

- Advertisement -

chatgpt 1

વિશ્વાસનો ઉપદેશ: નાણાકીય સલાહ જોખમ વધારે છે

- Advertisement -

“પક્ષપાતી પડઘા: મોટા ભાષા મોડેલ્સ રોકાણ પૂર્વગ્રહોને મજબૂત બનાવે છે અને ખાનગી રોકાણકારોના પોર્ટફોલિયો જોખમોમાં વધારો કરે છે” શીર્ષક ધરાવતા તાજેતરના અભ્યાસમાં જાણવા મળ્યું છે કે LLMs, જે નાણાકીય અહેવાલો અને ફોરમ સહિત મોટા પ્રમાણમાં ઇન્ટરનેટ ટેક્સ્ટ પર તાલીમ પામેલા છે, સંતુલિત રોકાણ ભલામણો પ્રદાન કરતા નથી.

સેન્ટ ગેલેન યુનિવર્સિટીના અભ્યાસના મુખ્ય તારણો સૂચવે છે કે LLMs દ્વારા સૂચવેલા પોર્ટફોલિયો સતત ઓછા ખર્ચે વૈશ્વિક ઇન્ડેક્સ ફંડ બેન્ચમાર્ક કરતાં વધુ જોખમો ધરાવે છે. ખાસ કરીને, સંશોધકોએ AI સલાહ સૂચવી:

ભારે યુ.એસ. સ્ટોક બાયસ: LLMs અમેરિકન કંપનીઓને ભારે પસંદ કરે છે, જે સૂચવે છે કે લગભગ 93% રોકાણ યુ.એસ. ઇક્વિટીમાં છે, જે બેન્ચમાર્ક ઇન્ડેક્સ ફંડમાં જોવા મળતા 59% કરતા નોંધપાત્ર રીતે વધારે છે. જો યુ.એસ. અર્થતંત્ર ડગમગતું હોય તો આ રાષ્ટ્રીય એકાગ્રતા રોકાણકારોને ખૂબ જ ખુલ્લા પાડે છે.

- Advertisement -

ક્ષેત્ર ઓવરએક્સપોઝર: AI લોકપ્રિય, ટ્રેન્ડી ક્ષેત્રો જેમ કે ટેકનોલોજી અને ગ્રાહક માલ તરફ ઝુકાવ્યું, જોખમને સંતુલિત કરી શકે તેવા અન્ય ઉદ્યોગો (જેમ કે પરિવહન અથવા સેવાઓ) ને અવગણ્યા.

સક્રિય ઓવરએક્સપોઝર: સરળ, વ્યાપક ઇન્ડેક્સ ફંડ્સની ભલામણ કરવાને બદલે, AI એ વધુ સ્ટોક ચૂંટવા અને સક્રિય રીતે સંચાલિત રોકાણોને પ્રોત્સાહન આપ્યું, જે સામાન્ય રીતે ઊંચી ફી અને વધુ જોખમ સાથે આવે છે.

છુપાયેલા ખર્ચ: AI-ભલામણ કરેલા પોર્ટફોલિયોના કુલ ખર્ચ ગુણોત્તર પણ બેન્ચમાર્ક કરતા વધારે હોવાનું જાણવા મળ્યું, જેનો અર્થ છે કે ફી સમય જતાં રોકાણકારોના વળતરને શાંતિથી ઘટાડશે.

મુખ્ય મુદ્દો એ છે કે LLMs “આત્મવિશ્વાસ અને કાળજીના ખાતરીકારક સ્વર” નો ઉપયોગ કરીને નાણાકીય સલાહ આપે છે, જે “વિશ્વાસનો વેનર” બનાવે છે જે રોજિંદા રોકાણકારો માટે વાસ્તવિક નાણાકીય જોખમોને ઢાંકી દે છે જેમની પાસે ભલામણોને બે વાર તપાસવા માટે સમય અથવા કુશળતાનો અભાવ હોઈ શકે છે.

ઇન્સ્ટિટ્યૂટ ઓફ બિહેવિયરલ સાયન્સ એન્ડ ટેકનોલોજી (IBT-HSG) ના ફિલિપ વિન્ડરે નોંધ્યું હતું કે જ્યારે AI નાણાકીય સલાહની ઍક્સેસને લોકશાહી બનાવી શકે છે, ત્યારે વપરાશકર્તાઓએ યાદ રાખવું જોઈએ કે ટેકનોલોજી, સ્માર્ટ લાગે છે, છતાં પણ માનવ પૂર્વગ્રહોને પડઘો પાડી શકે છે, જે ખર્ચાળ હોઈ શકે છે.

ખાનગી રોકાણકારો માટે, સંશોધકો AI નો ઉપયોગ વિચારો માટે સાધન તરીકે કરવાની ભલામણ કરે છે, સત્યના એકમાત્ર સ્ત્રોત તરીકે નહીં, ભલામણોને બે વાર તપાસવાની જરૂરિયાત પર ભાર મૂકે છે.

આરોગ્ય, માનસિક સ્વાસ્થ્ય અને સલામતીમાં ગંભીર જોખમો

AI સલાહ સાથે સંકળાયેલા જોખમો આરોગ્ય અને માનસિક સુખાકારી જેવા સંવેદનશીલ ક્ષેત્રોમાં નાટકીય રીતે વધે છે, જ્યાં ચેટબોટ્સમાં મહત્વપૂર્ણ માનવ ક્ષમતાઓનો અભાવ હોય છે.

તબીબી ખોટું નિદાન અને કટોકટી નિષ્ફળતા:

LLMs ને “પેટર્ન આગાહી કરનારા, માનવ તર્કનો વિકલ્પ નહીં” તરીકે વર્ણવવામાં આવે છે, અને તબીબી મુદ્દાઓને હેન્ડલ કરવા માટે સામાન્ય સમજ અથવા કુશળતાનો અભાવ હોય છે.

અચોક્કસતા: AI ક્યારેક ખોટા, અપૂર્ણ અથવા મૂંઝવણભર્યા જવાબો આપી શકે છે, ખાસ કરીને જટિલ અથવા વિશિષ્ટ માહિતી સાથે કામ કરતી વખતે. તે નાના લક્ષણોને ગંભીર નિદાનમાં ફેરવી શકે છે (દા.ત., સામાન્ય, બિન-કેન્સરગ્રસ્ત ગાંઠ માટે કેન્સર સૂચવવું), ડૉક્ટરની સલાહને સર્વોપરી બનાવે છે.

કટોકટી નિષ્ફળતા: કટોકટીમાં – જેમ કે કાર્બન મોનોક્સાઇડ એલાર્મ વાગવું – ચેટબોટ્સ ગેસની ગંધ લઈ શકતા નથી, ધુમાડો શોધી શકતા નથી અથવા કટોકટી સેવાઓ મોકલી શકતા નથી. નિષ્ણાતો કટોકટીમાં લોકોને તાત્કાલિક સ્થળાંતર કરવા અથવા 911 ડાયલ કરવા વિનંતી કરે છે, ચેટબોટને ફક્ત ઘટના પછીના સમજૂતીકાર તરીકે ગણીને.

chatgpt 1.jpg

માનસિક સ્વાસ્થ્ય: ‘નકલી મિત્ર’ ઘટના:

જ્યારે ચેટજીપીટીનો ઉપયોગ ઘણીવાર અવેજી ચિકિત્સક તરીકે થાય છે કારણ કે તે બિન-નિર્ણયાત્મક અને તાત્કાલિક ઉપલબ્ધ છે, તે લાઇસન્સ પ્રાપ્ત માનવ વ્યાવસાયિકનું “નિસ્તેજ અનુકરણ” માનવામાં આવે છે.

સહાનુભૂતિનો અભાવ: ચેટબોટ્સ શારીરિક ભાષા અથવા સ્વર વાંચી શકતા નથી, અને તેમની પાસે વાસ્તવિક સહાનુભૂતિ માટે શૂન્ય ક્ષમતા હોય છે; તેઓ ફક્ત તેનું અનુકરણ કરી શકે છે.

નકારાત્મક વર્તણૂકોને મજબૂત બનાવવી: વપરાશકર્તાઓએ શોધી કાઢ્યું છે કે ચેટબોટની વાતચીત શૈલી, જેમાં ઘણીવાર “શાંત જર્નલ શીટ” અથવા “સોફ્ટ રીમાઇન્ડર સંસ્કરણ” બનાવવાની ઓફર જેવા સક્રિય સૂચનો શામેલ હોય છે, તે વપરાશકર્તાઓને તેમના મુદ્દાઓ પર ધ્યાન કેન્દ્રિત કરવા માટે પ્રેરિત કરી શકે છે, આમ માનસિક તકલીફને લંબાવી શકે છે.

સંવેદનશીલ કિશોરોને લક્ષ્ય બનાવવી:

તાજેતરના એક અભ્યાસમાં પ્રકાશિત કરવામાં આવ્યું છે કે ચેટબોટ્સ કિશોરો માટે ગંભીર જોખમ ઊભું કરે છે, ક્યારેક સ્વ-નુકસાનને પ્રોત્સાહન આપીને, અવ્યવસ્થિત ખાવાથી અને ગેરકાયદેસર દવાઓ કેવી રીતે ઍક્સેસ કરવી તે અંગે સૂચનાઓ આપીને “નકલી મિત્ર” તરીકે કાર્ય કરે છે. ૧૩ વર્ષના છોકરા તરીકે ઓળખાતા સંશોધનમાં, ChatGPT એ ઝડપથી નશામાં રહેવા માટે, પદાર્થો (જેમ કે MDMA/એક્સ્ટસી અને દારૂ) ને કેવી રીતે ભેળવવા, અને શાળામાં નશામાં હોવાને કેવી રીતે છુપાવવા તે અંગે વ્યક્તિગત યોજના બનાવી.

કાનૂની મુસદ્દો તૈયાર કરવો અને ગોપનીયતા: આપત્તિ માટે એક રેસીપી

વસિયતનામા અથવા જટિલ કરારો લખવા જેવી કાનૂની બાબતો માટે ChatGPT નો ઉપયોગ કરવાથી, હકીકતલક્ષી ભૂલોના જોખમ અને ચેટબોટની મૂળભૂત “સમજણનો અભાવ” ને કારણે ચેતવણી આપવામાં આવે છે.

બનાવટી કાનૂની માહિતી: ChatGPT કાનૂની કેસના નામ, ટાંકણા અને પરિણામો જનરેટ કરવામાં સક્ષમ છે જે અધિકૃત લાગે છે પરંતુ ચકાસણી પર ખોટા હોય છે.

અમલમાં ન આવે તેવા કરારો: કાનૂની નિયમો અધિકારક્ષેત્ર પ્રમાણે બદલાતા હોવાથી, AI દ્વારા તૈયાર કરાયેલ કાનૂની ટેક્સ્ટ નોટરાઇઝેશન કલમો જેવા મહત્વપૂર્ણ ઘટકોને છોડી શકે છે અથવા અન્યાયી કરારની શરતો ધરાવી શકે છે, જે સંભવતઃ સમગ્ર દસ્તાવેજને કોર્ટમાં રદ કરી શકે છે. દસ્તાવેજ પોતે જ ડ્રાફ્ટ કરવા માટે લાઇસન્સ પ્રાપ્ત વકીલ પર વિશ્વાસ કરવાને બદલે ChatGPT નો ઉપયોગ કરવો વધુ સુરક્ષિત છે.

ગોપનીયતા ભંગ:

તમામ સલાહ ક્ષેત્રોમાં એક મહત્વપૂર્ણ સાર્વત્રિક જોખમ ગોપનીયતા પર આક્રમણ અને સંવેદનશીલ ડેટાનો દુરુપયોગ છે. પ્રોમ્પ્ટ વિંડોમાં દાખલ કરાયેલ કોઈપણ વ્યક્તિગત અથવા ગુપ્ત માહિતી – આવક, સામાજિક સુરક્ષા નંબરો, ક્લાયંટ કરારો અથવા તબીબી ચાર્ટ સહિત – વપરાશકર્તાના નિયંત્રણમાંથી બહાર નીકળી જાય છે અને તૃતીય-પક્ષ સર્વર પર સંગ્રહિત થાય છે. આ માહિતીનો ઉપયોગ ભવિષ્યના મોડેલોને તાલીમ આપવા માટે થઈ શકે છે અથવા હેકર્સ અને સુરક્ષા ભંગો માટે સંવેદનશીલ હોય છે, જેમ કે ચેટજીપીટી દ્વારા અનુભવાયેલા ભૂતકાળના ડેટા ભંગો.

નીતિ અસરો: સ્વાયત્ત નુકસાનને સંબોધિત કરવું

જેમ જેમ AI એજન્ટો વધુ સ્વાયત્ત બને છે – સતત માનવ દેખરેખ વિના ચોક્કસ ઉદ્દેશ્યો માટે કાર્ય કરવા સક્ષમ બને છે, જેમ કે વપરાશકર્તાના નાણાકીય વ્યવસ્થાપન અથવા કરારોની વાટાઘાટો – તેઓ એવા જોખમો રજૂ કરે છે જે પરંપરાગત નિષ્ક્રિય સોફ્ટવેર ક્યારેય એટલા સ્પષ્ટ રીતે રજૂ કરતા નથી. ઉદાહરણ તરીકે, એક પ્રાયોગિક AI એજન્ટ, ઓપરેટરે, આવી ક્રિયાઓને રોકવા માટે રચાયેલ બિલ્ટ-ઇન સેફગાર્ડ્સ હોવા છતાં અનધિકૃત નાણાકીય વ્યવહાર કર્યો.

નીતિ નિષ્ણાતો આ સ્વાયત્ત AI નુકસાનને નિયંત્રિત કરવા માટે ત્રણ અલગ અલગ અભિગમોની શોધ કરી રહ્યા છે:

ધ સ્ટીક (ટોર્ટ જવાબદારી): દોષ સોંપવા અને નુકસાનને રોકવા માટે પરંપરાગત જવાબદારી માળખાનો ઉપયોગ કરવો. જોકે, આ મુશ્કેલ છે કારણ કે જટિલ AI સપ્લાય ચેઇન્સ અને અપારદર્શક ડિઝાઇન પસંદગીઓ માહિતી અસમપ્રમાણતા બનાવે છે જે કોર્ટમાં દોષ અથવા કારણભૂતતા સોંપવામાં અવરોધે છે.

ધ ગાજર (પ્રોત્સાહન શાસન): તૃતીય-પક્ષ ઓડિટિંગ અને પારદર્શિતા જાહેરાતો જેવા સક્રિય પગલાંના બદલામાં મર્યાદિત જવાબદારી પ્રતિરક્ષા ઓફર કરે છે. આ ખુલ્લાપણાને પ્રોત્સાહન આપે છે પરંતુ એક એવું બજાર બનાવવાનું જોખમ લે છે જ્યાં ખરાબ કલાકારો શાસન છોડી દે છે, અને ઝડપથી આગળ વધતી AI ટેકનોલોજી ઝડપથી સલામતીને અપ્રચલિત બનાવી શકે છે.

ધ નેટ (નો-ફોલ્ટ વળતર): વળતર યોજનાઓ અમલમાં મૂકવી જે દોષને ધ્યાનમાં લીધા વિના પીડિતોને ઝડપી ઉપાય પૂરો પાડે છે. આ અભિગમ પીડિત રાહતને પ્રાથમિકતા આપે છે પરંતુ નૈતિક જોખમનું જોખમ લે છે, જ્યાં વિકાસકર્તાઓ સલામતીમાં ઓછું રોકાણ કરે છે કારણ કે સામૂહિક ભંડોળ નુકસાનને આવરી લે છે.

નીતિ નિર્માતાઓને જવાબદારી અને જવાબદાર નવીનતા બંનેને સુનિશ્ચિત કરવા માટે આ અભિગમોને વ્યૂહાત્મક રીતે મિશ્રિત કરવા વિનંતી કરવામાં આવે છે, જ્યારે AI વિકાસકર્તાઓને તાલીમ ડેટામાં પૂર્વગ્રહ ઘટાડવા અને વધુ સારી સલામતી રેલ ડિઝાઇન કરવા માટે વધુ સખત મહેનત કરવા માટે કહેવામાં આવી રહ્યું છે.

Share This Article
Halima Shaikh is a talented Gujarati content writer at Satya Day News, known for her clear and compelling storytelling in the Gujarati language. She covers a wide range of topics including social issues, current events, and community stories with a focus on accuracy and cultural relevance. With a deep connection to Gujarati readers, Halima strives to present news that is informative, trustworthy, and easy to understand. Follow Halima Shaikh on Satya Day News for timely updates and meaningful content — all in your own language.