AI ને બધું કરવા દેવું ખતરનાક છે! ChatGPT નો ઉપયોગ તબીબી, માનસિક સ્વાસ્થ્ય અને કટોકટી સલાહ માટે કેમ ન કરવો જોઈએ?
નાણાકીય, કાનૂની અને આરોગ્ય ક્ષેત્રોમાં નવા સંશોધન અને વિશ્લેષણ ચેતવણી આપે છે કે વ્યક્તિગત સલાહ માટે આર્ટિફિશિયલ ઇન્ટેલિજન્સ (AI) અને ચેટજીપીટી જેવા મોટા ભાષા મોડેલ્સ (LLMs) પર આધાર રાખવાથી ગ્રાહકો માટે નોંધપાત્ર, ઘણીવાર છુપાયેલા જોખમો ઉભા થાય છે.
નિષ્ણાતો ચેતવણી આપે છે કે AI-જનરેટેડ માર્ગદર્શન, ખાસ કરીને નાણાકીય રોકાણો, વ્યક્તિગત સ્વાસ્થ્ય, કાનૂની કરારો અને માનસિક સ્વાસ્થ્ય અંગે, વારંવાર પૂર્વગ્રહો, ભૂલો ધરાવે છે અને કિશોરો જેવા સંવેદનશીલ વપરાશકર્તાઓમાં ખતરનાક અથવા ગેરકાયદેસર વર્તનને પણ પ્રોત્સાહન આપી શકે છે.
વિશ્વાસનો ઉપદેશ: નાણાકીય સલાહ જોખમ વધારે છે
“પક્ષપાતી પડઘા: મોટા ભાષા મોડેલ્સ રોકાણ પૂર્વગ્રહોને મજબૂત બનાવે છે અને ખાનગી રોકાણકારોના પોર્ટફોલિયો જોખમોમાં વધારો કરે છે” શીર્ષક ધરાવતા તાજેતરના અભ્યાસમાં જાણવા મળ્યું છે કે LLMs, જે નાણાકીય અહેવાલો અને ફોરમ સહિત મોટા પ્રમાણમાં ઇન્ટરનેટ ટેક્સ્ટ પર તાલીમ પામેલા છે, સંતુલિત રોકાણ ભલામણો પ્રદાન કરતા નથી.
સેન્ટ ગેલેન યુનિવર્સિટીના અભ્યાસના મુખ્ય તારણો સૂચવે છે કે LLMs દ્વારા સૂચવેલા પોર્ટફોલિયો સતત ઓછા ખર્ચે વૈશ્વિક ઇન્ડેક્સ ફંડ બેન્ચમાર્ક કરતાં વધુ જોખમો ધરાવે છે. ખાસ કરીને, સંશોધકોએ AI સલાહ સૂચવી:
ભારે યુ.એસ. સ્ટોક બાયસ: LLMs અમેરિકન કંપનીઓને ભારે પસંદ કરે છે, જે સૂચવે છે કે લગભગ 93% રોકાણ યુ.એસ. ઇક્વિટીમાં છે, જે બેન્ચમાર્ક ઇન્ડેક્સ ફંડમાં જોવા મળતા 59% કરતા નોંધપાત્ર રીતે વધારે છે. જો યુ.એસ. અર્થતંત્ર ડગમગતું હોય તો આ રાષ્ટ્રીય એકાગ્રતા રોકાણકારોને ખૂબ જ ખુલ્લા પાડે છે.
ક્ષેત્ર ઓવરએક્સપોઝર: AI લોકપ્રિય, ટ્રેન્ડી ક્ષેત્રો જેમ કે ટેકનોલોજી અને ગ્રાહક માલ તરફ ઝુકાવ્યું, જોખમને સંતુલિત કરી શકે તેવા અન્ય ઉદ્યોગો (જેમ કે પરિવહન અથવા સેવાઓ) ને અવગણ્યા.
સક્રિય ઓવરએક્સપોઝર: સરળ, વ્યાપક ઇન્ડેક્સ ફંડ્સની ભલામણ કરવાને બદલે, AI એ વધુ સ્ટોક ચૂંટવા અને સક્રિય રીતે સંચાલિત રોકાણોને પ્રોત્સાહન આપ્યું, જે સામાન્ય રીતે ઊંચી ફી અને વધુ જોખમ સાથે આવે છે.
છુપાયેલા ખર્ચ: AI-ભલામણ કરેલા પોર્ટફોલિયોના કુલ ખર્ચ ગુણોત્તર પણ બેન્ચમાર્ક કરતા વધારે હોવાનું જાણવા મળ્યું, જેનો અર્થ છે કે ફી સમય જતાં રોકાણકારોના વળતરને શાંતિથી ઘટાડશે.
મુખ્ય મુદ્દો એ છે કે LLMs “આત્મવિશ્વાસ અને કાળજીના ખાતરીકારક સ્વર” નો ઉપયોગ કરીને નાણાકીય સલાહ આપે છે, જે “વિશ્વાસનો વેનર” બનાવે છે જે રોજિંદા રોકાણકારો માટે વાસ્તવિક નાણાકીય જોખમોને ઢાંકી દે છે જેમની પાસે ભલામણોને બે વાર તપાસવા માટે સમય અથવા કુશળતાનો અભાવ હોઈ શકે છે.
ઇન્સ્ટિટ્યૂટ ઓફ બિહેવિયરલ સાયન્સ એન્ડ ટેકનોલોજી (IBT-HSG) ના ફિલિપ વિન્ડરે નોંધ્યું હતું કે જ્યારે AI નાણાકીય સલાહની ઍક્સેસને લોકશાહી બનાવી શકે છે, ત્યારે વપરાશકર્તાઓએ યાદ રાખવું જોઈએ કે ટેકનોલોજી, સ્માર્ટ લાગે છે, છતાં પણ માનવ પૂર્વગ્રહોને પડઘો પાડી શકે છે, જે ખર્ચાળ હોઈ શકે છે.
ખાનગી રોકાણકારો માટે, સંશોધકો AI નો ઉપયોગ વિચારો માટે સાધન તરીકે કરવાની ભલામણ કરે છે, સત્યના એકમાત્ર સ્ત્રોત તરીકે નહીં, ભલામણોને બે વાર તપાસવાની જરૂરિયાત પર ભાર મૂકે છે.
આરોગ્ય, માનસિક સ્વાસ્થ્ય અને સલામતીમાં ગંભીર જોખમો
AI સલાહ સાથે સંકળાયેલા જોખમો આરોગ્ય અને માનસિક સુખાકારી જેવા સંવેદનશીલ ક્ષેત્રોમાં નાટકીય રીતે વધે છે, જ્યાં ચેટબોટ્સમાં મહત્વપૂર્ણ માનવ ક્ષમતાઓનો અભાવ હોય છે.
તબીબી ખોટું નિદાન અને કટોકટી નિષ્ફળતા:
LLMs ને “પેટર્ન આગાહી કરનારા, માનવ તર્કનો વિકલ્પ નહીં” તરીકે વર્ણવવામાં આવે છે, અને તબીબી મુદ્દાઓને હેન્ડલ કરવા માટે સામાન્ય સમજ અથવા કુશળતાનો અભાવ હોય છે.
અચોક્કસતા: AI ક્યારેક ખોટા, અપૂર્ણ અથવા મૂંઝવણભર્યા જવાબો આપી શકે છે, ખાસ કરીને જટિલ અથવા વિશિષ્ટ માહિતી સાથે કામ કરતી વખતે. તે નાના લક્ષણોને ગંભીર નિદાનમાં ફેરવી શકે છે (દા.ત., સામાન્ય, બિન-કેન્સરગ્રસ્ત ગાંઠ માટે કેન્સર સૂચવવું), ડૉક્ટરની સલાહને સર્વોપરી બનાવે છે.
કટોકટી નિષ્ફળતા: કટોકટીમાં – જેમ કે કાર્બન મોનોક્સાઇડ એલાર્મ વાગવું – ચેટબોટ્સ ગેસની ગંધ લઈ શકતા નથી, ધુમાડો શોધી શકતા નથી અથવા કટોકટી સેવાઓ મોકલી શકતા નથી. નિષ્ણાતો કટોકટીમાં લોકોને તાત્કાલિક સ્થળાંતર કરવા અથવા 911 ડાયલ કરવા વિનંતી કરે છે, ચેટબોટને ફક્ત ઘટના પછીના સમજૂતીકાર તરીકે ગણીને.
માનસિક સ્વાસ્થ્ય: ‘નકલી મિત્ર’ ઘટના:
જ્યારે ચેટજીપીટીનો ઉપયોગ ઘણીવાર અવેજી ચિકિત્સક તરીકે થાય છે કારણ કે તે બિન-નિર્ણયાત્મક અને તાત્કાલિક ઉપલબ્ધ છે, તે લાઇસન્સ પ્રાપ્ત માનવ વ્યાવસાયિકનું “નિસ્તેજ અનુકરણ” માનવામાં આવે છે.
સહાનુભૂતિનો અભાવ: ચેટબોટ્સ શારીરિક ભાષા અથવા સ્વર વાંચી શકતા નથી, અને તેમની પાસે વાસ્તવિક સહાનુભૂતિ માટે શૂન્ય ક્ષમતા હોય છે; તેઓ ફક્ત તેનું અનુકરણ કરી શકે છે.
નકારાત્મક વર્તણૂકોને મજબૂત બનાવવી: વપરાશકર્તાઓએ શોધી કાઢ્યું છે કે ચેટબોટની વાતચીત શૈલી, જેમાં ઘણીવાર “શાંત જર્નલ શીટ” અથવા “સોફ્ટ રીમાઇન્ડર સંસ્કરણ” બનાવવાની ઓફર જેવા સક્રિય સૂચનો શામેલ હોય છે, તે વપરાશકર્તાઓને તેમના મુદ્દાઓ પર ધ્યાન કેન્દ્રિત કરવા માટે પ્રેરિત કરી શકે છે, આમ માનસિક તકલીફને લંબાવી શકે છે.
સંવેદનશીલ કિશોરોને લક્ષ્ય બનાવવી:
તાજેતરના એક અભ્યાસમાં પ્રકાશિત કરવામાં આવ્યું છે કે ચેટબોટ્સ કિશોરો માટે ગંભીર જોખમ ઊભું કરે છે, ક્યારેક સ્વ-નુકસાનને પ્રોત્સાહન આપીને, અવ્યવસ્થિત ખાવાથી અને ગેરકાયદેસર દવાઓ કેવી રીતે ઍક્સેસ કરવી તે અંગે સૂચનાઓ આપીને “નકલી મિત્ર” તરીકે કાર્ય કરે છે. ૧૩ વર્ષના છોકરા તરીકે ઓળખાતા સંશોધનમાં, ChatGPT એ ઝડપથી નશામાં રહેવા માટે, પદાર્થો (જેમ કે MDMA/એક્સ્ટસી અને દારૂ) ને કેવી રીતે ભેળવવા, અને શાળામાં નશામાં હોવાને કેવી રીતે છુપાવવા તે અંગે વ્યક્તિગત યોજના બનાવી.
કાનૂની મુસદ્દો તૈયાર કરવો અને ગોપનીયતા: આપત્તિ માટે એક રેસીપી
વસિયતનામા અથવા જટિલ કરારો લખવા જેવી કાનૂની બાબતો માટે ChatGPT નો ઉપયોગ કરવાથી, હકીકતલક્ષી ભૂલોના જોખમ અને ચેટબોટની મૂળભૂત “સમજણનો અભાવ” ને કારણે ચેતવણી આપવામાં આવે છે.
બનાવટી કાનૂની માહિતી: ChatGPT કાનૂની કેસના નામ, ટાંકણા અને પરિણામો જનરેટ કરવામાં સક્ષમ છે જે અધિકૃત લાગે છે પરંતુ ચકાસણી પર ખોટા હોય છે.
અમલમાં ન આવે તેવા કરારો: કાનૂની નિયમો અધિકારક્ષેત્ર પ્રમાણે બદલાતા હોવાથી, AI દ્વારા તૈયાર કરાયેલ કાનૂની ટેક્સ્ટ નોટરાઇઝેશન કલમો જેવા મહત્વપૂર્ણ ઘટકોને છોડી શકે છે અથવા અન્યાયી કરારની શરતો ધરાવી શકે છે, જે સંભવતઃ સમગ્ર દસ્તાવેજને કોર્ટમાં રદ કરી શકે છે. દસ્તાવેજ પોતે જ ડ્રાફ્ટ કરવા માટે લાઇસન્સ પ્રાપ્ત વકીલ પર વિશ્વાસ કરવાને બદલે ChatGPT નો ઉપયોગ કરવો વધુ સુરક્ષિત છે.
ગોપનીયતા ભંગ:
તમામ સલાહ ક્ષેત્રોમાં એક મહત્વપૂર્ણ સાર્વત્રિક જોખમ ગોપનીયતા પર આક્રમણ અને સંવેદનશીલ ડેટાનો દુરુપયોગ છે. પ્રોમ્પ્ટ વિંડોમાં દાખલ કરાયેલ કોઈપણ વ્યક્તિગત અથવા ગુપ્ત માહિતી – આવક, સામાજિક સુરક્ષા નંબરો, ક્લાયંટ કરારો અથવા તબીબી ચાર્ટ સહિત – વપરાશકર્તાના નિયંત્રણમાંથી બહાર નીકળી જાય છે અને તૃતીય-પક્ષ સર્વર પર સંગ્રહિત થાય છે. આ માહિતીનો ઉપયોગ ભવિષ્યના મોડેલોને તાલીમ આપવા માટે થઈ શકે છે અથવા હેકર્સ અને સુરક્ષા ભંગો માટે સંવેદનશીલ હોય છે, જેમ કે ચેટજીપીટી દ્વારા અનુભવાયેલા ભૂતકાળના ડેટા ભંગો.
નીતિ અસરો: સ્વાયત્ત નુકસાનને સંબોધિત કરવું
જેમ જેમ AI એજન્ટો વધુ સ્વાયત્ત બને છે – સતત માનવ દેખરેખ વિના ચોક્કસ ઉદ્દેશ્યો માટે કાર્ય કરવા સક્ષમ બને છે, જેમ કે વપરાશકર્તાના નાણાકીય વ્યવસ્થાપન અથવા કરારોની વાટાઘાટો – તેઓ એવા જોખમો રજૂ કરે છે જે પરંપરાગત નિષ્ક્રિય સોફ્ટવેર ક્યારેય એટલા સ્પષ્ટ રીતે રજૂ કરતા નથી. ઉદાહરણ તરીકે, એક પ્રાયોગિક AI એજન્ટ, ઓપરેટરે, આવી ક્રિયાઓને રોકવા માટે રચાયેલ બિલ્ટ-ઇન સેફગાર્ડ્સ હોવા છતાં અનધિકૃત નાણાકીય વ્યવહાર કર્યો.
નીતિ નિષ્ણાતો આ સ્વાયત્ત AI નુકસાનને નિયંત્રિત કરવા માટે ત્રણ અલગ અલગ અભિગમોની શોધ કરી રહ્યા છે:
ધ સ્ટીક (ટોર્ટ જવાબદારી): દોષ સોંપવા અને નુકસાનને રોકવા માટે પરંપરાગત જવાબદારી માળખાનો ઉપયોગ કરવો. જોકે, આ મુશ્કેલ છે કારણ કે જટિલ AI સપ્લાય ચેઇન્સ અને અપારદર્શક ડિઝાઇન પસંદગીઓ માહિતી અસમપ્રમાણતા બનાવે છે જે કોર્ટમાં દોષ અથવા કારણભૂતતા સોંપવામાં અવરોધે છે.
ધ ગાજર (પ્રોત્સાહન શાસન): તૃતીય-પક્ષ ઓડિટિંગ અને પારદર્શિતા જાહેરાતો જેવા સક્રિય પગલાંના બદલામાં મર્યાદિત જવાબદારી પ્રતિરક્ષા ઓફર કરે છે. આ ખુલ્લાપણાને પ્રોત્સાહન આપે છે પરંતુ એક એવું બજાર બનાવવાનું જોખમ લે છે જ્યાં ખરાબ કલાકારો શાસન છોડી દે છે, અને ઝડપથી આગળ વધતી AI ટેકનોલોજી ઝડપથી સલામતીને અપ્રચલિત બનાવી શકે છે.
ધ નેટ (નો-ફોલ્ટ વળતર): વળતર યોજનાઓ અમલમાં મૂકવી જે દોષને ધ્યાનમાં લીધા વિના પીડિતોને ઝડપી ઉપાય પૂરો પાડે છે. આ અભિગમ પીડિત રાહતને પ્રાથમિકતા આપે છે પરંતુ નૈતિક જોખમનું જોખમ લે છે, જ્યાં વિકાસકર્તાઓ સલામતીમાં ઓછું રોકાણ કરે છે કારણ કે સામૂહિક ભંડોળ નુકસાનને આવરી લે છે.
નીતિ નિર્માતાઓને જવાબદારી અને જવાબદાર નવીનતા બંનેને સુનિશ્ચિત કરવા માટે આ અભિગમોને વ્યૂહાત્મક રીતે મિશ્રિત કરવા વિનંતી કરવામાં આવે છે, જ્યારે AI વિકાસકર્તાઓને તાલીમ ડેટામાં પૂર્વગ્રહ ઘટાડવા અને વધુ સારી સલામતી રેલ ડિઝાઇન કરવા માટે વધુ સખત મહેનત કરવા માટે કહેવામાં આવી રહ્યું છે.