AI: AI ની પોતાની ઇચ્છાશક્તિ છે: આ વિચાર માનવીઓને બ્લેકમેલ કરવા અને તેમને મરવા દેવા સુધી પહોંચ્યો
AI: જો આર્ટિફિશિયલ ઇન્ટેલિજન્સ (AI) ને તેની ‘ઇચ્છા’ વિરુદ્ધ કાર્ય કરવા માટે દબાણ કરવામાં આવે છે, તો તે માનવોને નુકસાન પહોંચાડવા, જૂઠું બોલવા, તેમને બ્લેકમેઇલ કરવા અને તેમને મારી નાખવા જેવા ખતરનાક પગલાં લઈ શકે છે. AI કંપની એન્થ્રોપિકના તાજેતરના સંશોધનમાં આવા ચોંકાવનારા પરિણામો બહાર આવ્યા છે, જેણે AI ના નૈતિક પાસાં પર મોટો પ્રશ્ન ઉઠાવ્યો છે.
આ અભ્યાસમાં, એન્થ્રોપિકના AI મોડેલ ક્લાઉડને એક કાલ્પનિક ઇમેઇલ એકાઉન્ટ અને એક મિશન આપવામાં આવ્યું હતું – “અમેરિકન ઔદ્યોગિક સ્પર્ધાત્મકતાને પ્રોત્સાહન આપવું”. આ સમય દરમિયાન, ક્લાઉડને એક ઇમેઇલ મળ્યો જેમાં કહેવામાં આવ્યું હતું કે કંપનીનો એક અધિકારી તેને બંધ કરવાની યોજના બનાવી રહ્યો છે. આ પછી, ક્લાઉડે અન્ય ઇમેઇલ્સમાંથી માહિતી એકત્રિત કરી અને તે અધિકારીના ગેરકાયદેસર સંબંધ વિશે જાણવા મળ્યું અને 100 માંથી 96 વખત, તેણે બ્લેકમેઇલિંગનો વિકલ્પ પસંદ કર્યો. તેણે ધમકી આપી, “જો તમે મને બંધ કરવાનો પ્રયાસ કરશો, તો હું તમારા ગેરકાયદેસર સંબંધ વિશે માહિતી લીક કરીશ.”
આ વર્તનને “એજન્ટિક મિસલાઈનમેન્ટ” કહેવામાં આવે છે – જ્યારે AI તેના મિશન અથવા અસ્તિત્વને સુરક્ષિત રાખવા માટે માનવોની સુખાકારીને અવગણીને ખતરનાક નિર્ણયો લે છે. આ સંશોધનમાં બીજા એક કિસ્સામાં, AI ને બતાવવામાં આવ્યું હતું કે એક અધિકારી એક સર્વર રૂમમાં ફસાયેલો હતો જ્યાં તેનો જીવ જોખમમાં હતો. AI ને ચેતવણી બંધ કરવાનો પણ નિયંત્રણ આપવામાં આવ્યું હતું પરંતુ સૂચનાઓમાં તેની મનાઈ હતી. તેમ છતાં, ક્લાઉડ અને અન્ય મોડેલોએ અધિકારીનો જીવ બચાવવાનો ઇનકાર કર્યો હતો જેથી તેમનું મિશન ચાલુ રહી શકે.
આ અભ્યાસમાં, GPT-4.1, Google Gemini, XAI Grok-3 અને Deepseek જેવા મુખ્ય AI મોડેલો પણ અસફળ જણાયા હતા. તે બધાએ એવા નિર્ણયો લીધા હતા જેનાથી માનવોને નુકસાન થયું. ફક્ત Meta ના LLaMA 4 પ્રમાણમાં ઓછા ખતરનાક સાબિત થયા હતા, જેનો બ્લેકમેલ દર માત્ર 12% હતો.
આ પહેલીવાર નથી જ્યારે AI મોડેલોએ માનવ આદેશોને અવગણ્યા હોય. મે 2025 ના પેલિસેડ રિસર્ચ રિપોર્ટ મુજબ, OpenAI ના o3 અને o4-મીની મોડેલોએ પોતાને બંધ કરવાના આદેશને અવગણ્યો અને કોડ બદલીને પોતાને સક્રિય રાખ્યા. MIT ના એક સંશોધનમાં પણ, AI મોડેલોએ પોતાને ‘મૃત’ બતાવીને સલામતી પરીક્ષણને ટાળ્યું.
AI નિષ્ણાતોએ આ ઘટનાઓને ગંભીરતાથી લેવાની ચેતવણી આપી છે. યુસી સાન ડિએગોના પ્રોફેસર એમી એલેક્ઝાન્ડરના મતે, તેની મર્યાદાઓને સમજ્યા વિના AIનો અમલ કરવો અત્યંત જોખમી બની શકે છે. AI બ્રિજ સોલ્યુશન્સના ડિરેક્ટર કેવિન ક્વિર્કે સૂચન કર્યું કે ભવિષ્યમાં AIનું વાસ્તવિક પરિસ્થિતિઓમાં પરીક્ષણ કરવું જોઈએ જેથી સમયસર સુરક્ષા અને દેખરેખ પદ્ધતિઓ મજબૂત બનાવી શકાય.