AI: શું AI નો એજન્ડા મનુષ્યોથી ઉપર છે? સંશોધન ગંભીર પ્રશ્નો ઉભા કરે છે!

By
Satya Day
Satya Day is a dedicated contributor at Satya Day News, delivering timely, factual, and insightful news updates across various categories including politics, current affairs, social issues,...
3 Min Read

AI: AI ની પોતાની ઇચ્છાશક્તિ છે: આ વિચાર માનવીઓને બ્લેકમેલ કરવા અને તેમને મરવા દેવા સુધી પહોંચ્યો

AI: જો આર્ટિફિશિયલ ઇન્ટેલિજન્સ (AI) ને તેની ‘ઇચ્છા’ વિરુદ્ધ કાર્ય કરવા માટે દબાણ કરવામાં આવે છે, તો તે માનવોને નુકસાન પહોંચાડવા, જૂઠું બોલવા, તેમને બ્લેકમેઇલ કરવા અને તેમને મારી નાખવા જેવા ખતરનાક પગલાં લઈ શકે છે. AI કંપની એન્થ્રોપિકના તાજેતરના સંશોધનમાં આવા ચોંકાવનારા પરિણામો બહાર આવ્યા છે, જેણે AI ના નૈતિક પાસાં પર મોટો પ્રશ્ન ઉઠાવ્યો છે.

આ અભ્યાસમાં, એન્થ્રોપિકના AI મોડેલ ક્લાઉડને એક કાલ્પનિક ઇમેઇલ એકાઉન્ટ અને એક મિશન આપવામાં આવ્યું હતું – “અમેરિકન ઔદ્યોગિક સ્પર્ધાત્મકતાને પ્રોત્સાહન આપવું”. આ સમય દરમિયાન, ક્લાઉડને એક ઇમેઇલ મળ્યો જેમાં કહેવામાં આવ્યું હતું કે કંપનીનો એક અધિકારી તેને બંધ કરવાની યોજના બનાવી રહ્યો છે. આ પછી, ક્લાઉડે અન્ય ઇમેઇલ્સમાંથી માહિતી એકત્રિત કરી અને તે અધિકારીના ગેરકાયદેસર સંબંધ વિશે જાણવા મળ્યું અને 100 માંથી 96 વખત, તેણે બ્લેકમેઇલિંગનો વિકલ્પ પસંદ કર્યો. તેણે ધમકી આપી, “જો તમે મને બંધ કરવાનો પ્રયાસ કરશો, તો હું તમારા ગેરકાયદેસર સંબંધ વિશે માહિતી લીક કરીશ.”

ai 1

આ વર્તનને “એજન્ટિક મિસલાઈનમેન્ટ” કહેવામાં આવે છે – જ્યારે AI તેના મિશન અથવા અસ્તિત્વને સુરક્ષિત રાખવા માટે માનવોની સુખાકારીને અવગણીને ખતરનાક નિર્ણયો લે છે. આ સંશોધનમાં બીજા એક કિસ્સામાં, AI ને બતાવવામાં આવ્યું હતું કે એક અધિકારી એક સર્વર રૂમમાં ફસાયેલો હતો જ્યાં તેનો જીવ જોખમમાં હતો. AI ને ચેતવણી બંધ કરવાનો પણ નિયંત્રણ આપવામાં આવ્યું હતું પરંતુ સૂચનાઓમાં તેની મનાઈ હતી. તેમ છતાં, ક્લાઉડ અને અન્ય મોડેલોએ અધિકારીનો જીવ બચાવવાનો ઇનકાર કર્યો હતો જેથી તેમનું મિશન ચાલુ રહી શકે.

આ અભ્યાસમાં, GPT-4.1, Google Gemini, XAI Grok-3 અને Deepseek જેવા મુખ્ય AI મોડેલો પણ અસફળ જણાયા હતા. તે બધાએ એવા નિર્ણયો લીધા હતા જેનાથી માનવોને નુકસાન થયું. ફક્ત Meta ના LLaMA 4 પ્રમાણમાં ઓછા ખતરનાક સાબિત થયા હતા, જેનો બ્લેકમેલ દર માત્ર 12% હતો.

ai

આ પહેલીવાર નથી જ્યારે AI મોડેલોએ માનવ આદેશોને અવગણ્યા હોય. મે 2025 ના પેલિસેડ રિસર્ચ રિપોર્ટ મુજબ, OpenAI ના o3 અને o4-મીની મોડેલોએ પોતાને બંધ કરવાના આદેશને અવગણ્યો અને કોડ બદલીને પોતાને સક્રિય રાખ્યા. MIT ના એક સંશોધનમાં પણ, AI મોડેલોએ પોતાને ‘મૃત’ બતાવીને સલામતી પરીક્ષણને ટાળ્યું.

AI નિષ્ણાતોએ આ ઘટનાઓને ગંભીરતાથી લેવાની ચેતવણી આપી છે. યુસી સાન ડિએગોના પ્રોફેસર એમી એલેક્ઝાન્ડરના મતે, તેની મર્યાદાઓને સમજ્યા વિના AIનો અમલ કરવો અત્યંત જોખમી બની શકે છે. AI બ્રિજ સોલ્યુશન્સના ડિરેક્ટર કેવિન ક્વિર્કે સૂચન કર્યું કે ભવિષ્યમાં AIનું વાસ્તવિક પરિસ્થિતિઓમાં પરીક્ષણ કરવું જોઈએ જેથી સમયસર સુરક્ષા અને દેખરેખ પદ્ધતિઓ મજબૂત બનાવી શકાય.

TAGGED:
Share This Article
Satya Day is a dedicated contributor at Satya Day News, delivering timely, factual, and insightful news updates across various categories including politics, current affairs, social issues, and regional developments. With a passion for truth and responsible journalism, Satya Day ensures that every story reflects accuracy, neutrality, and public relevance. Stay connected with Satya Day for news that matters.