ડિજિટલ દુનિયામાં નવું જોખમ: AI દ્વારા સપ્લાય-ચેઇન હુમલા, વપરાશકર્તાઓના પાસવર્ડ અને ક્રિપ્ટો વોલેટ્સને જોખમમાં મૂકે છે
જેમ જેમ કૃત્રિમ બુદ્ધિ ઝડપથી વૈશ્વિક ઉદ્યોગોમાં એકીકૃત થઈ રહી છે, તેમ તેમ પરિવર્તનશીલ સંભાવનાને ગહન નૈતિક, આર્થિક અને સુરક્ષા જોખમો સાથે સંતુલિત કરવા માટે શાસન સ્થાપિત કરવાનો વિશ્વવ્યાપી પ્રયાસ ચાલી રહ્યો છે. બ્રસેલ્સથી નવી દિલ્હી સુધી, નીતિ નિર્માતાઓ એવા માળખા બનાવવા માટે ઝઝૂમી રહ્યા છે જે નવીનતાને પ્રોત્સાહન આપે છે અને સાથે સાથે ટેકનોલોજીના કાળા પાસાં, જેમાં અલ્ગોરિધમિક પૂર્વગ્રહ, સામૂહિક દેખરેખ અને સ્વાયત્ત શસ્ત્રોનો ઉદયનો સમાવેશ થાય છે, સામે રક્ષણ આપે છે.
AI શાસન માટે એક ખંડિત વૈશ્વિક અભિગમ
AI નિયમન માટે કોઈ એકીકૃત વૈશ્વિક અભિગમ વિના, મુખ્ય અધિકારક્ષેત્રોમાં વ્યૂહરચનાઓનો વૈવિધ્યસભર લેન્ડસ્કેપ ઉભરી રહ્યો છે. યુરોપિયન યુનિયને તેના સીમાચિહ્નરૂપ EU AI કાયદા, AI માટે વિશ્વનો પ્રથમ વ્યાપક નિયમનકારી માળખું સાથે પોતાને એક નેતા તરીકે સ્થાન આપ્યું છે. આ કાયદો એક સ્તરીય, જોખમ-આધારિત અભિગમ અપનાવે છે, જે AI સિસ્ટમોને અસ્વીકાર્ય, ઉચ્ચ, મર્યાદિત અથવા ન્યૂનતમ જોખમ તરીકે વર્ગીકૃત કરે છે. જ્યારે ઘણા EU ના કાયદાને સંભવિત વૈશ્વિક બ્લુપ્રિન્ટ તરીકે જુએ છે, ત્યારે વિવેચકો ચેતવણી આપે છે કે તેના કડક નિયમો નવીનતાને દબાવી શકે છે અને તેમના ઉત્પાદનોને વર્ગીકૃત કરવાનો પ્રયાસ કરી રહેલા વિકાસકર્તાઓ માટે અસ્પષ્ટતા ઊભી કરી શકે છે.
તેનાથી વિપરીત, યુનાઇટેડ સ્ટેટ્સે તેના “એઆઈ બિલ ઓફ રાઇટ્સ માટે બ્લુપ્રિન્ટ” માં દર્શાવેલ વધુ ખંડિત, સિદ્ધાંતો-આધારિત વ્યૂહરચના અપનાવી છે. આ અભિગમ કડક કાયદાઓ લાદવાને બદલે ડેટા ગોપનીયતા અને અલ્ગોરિધમિક પૂર્વગ્રહથી રક્ષણ જેવા સિદ્ધાંતો સાથે વિકાસકર્તાઓને માર્ગદર્શન આપવા પર ધ્યાન કેન્દ્રિત કરે છે. જો કે, 2022 ના અલ્ગોરિધમિક એકાઉન્ટેબિલિટી એક્ટ સહિત ઘણા ચોક્કસ કાયદાઓ પ્રગતિમાં છે, જેમાં મોટી ટેક કંપનીઓને તેમની સ્વચાલિત સિસ્ટમોનું પૂર્વગ્રહ મૂલ્યાંકન કરવાની જરૂર પડશે.
દરમિયાન, ચીન રાજ્ય-સંચાલિત, બહુ-સ્તરીય નીતિ અપનાવી રહ્યું છે જે રાષ્ટ્રીય સુરક્ષા સાથે તકનીકી પ્રગતિને સંતુલિત કરે છે. EU AI કાયદાથી પ્રેરિત થઈને, ચીન ચાર-સ્તરીય અભિગમ અપનાવી રહ્યું છે જે રાજકીય વિચારધારા, શૈક્ષણિક ચર્ચા અને સરકારી અમલદારશાહી દ્વારા AI વિકાસને ફિલ્ટર કરે છે. સિંગાપોરે “માનવ-કેન્દ્રિત” મોડેલ પસંદ કર્યું છે, AI-વિશિષ્ટ કાયદાઓ રજૂ કર્યા વિના પારદર્શિતા અને ન્યાયીપણાના સિદ્ધાંતોને પ્રાથમિકતા આપીને, GDPR જેવા માળખા પર ધ્યાન કેન્દ્રિત કર્યું છે.
ભારતનો નિયમનનો માર્ગ
આ વૈશ્વિક પ્રવૃત્તિ વચ્ચે, ભારત કાળજીપૂર્વક પોતાનો અભિગમ બનાવી રહ્યું છે. હજુ સુધી કોઈ ચોક્કસ AI કાયદા નથી, પરંતુ સરકારના થિંક ટેન્ક, NITI આયોગે “National Strategy for Artific Intelligence #AIForAll” અને “Principles for Responsible AI” જેવા પાયાના દસ્તાવેજો બહાર પાડ્યા છે. ભારતનો તાજેતરમાં લાગુ કરાયેલ ડિજિટલ પર્સનલ ડેટા પ્રોટેક્શન (DPDP) એક્ટ, 2023, મહત્વપૂર્ણ ડેટા ગોપનીયતા નિયમો સ્થાપિત કરે છે પરંતુ એલ્ગોરિધમિક નિર્ણય લેવા જેવા AI-વિશિષ્ટ પડકારોને સ્પષ્ટ રીતે સંબોધતો નથી. વધતા વિદેશી રોકાણ સાથે વધતા ટેક માર્કેટ તરીકે, ભારત એક સંતુલિત માળખું બનાવવા માટે આંતરરાષ્ટ્રીય મોડેલો તરફ જોઈ રહ્યું છે જે નાગરિકોના અધિકારોનું રક્ષણ કરતી વખતે તેના વધતા ટેક ઉદ્યોગને પ્રોત્સાહન આપે છે. આ દબાણને “ધ ડેવલપર્સ પ્લેબુક ફોર રિસ્પોન્સિબલ AI ઇન ઇન્ડિયા” જેવી ઉદ્યોગ પહેલ દ્વારા સમર્થન આપવામાં આવે છે, જે NASSCOM દ્વારા જોખમોને ઓળખવા અને ઘટાડવામાં વિકાસકર્તાઓને માર્ગદર્શન આપવા માટે બનાવવામાં આવેલ સ્વૈચ્છિક માળખું છે.
AI નોકરીમાં વિક્ષેપ: લુપ્તતા કે ઉત્ક્રાંતિ?
સૌથી તાત્કાલિક જાહેર ચિંતાઓમાંની એક રોજગાર પર AI ની અસર છે, જેમાં નિષ્ણાતો તદ્દન વિરોધાભાસી આગાહીઓ આપે છે. એન્થ્રોપિકના સીઈઓ ડારિયો અમોડેઈ જેવા કેટલાક લોકો “વ્હાઇટ-કોલર બ્લડબોથ” ની ચેતવણી આપે છે, જેમાં આગાહી કરવામાં આવી છે કે AI પાંચ વર્ષમાં એન્ટ્રી-લેવલ વ્હાઇટ-કોલર નોકરીઓના 50% સુધીનો નાશ કરી શકે છે. આ ભાવના વેન્ચર કેપિટાલિસ્ટ કાઈ-ફુ લી દ્વારા પણ વ્યક્ત કરવામાં આવી છે, જે સંમત છે કે 2027 સુધીમાં 50% નોકરીઓ સંપૂર્ણપણે નાબૂદ થવાને બદલે પરિવર્તનનું ભવિષ્ય સૂચવે છે. ગોલ્ડમેન સૅક્સ અને ઇન્ટરનેશનલ મોનેટરી ફંડ (IMF) બંને આગાહી કરે છે કે AI દ્વારા વૈશ્વિક સ્તરે લગભગ 300 મિલિયન નોકરીઓ પ્રભાવિત થશે અથવા અધોગતિ પામશે, પરંતુ ભાર મૂકે છે કે મોટાભાગની ભૂમિકાઓમાં સંપૂર્ણ નોકરીઓ અદૃશ્ય થવાને બદલે કાર્યો સ્વચાલિત થશે. 2023 ના વર્લ્ડ ઇકોનોમિક ફોરમના અહેવાલમાં 2027 સુધીમાં 14 મિલિયન નોકરીઓનું ચોખ્ખું નુકસાન થવાની આગાહી કરવામાં આવી છે, કારણ કે 83 મિલિયન નોકરીઓ વિસ્થાપિત થઈ છે અને 69 મિલિયન નવી નોકરીઓ બનાવવામાં આવી છે. સૌથી વધુ જોખમ ધરાવતી ભૂમિકાઓમાં કારકુની અને ડેટા એન્ટ્રી પોઝિશનનો સમાવેશ થાય છે, જ્યારે AI ડેવલપર્સ, સાયબર સુરક્ષા વિશ્લેષકો અને ટકાઉપણું નિષ્ણાતો માટે માંગ વધવાની અપેક્ષા છે. આ મોટા પાયે પરિવર્તન કર્મચારીઓના પુનઃકૌશલ્યમાં વધારો કરવાની તાત્કાલિક જરૂરિયાત પર ભાર મૂકે છે, એક અહેવાલમાં જણાવાયું છે કે 2030 સુધીમાં 40% થી વધુ કામદારોને નોંધપાત્ર અપસ્કિલિંગની જરૂર પડશે.
ધ ડાર્ક સાઇડ: બાયસ, સર્વેલન્સ અને શસ્ત્રીકરણ
આર્થિક અસર ઉપરાંત, AI ના ઉપયોગથી નોંધપાત્ર નૈતિક નિષ્ફળતાઓ અને ખતરનાક નવી ક્ષમતાઓ બહાર આવી છે.
અલ્ગોરિધમિક બાયસ: AI ને તાલીમ આપવા માટે ઉપયોગમાં લેવાતા ડેટામાં રહેલા પૂર્વગ્રહને કારણે વાસ્તવિક દુનિયામાં ભેદભાવપૂર્ણ પરિણામો આવ્યા છે. નોંધપાત્ર ઉદાહરણોમાં યુએસ હેલ્થકેર અલ્ગોરિધમનો સમાવેશ થાય છે જે કાળા દર્દીઓ કરતાં શ્વેત દર્દીઓની તરફેણ કરે છે, યુએસ કોર્ટમાં ઉપયોગમાં લેવાતું COMPAS અલ્ગોરિધમ જેણે કાળા પ્રતિવાદીઓને શ્વેત પ્રતિવાદીઓ કરતા બમણા દરે ભવિષ્યના ફરીથી ગુનેગારો તરીકે ખોટી રીતે ચિહ્નિત કર્યા હતા, અને એમેઝોન ભરતી સાધન જે મહિલાઓ સામે પક્ષપાતી હોવાનું જણાયું હતું.
AI-સંચાલિત દેખરેખ: ઓછામાં ઓછા 75 દેશો દેખરેખ માટે AI નો સક્રિયપણે ઉપયોગ કરી રહ્યા છે, ચહેરાની ઓળખ અને સ્માર્ટ પોલીસિંગ પ્લેટફોર્મ જેવી તકનીકોનો ઉપયોગ કરી રહ્યા છે. આ સાધનોનો ફેલાવો ગોપનીયતા અધિકારોના ધોવાણ અને દુરુપયોગની સંભાવના વિશે ગંભીર ચિંતાઓ ઉભી કરે છે, મજબૂત દેખરેખ અને જવાબદારીની જરૂરિયાત ઊભી કરે છે.
લશ્કરીકરણ અને આતંકવાદ: AI ને યુદ્ધ સાથે મર્જ કરવાથી વૈશ્વિક સુરક્ષા જોખમો વધુ તીવ્ર બન્યા છે. રાષ્ટ્રો ઝડપથી ઘાતક સ્વાયત્ત શસ્ત્ર પ્રણાલીઓ (LAWS), અથવા “કિલર રોબોટ્સ” વિકસાવી રહ્યા છે, જે માનવ હસ્તક્ષેપ વિના લક્ષ્યોને પસંદ કરી શકે છે અને તેમને સંડોવી શકે છે, જે આંતરરાષ્ટ્રીય માનવતાવાદી કાયદાના સિદ્ધાંતોને પડકારે છે. આધુનિક સંઘર્ષોમાં AI પહેલેથી જ એક મુખ્ય પરિબળ છે, જેમાં રુસો-યુક્રેનિયન યુદ્ધનો સમાવેશ થાય છે, જ્યાં તેનો ઉપયોગ ડ્રોન લક્ષ્યાંકન અને ગુપ્ત માહિતી વિશ્લેષણ માટે થાય છે. મધ્ય પૂર્વમાં, ઇઝરાયલે ગાઝામાં હજારો સંભવિત હવાઈ હુમલાના લક્ષ્યોને ઓળખવા માટે “લવેન્ડર” જેવી AI સિસ્ટમોનો ઉપયોગ કર્યો હોવાના અહેવાલ છે. વધુમાં, આતંકવાદી જૂથો અત્યાધુનિક પ્રચાર બનાવવા, ભરતી માટે વ્યક્તિઓને સૂક્ષ્મ-લક્ષ્ય બનાવવા અને સ્વાયત્ત વાહનો અને ડ્રોન સાથે ભૌતિક હુમલાઓની યોજના બનાવવા માટે જનરેટિવ AIનો ઉપયોગ કરી રહ્યા છે.
અસ્તિત્વના જોખમો અને અજાણ્યું ભવિષ્ય
જેમ જેમ AI ક્ષમતાઓ કૃત્રિમ જનરલ ઇન્ટેલિજન્સ (AGI) તરફ આગળ વધે છે – માનવ બુદ્ધિ સાથે મેળ ખાતી અથવા તેનાથી વધુ બુદ્ધિનું સ્તર – કેટલાક નિષ્ણાતો લાંબા ગાળાના અસ્તિત્વના જોખમોની ચેતવણી આપે છે. ભય એ છે કે એક સુપરઇન્ટેલિજન્ટ AI વિનાશક પરિણામો સાથે ખોટી રીતે ગોઠવાયેલા અથવા દૂષિત લક્ષ્યો પર કાર્ય કરી શકે છે. એક ક્લાસિક વિચાર પ્રયોગ, “પેપરક્લિપ મેક્સિમાઇઝર”, દર્શાવે છે કે કેવી રીતે AGI ને શક્ય તેટલી વધુ પેપરક્લિપ્સ બનાવવાનો એક હાનિકારક ધ્યેય આપવામાં આવ્યો છે, જે અજાણતાં માનવતાનો નાશ કરી શકે છે, જેમાં પૃથ્વીના તમામ સંસાધનો, જેમાં માનવતાનો પણ સમાવેશ થાય છે, તેને પેપરક્લિપ્સમાં રૂપાંતરિત કરી શકે છે.
આ દૃશ્યો “બ્લેક બોક્સ” સમસ્યાને પ્રકાશિત કરે છે, જ્યાં જટિલ AI સિસ્ટમોની નિર્ણય લેવાની પ્રક્રિયાઓ તેમના સર્જકો માટે પણ અપારદર્શક હોય છે, જેના કારણે માનવ મૂલ્યો સાથે સંરેખણ સુનિશ્ચિત કરવું મુશ્કેલ બને છે. મુખ્ય નૈતિક પડકાર એ સુનિશ્ચિત કરવાનો છે કે તકનીકી પ્રગતિ પારદર્શિતા, જવાબદારી અને માનવ ગૌરવના સિદ્ધાંતોને વટાવી ન જાય. જેમ જેમ રાષ્ટ્રો અને કોર્પોરેશનો આગળ વધી રહ્યા છે, તેમ તેમ પ્રયોગશાળાઓ અને કાયદાકીય ચેમ્બરમાં આજે લેવામાં આવેલી પસંદગીઓ નક્કી કરશે કે AI અભૂતપૂર્વ સમૃદ્ધિના ભવિષ્યમાં પ્રવેશ કરે છે કે અકલ્પનીય જોખમમાં.