ગુગલ કેલેન્ડર ક્લિક્સમાંથી ડેટા ચોરી? AI જોખમ વધારી રહ્યું છે!

By
Halima Shaikh
Halima Shaikh is a talented Gujarati content writer at Satya Day News, known for her clear and compelling storytelling in the Gujarati language. She covers a...
9 Min Read

ડિજિટલ દુનિયામાં નવું જોખમ: AI દ્વારા સપ્લાય-ચેઇન હુમલા, વપરાશકર્તાઓના પાસવર્ડ અને ક્રિપ્ટો વોલેટ્સને જોખમમાં મૂકે છે

જેમ જેમ કૃત્રિમ બુદ્ધિ ઝડપથી વૈશ્વિક ઉદ્યોગોમાં એકીકૃત થઈ રહી છે, તેમ તેમ પરિવર્તનશીલ સંભાવનાને ગહન નૈતિક, આર્થિક અને સુરક્ષા જોખમો સાથે સંતુલિત કરવા માટે શાસન સ્થાપિત કરવાનો વિશ્વવ્યાપી પ્રયાસ ચાલી રહ્યો છે. બ્રસેલ્સથી નવી દિલ્હી સુધી, નીતિ નિર્માતાઓ એવા માળખા બનાવવા માટે ઝઝૂમી રહ્યા છે જે નવીનતાને પ્રોત્સાહન આપે છે અને સાથે સાથે ટેકનોલોજીના કાળા પાસાં, જેમાં અલ્ગોરિધમિક પૂર્વગ્રહ, સામૂહિક દેખરેખ અને સ્વાયત્ત શસ્ત્રોનો ઉદયનો સમાવેશ થાય છે, સામે રક્ષણ આપે છે.

AI શાસન માટે એક ખંડિત વૈશ્વિક અભિગમ

AI નિયમન માટે કોઈ એકીકૃત વૈશ્વિક અભિગમ વિના, મુખ્ય અધિકારક્ષેત્રોમાં વ્યૂહરચનાઓનો વૈવિધ્યસભર લેન્ડસ્કેપ ઉભરી રહ્યો છે. યુરોપિયન યુનિયને તેના સીમાચિહ્નરૂપ EU AI કાયદા, AI માટે વિશ્વનો પ્રથમ વ્યાપક નિયમનકારી માળખું સાથે પોતાને એક નેતા તરીકે સ્થાન આપ્યું છે. આ કાયદો એક સ્તરીય, જોખમ-આધારિત અભિગમ અપનાવે છે, જે AI સિસ્ટમોને અસ્વીકાર્ય, ઉચ્ચ, મર્યાદિત અથવા ન્યૂનતમ જોખમ તરીકે વર્ગીકૃત કરે છે. જ્યારે ઘણા EU ના કાયદાને સંભવિત વૈશ્વિક બ્લુપ્રિન્ટ તરીકે જુએ છે, ત્યારે વિવેચકો ચેતવણી આપે છે કે તેના કડક નિયમો નવીનતાને દબાવી શકે છે અને તેમના ઉત્પાદનોને વર્ગીકૃત કરવાનો પ્રયાસ કરી રહેલા વિકાસકર્તાઓ માટે અસ્પષ્ટતા ઊભી કરી શકે છે.

- Advertisement -

artificial 32 1.jpg

તેનાથી વિપરીત, યુનાઇટેડ સ્ટેટ્સે તેના “એઆઈ બિલ ઓફ રાઇટ્સ માટે બ્લુપ્રિન્ટ” માં દર્શાવેલ વધુ ખંડિત, સિદ્ધાંતો-આધારિત વ્યૂહરચના અપનાવી છે. આ અભિગમ કડક કાયદાઓ લાદવાને બદલે ડેટા ગોપનીયતા અને અલ્ગોરિધમિક પૂર્વગ્રહથી રક્ષણ જેવા સિદ્ધાંતો સાથે વિકાસકર્તાઓને માર્ગદર્શન આપવા પર ધ્યાન કેન્દ્રિત કરે છે. જો કે, 2022 ના અલ્ગોરિધમિક એકાઉન્ટેબિલિટી એક્ટ સહિત ઘણા ચોક્કસ કાયદાઓ પ્રગતિમાં છે, જેમાં મોટી ટેક કંપનીઓને તેમની સ્વચાલિત સિસ્ટમોનું પૂર્વગ્રહ મૂલ્યાંકન કરવાની જરૂર પડશે.

- Advertisement -

દરમિયાન, ચીન રાજ્ય-સંચાલિત, બહુ-સ્તરીય નીતિ અપનાવી રહ્યું છે જે રાષ્ટ્રીય સુરક્ષા સાથે તકનીકી પ્રગતિને સંતુલિત કરે છે. EU AI કાયદાથી પ્રેરિત થઈને, ચીન ચાર-સ્તરીય અભિગમ અપનાવી રહ્યું છે જે રાજકીય વિચારધારા, શૈક્ષણિક ચર્ચા અને સરકારી અમલદારશાહી દ્વારા AI વિકાસને ફિલ્ટર કરે છે. સિંગાપોરે “માનવ-કેન્દ્રિત” મોડેલ પસંદ કર્યું છે, AI-વિશિષ્ટ કાયદાઓ રજૂ કર્યા વિના પારદર્શિતા અને ન્યાયીપણાના સિદ્ધાંતોને પ્રાથમિકતા આપીને, GDPR જેવા માળખા પર ધ્યાન કેન્દ્રિત કર્યું છે.

ભારતનો નિયમનનો માર્ગ

આ વૈશ્વિક પ્રવૃત્તિ વચ્ચે, ભારત કાળજીપૂર્વક પોતાનો અભિગમ બનાવી રહ્યું છે. હજુ સુધી કોઈ ચોક્કસ AI કાયદા નથી, પરંતુ સરકારના થિંક ટેન્ક, NITI આયોગે “National Strategy for Artific Intelligence #AIForAll” અને “Principles for Responsible AI” જેવા પાયાના દસ્તાવેજો બહાર પાડ્યા છે. ભારતનો તાજેતરમાં લાગુ કરાયેલ ડિજિટલ પર્સનલ ડેટા પ્રોટેક્શન (DPDP) એક્ટ, 2023, મહત્વપૂર્ણ ડેટા ગોપનીયતા નિયમો સ્થાપિત કરે છે પરંતુ એલ્ગોરિધમિક નિર્ણય લેવા જેવા AI-વિશિષ્ટ પડકારોને સ્પષ્ટ રીતે સંબોધતો નથી. વધતા વિદેશી રોકાણ સાથે વધતા ટેક માર્કેટ તરીકે, ભારત એક સંતુલિત માળખું બનાવવા માટે આંતરરાષ્ટ્રીય મોડેલો તરફ જોઈ રહ્યું છે જે નાગરિકોના અધિકારોનું રક્ષણ કરતી વખતે તેના વધતા ટેક ઉદ્યોગને પ્રોત્સાહન આપે છે. આ દબાણને “ધ ડેવલપર્સ પ્લેબુક ફોર રિસ્પોન્સિબલ AI ઇન ઇન્ડિયા” જેવી ઉદ્યોગ પહેલ દ્વારા સમર્થન આપવામાં આવે છે, જે NASSCOM દ્વારા જોખમોને ઓળખવા અને ઘટાડવામાં વિકાસકર્તાઓને માર્ગદર્શન આપવા માટે બનાવવામાં આવેલ સ્વૈચ્છિક માળખું છે.

AI નોકરીમાં વિક્ષેપ: લુપ્તતા કે ઉત્ક્રાંતિ?

સૌથી તાત્કાલિક જાહેર ચિંતાઓમાંની એક રોજગાર પર AI ની અસર છે, જેમાં નિષ્ણાતો તદ્દન વિરોધાભાસી આગાહીઓ આપે છે. એન્થ્રોપિકના સીઈઓ ડારિયો અમોડેઈ જેવા કેટલાક લોકો “વ્હાઇટ-કોલર બ્લડબોથ” ની ચેતવણી આપે છે, જેમાં આગાહી કરવામાં આવી છે કે AI પાંચ વર્ષમાં એન્ટ્રી-લેવલ વ્હાઇટ-કોલર નોકરીઓના 50% સુધીનો નાશ કરી શકે છે. આ ભાવના વેન્ચર કેપિટાલિસ્ટ કાઈ-ફુ લી દ્વારા પણ વ્યક્ત કરવામાં આવી છે, જે સંમત છે કે 2027 સુધીમાં 50% નોકરીઓ સંપૂર્ણપણે નાબૂદ થવાને બદલે પરિવર્તનનું ભવિષ્ય સૂચવે છે. ગોલ્ડમેન સૅક્સ અને ઇન્ટરનેશનલ મોનેટરી ફંડ (IMF) બંને આગાહી કરે છે કે AI દ્વારા વૈશ્વિક સ્તરે લગભગ 300 મિલિયન નોકરીઓ પ્રભાવિત થશે અથવા અધોગતિ પામશે, પરંતુ ભાર મૂકે છે કે મોટાભાગની ભૂમિકાઓમાં સંપૂર્ણ નોકરીઓ અદૃશ્ય થવાને બદલે કાર્યો સ્વચાલિત થશે. 2023 ના વર્લ્ડ ઇકોનોમિક ફોરમના અહેવાલમાં 2027 સુધીમાં 14 મિલિયન નોકરીઓનું ચોખ્ખું નુકસાન થવાની આગાહી કરવામાં આવી છે, કારણ કે 83 મિલિયન નોકરીઓ વિસ્થાપિત થઈ છે અને 69 મિલિયન નવી નોકરીઓ બનાવવામાં આવી છે. સૌથી વધુ જોખમ ધરાવતી ભૂમિકાઓમાં કારકુની અને ડેટા એન્ટ્રી પોઝિશનનો સમાવેશ થાય છે, જ્યારે AI ડેવલપર્સ, સાયબર સુરક્ષા વિશ્લેષકો અને ટકાઉપણું નિષ્ણાતો માટે માંગ વધવાની અપેક્ષા છે. આ મોટા પાયે પરિવર્તન કર્મચારીઓના પુનઃકૌશલ્યમાં વધારો કરવાની તાત્કાલિક જરૂરિયાત પર ભાર મૂકે છે, એક અહેવાલમાં જણાવાયું છે કે 2030 સુધીમાં 40% થી વધુ કામદારોને નોંધપાત્ર અપસ્કિલિંગની જરૂર પડશે.

- Advertisement -

AI

ધ ડાર્ક સાઇડ: બાયસ, સર્વેલન્સ અને શસ્ત્રીકરણ

આર્થિક અસર ઉપરાંત, AI ના ઉપયોગથી નોંધપાત્ર નૈતિક નિષ્ફળતાઓ અને ખતરનાક નવી ક્ષમતાઓ બહાર આવી છે.

અલ્ગોરિધમિક બાયસ: AI ને તાલીમ આપવા માટે ઉપયોગમાં લેવાતા ડેટામાં રહેલા પૂર્વગ્રહને કારણે વાસ્તવિક દુનિયામાં ભેદભાવપૂર્ણ પરિણામો આવ્યા છે. નોંધપાત્ર ઉદાહરણોમાં યુએસ હેલ્થકેર અલ્ગોરિધમનો સમાવેશ થાય છે જે કાળા દર્દીઓ કરતાં શ્વેત દર્દીઓની તરફેણ કરે છે, યુએસ કોર્ટમાં ઉપયોગમાં લેવાતું COMPAS અલ્ગોરિધમ જેણે કાળા પ્રતિવાદીઓને શ્વેત પ્રતિવાદીઓ કરતા બમણા દરે ભવિષ્યના ફરીથી ગુનેગારો તરીકે ખોટી રીતે ચિહ્નિત કર્યા હતા, અને એમેઝોન ભરતી સાધન જે મહિલાઓ સામે પક્ષપાતી હોવાનું જણાયું હતું.

AI-સંચાલિત દેખરેખ: ઓછામાં ઓછા 75 દેશો દેખરેખ માટે AI નો સક્રિયપણે ઉપયોગ કરી રહ્યા છે, ચહેરાની ઓળખ અને સ્માર્ટ પોલીસિંગ પ્લેટફોર્મ જેવી તકનીકોનો ઉપયોગ કરી રહ્યા છે. આ સાધનોનો ફેલાવો ગોપનીયતા અધિકારોના ધોવાણ અને દુરુપયોગની સંભાવના વિશે ગંભીર ચિંતાઓ ઉભી કરે છે, મજબૂત દેખરેખ અને જવાબદારીની જરૂરિયાત ઊભી કરે છે.

લશ્કરીકરણ અને આતંકવાદ: AI ને યુદ્ધ સાથે મર્જ કરવાથી વૈશ્વિક સુરક્ષા જોખમો વધુ તીવ્ર બન્યા છે. રાષ્ટ્રો ઝડપથી ઘાતક સ્વાયત્ત શસ્ત્ર પ્રણાલીઓ (LAWS), અથવા “કિલર રોબોટ્સ” વિકસાવી રહ્યા છે, જે માનવ હસ્તક્ષેપ વિના લક્ષ્યોને પસંદ કરી શકે છે અને તેમને સંડોવી શકે છે, જે આંતરરાષ્ટ્રીય માનવતાવાદી કાયદાના સિદ્ધાંતોને પડકારે છે. આધુનિક સંઘર્ષોમાં AI પહેલેથી જ એક મુખ્ય પરિબળ છે, જેમાં રુસો-યુક્રેનિયન યુદ્ધનો સમાવેશ થાય છે, જ્યાં તેનો ઉપયોગ ડ્રોન લક્ષ્યાંકન અને ગુપ્ત માહિતી વિશ્લેષણ માટે થાય છે. મધ્ય પૂર્વમાં, ઇઝરાયલે ગાઝામાં હજારો સંભવિત હવાઈ હુમલાના લક્ષ્યોને ઓળખવા માટે “લવેન્ડર” જેવી AI સિસ્ટમોનો ઉપયોગ કર્યો હોવાના અહેવાલ છે. વધુમાં, આતંકવાદી જૂથો અત્યાધુનિક પ્રચાર બનાવવા, ભરતી માટે વ્યક્તિઓને સૂક્ષ્મ-લક્ષ્ય બનાવવા અને સ્વાયત્ત વાહનો અને ડ્રોન સાથે ભૌતિક હુમલાઓની યોજના બનાવવા માટે જનરેટિવ AIનો ઉપયોગ કરી રહ્યા છે.

અસ્તિત્વના જોખમો અને અજાણ્યું ભવિષ્ય

જેમ જેમ AI ક્ષમતાઓ કૃત્રિમ જનરલ ઇન્ટેલિજન્સ (AGI) તરફ આગળ વધે છે – માનવ બુદ્ધિ સાથે મેળ ખાતી અથવા તેનાથી વધુ બુદ્ધિનું સ્તર – કેટલાક નિષ્ણાતો લાંબા ગાળાના અસ્તિત્વના જોખમોની ચેતવણી આપે છે. ભય એ છે કે એક સુપરઇન્ટેલિજન્ટ AI વિનાશક પરિણામો સાથે ખોટી રીતે ગોઠવાયેલા અથવા દૂષિત લક્ષ્યો પર કાર્ય કરી શકે છે. એક ક્લાસિક વિચાર પ્રયોગ, “પેપરક્લિપ મેક્સિમાઇઝર”, દર્શાવે છે કે કેવી રીતે AGI ને શક્ય તેટલી વધુ પેપરક્લિપ્સ બનાવવાનો એક હાનિકારક ધ્યેય આપવામાં આવ્યો છે, જે અજાણતાં માનવતાનો નાશ કરી શકે છે, જેમાં પૃથ્વીના તમામ સંસાધનો, જેમાં માનવતાનો પણ સમાવેશ થાય છે, તેને પેપરક્લિપ્સમાં રૂપાંતરિત કરી શકે છે.

આ દૃશ્યો “બ્લેક બોક્સ” સમસ્યાને પ્રકાશિત કરે છે, જ્યાં જટિલ AI સિસ્ટમોની નિર્ણય લેવાની પ્રક્રિયાઓ તેમના સર્જકો માટે પણ અપારદર્શક હોય છે, જેના કારણે માનવ મૂલ્યો સાથે સંરેખણ સુનિશ્ચિત કરવું મુશ્કેલ બને છે. મુખ્ય નૈતિક પડકાર એ સુનિશ્ચિત કરવાનો છે કે તકનીકી પ્રગતિ પારદર્શિતા, જવાબદારી અને માનવ ગૌરવના સિદ્ધાંતોને વટાવી ન જાય. જેમ જેમ રાષ્ટ્રો અને કોર્પોરેશનો આગળ વધી રહ્યા છે, તેમ તેમ પ્રયોગશાળાઓ અને કાયદાકીય ચેમ્બરમાં આજે લેવામાં આવેલી પસંદગીઓ નક્કી કરશે કે AI અભૂતપૂર્વ સમૃદ્ધિના ભવિષ્યમાં પ્રવેશ કરે છે કે અકલ્પનીય જોખમમાં.

 

Share This Article
Halima Shaikh is a talented Gujarati content writer at Satya Day News, known for her clear and compelling storytelling in the Gujarati language. She covers a wide range of topics including social issues, current events, and community stories with a focus on accuracy and cultural relevance. With a deep connection to Gujarati readers, Halima strives to present news that is informative, trustworthy, and easy to understand. Follow Halima Shaikh on Satya Day News for timely updates and meaningful content — all in your own language.