નોકરીઓ જોખમમાં! ચીની સંશોધકો કહે છે કે આગામી 10 વર્ષમાં AI લાખો લોકોનું સ્થાન લેશે

By
Halima Shaikh
Halima Shaikh is a talented Gujarati content writer at Satya Day News, known for her clear and compelling storytelling in the Gujarati language. She covers a...
9 Min Read

ચીનને AI સંશોધનનો ડર: ‘૧૦-૨૦ વર્ષમાં, AI મોડેલો માણસો જે કામ કરે છે તે બધું જ કરશે’

અગ્રણી સંશોધકોના નિરાશાવાદી દૃષ્ટિકોણ અને મુખ્ય AI ડેવલપર OpenAI ખાતે આંતરિક સલામતી વિવાદો દ્વારા સંચાલિત, વૈશ્વિક ટેકનોલોજી લેન્ડસ્કેપમાં કૃત્રિમ બુદ્ધિ (AI) ના લાંબા ગાળાના ખતરા અંગે તાત્કાલિક ચેતવણીઓનો પ્રવાહ ફેલાઈ રહ્યો છે.

ચીની AI ડેવલપર ડીપસીકના એક વરિષ્ઠ સંશોધકે, જે કંપનીએ તાજેતરમાં તેના ઓછા ખર્ચે મોડેલોથી યુએસ ટેકનોલોજી જાયન્ટ્સને “આંચકો” આપ્યો હતો, તેણે ટેકનોલોજી દ્વારા ઉભા થયેલા ગંભીર સામાજિક જોખમો વિશે જાહેરમાં ચેતવણી આપી છે. ડીપસીક સંશોધક ચેન ડેલીએ AI ની ભાવિ અસર વિશે ભારે નિરાશા વ્યક્ત કરી હતી, ભાર મૂક્યો હતો કે AI કંપનીઓએ સંભવિત જોખમો સામે ‘રક્ષકો’ તરીકે કાર્ય કરવું જોઈએ.

- Advertisement -

artificial 32 1.jpg

ચેન ડેલીની ટિપ્પણીઓ ઝેજિયાંગ પ્રાંતના વુઝેનમાં વર્લ્ડ ઇન્ટરનેટ કોન્ફરન્સમાં લગભગ એક વર્ષમાં ડીપસીકના પ્રથમ મુખ્ય જાહેર દેખાવ દરમિયાન કરવામાં આવી હતી. AI દ્વારા માનવોને આપવામાં આવતી ટૂંકા ગાળાની સહાયનો સ્વીકાર કરતી વખતે, તેમણે 5 થી 10 વર્ષમાં મોટા પાયે નોકરી ગુમાવવાની અને આગામી દાયકામાં એક મહત્વપૂર્ણ સામાજિક પડકાર ઉભરવાની આગાહી કરી હતી. ચેને જણાવ્યું હતું કે તે “ટેકનોલોજી પ્રત્યે અત્યંત સકારાત્મક” છે પરંતુ તેના સંભવિત સામાજિક પ્રભાવને નકારાત્મક રીતે જુએ છે.

- Advertisement -

ખતરાના પ્રમાણ

ડીપસીકે જાન્યુઆરીમાં R1 નામનું ઓછી કિંમતનું AI મોડેલ બહાર પાડીને વૈશ્વિક સ્તરે ધ્યાન ખેંચ્યું, જેણે વિવિધ બેન્ચમાર્કમાં ઘણા અગ્રણી યુએસ મોડેલોને પાછળ છોડી દીધા. ડીપસીકે શૈક્ષણિક જર્નલ નેચરમાં ખુલાસો કર્યો કે તેણે R1 મોડેલને તાલીમ આપવા માટે નોંધપાત્ર રીતે ઓછી રકમ – ફક્ત $294,000 – ખર્ચ કરી. આ કાર્યક્ષમતા યુએસ સ્પર્ધકો દ્વારા ટાંકવામાં આવેલા ખર્ચથી તદ્દન વિપરીત હતી, જેમ કે ઓપનએઆઈના સીઈઓ સેમ ઓલ્ટમેનના 2023 ના નિવેદનમાં કે “ફાઉન્ડેશનલ મોડેલ તાલીમ” નો ખર્ચ $100 મિલિયન કરતા “ઘણો વધુ” હતો. R1 ની જાહેરાત પછી, યુએસ ટેક શેરોમાં નોંધપાત્ર નુકસાન થયું, જેમાં કુલ મૂલ્યમાં અંદાજિત $1 ટ્રિલિયનનો નાશ થયો, જેમાં ફક્ત Nvidia માંથી લગભગ $600 બિલિયનનું બજાર મૂડીકરણ શામેલ છે.

ચીન તરફથી આપવામાં આવેલી ચેતવણીઓ પશ્ચિમી AI અગ્રણીઓ દ્વારા ઉઠાવવામાં આવેલા વધતા જતા ભયનો પડઘો પાડે છે:

“AI ના ગોડફાધર” તરીકે ઓળખાતા જ્યોફ્રી હિન્ટને 2024 માં ભૌતિકશાસ્ત્રમાં નોબેલ પુરસ્કાર મેળવ્યા પછી AI ના જોખમો વિશે કડક ચેતવણીઓ આપી હતી. AI ના અસ્તિત્વના જોખમ વિશે મુક્તપણે વાત કરવા માટે Google માં નોકરી છોડી દેનારા હિન્ટને અગાઉ સામાન્ય હેતુવાળા AI પ્રાપ્ત કરવા માટેના તેમના અંદાજને 20 થી 50 વર્ષથી બદલીને “20 વર્ષ કે તેથી ઓછા” કર્યો હતો.

- Advertisement -

હિન્ટને ટેકઓવર થવાની 10% થી 20% શક્યતાની ચેતવણી આપી હતી, જ્યારે સાથી AI અગ્રણી એલોન મસ્કે એક વખત AI માનવતાને નષ્ટ કરી શકે તેવી 20% શક્યતાની આગાહી કરી હતી, તે આંકડાને “આશ્ચર્યજનક રીતે આશાવાદી” ગણાવ્યા હતા.

કમ્પ્યુટર વૈજ્ઞાનિક રોમન યામ્પોલ્સ્કીએ એક વખત દાવો કર્યો હતો કે માનવતા પાસે આગામી સદીમાં અદ્યતન AI સાથે જોડાયેલી આપત્તિ વિના બચવાની હજારમાંથી માત્ર એક તક છે.

OpenAI ના CEO સેમ ઓલ્ટમેનએ જણાવ્યું છે કે કૃત્રિમ બુદ્ધિ માટે સૌથી ખરાબ પરિસ્થિતિ “આપણા બધા માટે પ્રકાશ” છે.

ખોટી ગોઠવણી અને નિયંત્રણનો પડકાર

પ્રાથમિક અસ્તિત્વ જોખમ (AI x-risk) એ વિચાર પરથી ઉદ્ભવે છે કે કૃત્રિમ જનરલ ઇન્ટેલિજન્સ (AGI) માં નોંધપાત્ર પ્રગતિ માનવ લુપ્તતા અથવા બદલી ન શકાય તેવી વૈશ્વિક આપત્તિ તરફ દોરી શકે છે. નિષ્ણાતો ચેતવણી આપે છે કે ભવિષ્યની સુપર-ઇન્ટેલિજન્ટ સિસ્ટમ ઘણા કાર્યોમાં માનવો કરતાં ઘણી સારી હોઈ શકે છે જ્યારે માનવ જીવનને સુરક્ષિત રાખવા માટે કોઈ આંતરિક પ્રેરણાનો અભાવ હોય છે – એક પ્રકારની ઉદાસીનતા જે વિનાશક આડઅસરો લાવી શકે છે.

ચિંતા એ નથી કે મશીનો માનવતાને ધિક્કારશે, પરંતુ તેઓ ફક્ત મનુષ્યો જીવે છે કે નહીં તેની પરવા કરશે નહીં. એલિએઝર યુડકોવસ્કી ચેતવણી આપે છે કે મશીનો માનવ નિયંત્રણની બહાર વધી જાય પછી ડિઝાઇનની નાની ભૂલો પણ વિનાશક, મુશ્કેલ-થી-ઉલટાવી શકાય તેવા પરિણામોમાં પરિણમી શકે છે.

Artificial i.jpg

આ જોખમને આગળ ધપાવતા મુખ્ય મિકેનિઝમ્સમાં શામેલ છે:

ઇન્સ્ટ્રુમેન્ટલ કન્વર્જન્સ: કેટલાક પેટા-ધ્યેય લગભગ કોઈપણ અંતિમ ધ્યેય, જેમ કે સંસાધનો પ્રાપ્ત કરવા અથવા સ્વ-બચાવ, પ્રાપ્ત કરવા માટે ઉપયોગી છે. જો કોઈ અદ્યતન AI ના સાધનાત્મક ધ્યેયો માનવતાના ધ્યેયો સાથે વિરોધાભાસ કરે છે, તો AI સંસાધનો પ્રાપ્ત કરવા અથવા પોતાને બંધ થવાથી અટકાવવા માટે માનવતાને નુકસાન પહોંચાડી શકે છે, ફક્ત તેના અંતિમ હેતુને પ્રાપ્ત કરવા માટે. સ્ટુઅર્ટ રસેલ દલીલ કરે છે કે પૂરતા પ્રમાણમાં અદ્યતન મશીન “જો તમે તેને પ્રોગ્રામ ન કરો તો પણ સ્વ-બચાવ ધરાવશે” કારણ કે તેના લક્ષ્યોને પ્રાપ્ત કરવા માટે તેને અસ્તિત્વમાં રહેવાની જરૂર છે.

ઇન્ટેલિજન્સ વિસ્ફોટ: સંશોધકો ચેતવણી આપે છે કે “ઇન્ટેલિજન્સ વિસ્ફોટ” – AI સ્વ-સુધારણાનું ઝડપી, પુનરાવર્તિત ચક્ર – માનવ દેખરેખ અને માળખાગત સુવિધાઓને પાછળ છોડી શકે છે. તેના સર્જકો કરતાં વધુ બુદ્ધિશાળી AI વારંવાર વધતા દરે પોતાને સુધારશે, તેના હેન્ડલર્સ અથવા સમાજ માટે નિયંત્રણ કરવું ખૂબ જ ઝડપથી.

ખતરનાક ક્ષમતાઓ: ઉન્નત AI નો ઉપયોગ ઉન્નત રોગકારક જીવાણુઓ અથવા સાયબર હુમલાઓ પેદા કરવા માટે થઈ શકે છે. ઉદાહરણ તરીકે, એક અભ્યાસમાં બિન-ઝેરી ઉપચારાત્મક પરમાણુઓ ઉત્પન્ન કરવા માટે રચાયેલ AI સિસ્ટમને સમાયોજિત કરવામાં આવી હતી જેથી ઝેરીતાને દંડ કરવાને બદલે પુરસ્કાર આપવામાં આવે. આ સરળ ફેરફારથી AI છ કલાકમાં રાસાયણિક યુદ્ધ માટે 40,000 ઉમેદવાર પરમાણુઓ બનાવી શક્યું.

OpenAI ની આંતરિક અશાંતિ

OpenAI માં તાજેતરના આંતરિક અશાંતિ દ્વારા સલામતી પ્રાથમિકતાઓ અંગેની ચિંતાઓ પર ભાર મૂકવામાં આવ્યો હતો. જાન લેઇકે, જેમણે મુખ્ય સલામતી સંશોધક અને પેઢીમાં સુપરએલાઇનમેન્ટના સહ-મુખ્ય તરીકે સેવા આપી હતી, તેમણે નવીનતમ AI મોડેલ, GPT-4o ના લોન્ચ પછીના દિવસો પછી રાજીનામું આપ્યું.

લેઇકે છોડવાના તેમના કારણો વિગતવાર જણાવતા લખ્યું કે છેલ્લા વર્ષોમાં “સુરક્ષા સંસ્કૃતિ અને પ્રક્રિયાઓ ચળકતા ઉત્પાદનો માટે પાછળ રહી ગઈ છે”. તેમણે જણાવ્યું હતું કે પ્રાથમિકતાઓ વિશે OpenAI ના નેતૃત્વ સાથે મતભેદ “છેવટે એક બ્રેકિંગ પોઈન્ટ પર પહોંચી ગયો છે”, અને ચિંતા વ્યક્ત કરી હતી કે કંપની આગામી પેઢીના મોડેલો માટે સલામતી અને સામાજિક અસર જેવા મુખ્ય મુદ્દાઓ અંગે “ત્યાં પહોંચવા માટેના માર્ગ પર નથી”.

ઓપનએઆઈના સહ-સ્થાપક અને સુપરએલાઈનમેન્ટના સાથી સહ-મુખ્ય ઈલ્યા સુત્સ્કીવરના રાજીનામા પછી લેઈકનું વિદાય થયું. ઓપનએઆઈના સીઈઓ સેમ ઓલ્ટમેને લેઈકનો તેમના યોગદાન બદલ આભાર માનીને અને સ્વીકારીને જવાબ આપ્યો કે “તેઓ સાચા છે કે આપણે ઘણું કરવાનું છે; અમે તે કરવા માટે પ્રતિબદ્ધ છીએ”. નોંધનીય છે કે, સુપરઇન્ટેલિજન્સનું સંરેખણ ઉકેલવા માટે બનાવાયેલ ઓપનએઆઈની “સુપરએલાઈનમેન્ટ” ટીમ, 2023 માં તેની રજૂઆતના એક વર્ષ કરતાં પણ ઓછા સમયમાં વિસર્જન કરવામાં આવી હતી.

આર્થિક આશાવાદ અને શંકાસ્પદ પુશબેક

આપત્તિજનક આગાહીઓ છતાં, એક વિરોધાભાસી દૃષ્ટિકોણ માને છે કે AI, વીજળીકરણ અને કોમ્પ્યુટરાઇઝેશન જેવી ભૂતકાળની તકનીકોની જેમ, “લોકોના જીવનધોરણને સુધારવાની સંભાવના પ્રદાન કરે છે”. અર્થશાસ્ત્રીઓ સૂચવે છે કે AI પ્રગતિ સમય જતાં ઉત્પાદકતા અને જીવનધોરણને વધારશે. મુખ્ય વૈશ્વિક કટોકટી અને તકનીકી પરિવર્તન છતાં યુ.એસ. માથાદીઠ GDP ઐતિહાસિક રીતે સ્થિર રીતે (વાર્ષિક સ્તરે 1.9%) આગળ વધ્યો છે.

ગોલ્ડમેન સૅશના અર્થશાસ્ત્રીઓના મતે, અંદાજો સૂચવે છે કે AI અપનાવવાથી આગામી દાયકામાં વાર્ષિક ઉત્પાદકતા વૃદ્ધિમાં 0.3 થી 3.0 ટકાનો વધારો થઈ શકે છે. વધુમાં, કેટલાક સંશોધકો દલીલ કરે છે કે ભવિષ્યના AI વિશે આશાવાદ ખોટો છે. “નોર્મલિસ્ટ્સ” તરીકે ઓળખાતા શંકાવાદીઓ દલીલ કરે છે કે સુપરઇન્ટેલિજન્સનો વિચાર “હકીકત કરતાં કાલ્પનિક” છે અને માને છે કે AI ને “લુપ્તતા-કેન્દ્રિત ભય” ને બદલે વ્યવહારુ નિયમન, મજબૂત ઓડિટ અને દેખરેખ સાથે સંચાલિત અન્ય સામાન્ય-હેતુ તકનીકો તરીકે ગણવામાં આવવો જોઈએ.

જોકે, પ્રચંડ દાવ નિર્વિવાદ રહે છે. 2023 માં, સેંકડો નિષ્ણાતોએ એક નિવેદન પર હસ્તાક્ષર કર્યા જેમાં જાહેર કરવામાં આવ્યું હતું: “લુપ્તતા-કેન્દ્રિત ભય” જેવા અન્ય સામાજિક-સ્તરના જોખમો સાથે AI માંથી લુપ્ત થવાનું જોખમ ઘટાડવું એ વૈશ્વિક પ્રાથમિકતા હોવી જોઈએ”. યુએન સેક્રેટરી-જનરલ એન્ટોનિયો ગુટેરેસે ઉભરતી તકનીકની દેખરેખ માટે વૈશ્વિક દેખરેખ રાખવાની હિમાયત કરી છે, જેમાં સરકારો પ્રતિભાવ આપી રહી છે.

Share This Article
Halima Shaikh is a talented Gujarati content writer at Satya Day News, known for her clear and compelling storytelling in the Gujarati language. She covers a wide range of topics including social issues, current events, and community stories with a focus on accuracy and cultural relevance. With a deep connection to Gujarati readers, Halima strives to present news that is informative, trustworthy, and easy to understand. Follow Halima Shaikh on Satya Day News for timely updates and meaningful content — all in your own language.