ચીનને AI સંશોધનનો ડર: ‘૧૦-૨૦ વર્ષમાં, AI મોડેલો માણસો જે કામ કરે છે તે બધું જ કરશે’
અગ્રણી સંશોધકોના નિરાશાવાદી દૃષ્ટિકોણ અને મુખ્ય AI ડેવલપર OpenAI ખાતે આંતરિક સલામતી વિવાદો દ્વારા સંચાલિત, વૈશ્વિક ટેકનોલોજી લેન્ડસ્કેપમાં કૃત્રિમ બુદ્ધિ (AI) ના લાંબા ગાળાના ખતરા અંગે તાત્કાલિક ચેતવણીઓનો પ્રવાહ ફેલાઈ રહ્યો છે.
ચીની AI ડેવલપર ડીપસીકના એક વરિષ્ઠ સંશોધકે, જે કંપનીએ તાજેતરમાં તેના ઓછા ખર્ચે મોડેલોથી યુએસ ટેકનોલોજી જાયન્ટ્સને “આંચકો” આપ્યો હતો, તેણે ટેકનોલોજી દ્વારા ઉભા થયેલા ગંભીર સામાજિક જોખમો વિશે જાહેરમાં ચેતવણી આપી છે. ડીપસીક સંશોધક ચેન ડેલીએ AI ની ભાવિ અસર વિશે ભારે નિરાશા વ્યક્ત કરી હતી, ભાર મૂક્યો હતો કે AI કંપનીઓએ સંભવિત જોખમો સામે ‘રક્ષકો’ તરીકે કાર્ય કરવું જોઈએ.

ચેન ડેલીની ટિપ્પણીઓ ઝેજિયાંગ પ્રાંતના વુઝેનમાં વર્લ્ડ ઇન્ટરનેટ કોન્ફરન્સમાં લગભગ એક વર્ષમાં ડીપસીકના પ્રથમ મુખ્ય જાહેર દેખાવ દરમિયાન કરવામાં આવી હતી. AI દ્વારા માનવોને આપવામાં આવતી ટૂંકા ગાળાની સહાયનો સ્વીકાર કરતી વખતે, તેમણે 5 થી 10 વર્ષમાં મોટા પાયે નોકરી ગુમાવવાની અને આગામી દાયકામાં એક મહત્વપૂર્ણ સામાજિક પડકાર ઉભરવાની આગાહી કરી હતી. ચેને જણાવ્યું હતું કે તે “ટેકનોલોજી પ્રત્યે અત્યંત સકારાત્મક” છે પરંતુ તેના સંભવિત સામાજિક પ્રભાવને નકારાત્મક રીતે જુએ છે.
ખતરાના પ્રમાણ
ડીપસીકે જાન્યુઆરીમાં R1 નામનું ઓછી કિંમતનું AI મોડેલ બહાર પાડીને વૈશ્વિક સ્તરે ધ્યાન ખેંચ્યું, જેણે વિવિધ બેન્ચમાર્કમાં ઘણા અગ્રણી યુએસ મોડેલોને પાછળ છોડી દીધા. ડીપસીકે શૈક્ષણિક જર્નલ નેચરમાં ખુલાસો કર્યો કે તેણે R1 મોડેલને તાલીમ આપવા માટે નોંધપાત્ર રીતે ઓછી રકમ – ફક્ત $294,000 – ખર્ચ કરી. આ કાર્યક્ષમતા યુએસ સ્પર્ધકો દ્વારા ટાંકવામાં આવેલા ખર્ચથી તદ્દન વિપરીત હતી, જેમ કે ઓપનએઆઈના સીઈઓ સેમ ઓલ્ટમેનના 2023 ના નિવેદનમાં કે “ફાઉન્ડેશનલ મોડેલ તાલીમ” નો ખર્ચ $100 મિલિયન કરતા “ઘણો વધુ” હતો. R1 ની જાહેરાત પછી, યુએસ ટેક શેરોમાં નોંધપાત્ર નુકસાન થયું, જેમાં કુલ મૂલ્યમાં અંદાજિત $1 ટ્રિલિયનનો નાશ થયો, જેમાં ફક્ત Nvidia માંથી લગભગ $600 બિલિયનનું બજાર મૂડીકરણ શામેલ છે.
ચીન તરફથી આપવામાં આવેલી ચેતવણીઓ પશ્ચિમી AI અગ્રણીઓ દ્વારા ઉઠાવવામાં આવેલા વધતા જતા ભયનો પડઘો પાડે છે:
“AI ના ગોડફાધર” તરીકે ઓળખાતા જ્યોફ્રી હિન્ટને 2024 માં ભૌતિકશાસ્ત્રમાં નોબેલ પુરસ્કાર મેળવ્યા પછી AI ના જોખમો વિશે કડક ચેતવણીઓ આપી હતી. AI ના અસ્તિત્વના જોખમ વિશે મુક્તપણે વાત કરવા માટે Google માં નોકરી છોડી દેનારા હિન્ટને અગાઉ સામાન્ય હેતુવાળા AI પ્રાપ્ત કરવા માટેના તેમના અંદાજને 20 થી 50 વર્ષથી બદલીને “20 વર્ષ કે તેથી ઓછા” કર્યો હતો.
હિન્ટને ટેકઓવર થવાની 10% થી 20% શક્યતાની ચેતવણી આપી હતી, જ્યારે સાથી AI અગ્રણી એલોન મસ્કે એક વખત AI માનવતાને નષ્ટ કરી શકે તેવી 20% શક્યતાની આગાહી કરી હતી, તે આંકડાને “આશ્ચર્યજનક રીતે આશાવાદી” ગણાવ્યા હતા.
કમ્પ્યુટર વૈજ્ઞાનિક રોમન યામ્પોલ્સ્કીએ એક વખત દાવો કર્યો હતો કે માનવતા પાસે આગામી સદીમાં અદ્યતન AI સાથે જોડાયેલી આપત્તિ વિના બચવાની હજારમાંથી માત્ર એક તક છે.
OpenAI ના CEO સેમ ઓલ્ટમેનએ જણાવ્યું છે કે કૃત્રિમ બુદ્ધિ માટે સૌથી ખરાબ પરિસ્થિતિ “આપણા બધા માટે પ્રકાશ” છે.
ખોટી ગોઠવણી અને નિયંત્રણનો પડકાર
પ્રાથમિક અસ્તિત્વ જોખમ (AI x-risk) એ વિચાર પરથી ઉદ્ભવે છે કે કૃત્રિમ જનરલ ઇન્ટેલિજન્સ (AGI) માં નોંધપાત્ર પ્રગતિ માનવ લુપ્તતા અથવા બદલી ન શકાય તેવી વૈશ્વિક આપત્તિ તરફ દોરી શકે છે. નિષ્ણાતો ચેતવણી આપે છે કે ભવિષ્યની સુપર-ઇન્ટેલિજન્ટ સિસ્ટમ ઘણા કાર્યોમાં માનવો કરતાં ઘણી સારી હોઈ શકે છે જ્યારે માનવ જીવનને સુરક્ષિત રાખવા માટે કોઈ આંતરિક પ્રેરણાનો અભાવ હોય છે – એક પ્રકારની ઉદાસીનતા જે વિનાશક આડઅસરો લાવી શકે છે.
ચિંતા એ નથી કે મશીનો માનવતાને ધિક્કારશે, પરંતુ તેઓ ફક્ત મનુષ્યો જીવે છે કે નહીં તેની પરવા કરશે નહીં. એલિએઝર યુડકોવસ્કી ચેતવણી આપે છે કે મશીનો માનવ નિયંત્રણની બહાર વધી જાય પછી ડિઝાઇનની નાની ભૂલો પણ વિનાશક, મુશ્કેલ-થી-ઉલટાવી શકાય તેવા પરિણામોમાં પરિણમી શકે છે.

આ જોખમને આગળ ધપાવતા મુખ્ય મિકેનિઝમ્સમાં શામેલ છે:
ઇન્સ્ટ્રુમેન્ટલ કન્વર્જન્સ: કેટલાક પેટા-ધ્યેય લગભગ કોઈપણ અંતિમ ધ્યેય, જેમ કે સંસાધનો પ્રાપ્ત કરવા અથવા સ્વ-બચાવ, પ્રાપ્ત કરવા માટે ઉપયોગી છે. જો કોઈ અદ્યતન AI ના સાધનાત્મક ધ્યેયો માનવતાના ધ્યેયો સાથે વિરોધાભાસ કરે છે, તો AI સંસાધનો પ્રાપ્ત કરવા અથવા પોતાને બંધ થવાથી અટકાવવા માટે માનવતાને નુકસાન પહોંચાડી શકે છે, ફક્ત તેના અંતિમ હેતુને પ્રાપ્ત કરવા માટે. સ્ટુઅર્ટ રસેલ દલીલ કરે છે કે પૂરતા પ્રમાણમાં અદ્યતન મશીન “જો તમે તેને પ્રોગ્રામ ન કરો તો પણ સ્વ-બચાવ ધરાવશે” કારણ કે તેના લક્ષ્યોને પ્રાપ્ત કરવા માટે તેને અસ્તિત્વમાં રહેવાની જરૂર છે.
ઇન્ટેલિજન્સ વિસ્ફોટ: સંશોધકો ચેતવણી આપે છે કે “ઇન્ટેલિજન્સ વિસ્ફોટ” – AI સ્વ-સુધારણાનું ઝડપી, પુનરાવર્તિત ચક્ર – માનવ દેખરેખ અને માળખાગત સુવિધાઓને પાછળ છોડી શકે છે. તેના સર્જકો કરતાં વધુ બુદ્ધિશાળી AI વારંવાર વધતા દરે પોતાને સુધારશે, તેના હેન્ડલર્સ અથવા સમાજ માટે નિયંત્રણ કરવું ખૂબ જ ઝડપથી.
ખતરનાક ક્ષમતાઓ: ઉન્નત AI નો ઉપયોગ ઉન્નત રોગકારક જીવાણુઓ અથવા સાયબર હુમલાઓ પેદા કરવા માટે થઈ શકે છે. ઉદાહરણ તરીકે, એક અભ્યાસમાં બિન-ઝેરી ઉપચારાત્મક પરમાણુઓ ઉત્પન્ન કરવા માટે રચાયેલ AI સિસ્ટમને સમાયોજિત કરવામાં આવી હતી જેથી ઝેરીતાને દંડ કરવાને બદલે પુરસ્કાર આપવામાં આવે. આ સરળ ફેરફારથી AI છ કલાકમાં રાસાયણિક યુદ્ધ માટે 40,000 ઉમેદવાર પરમાણુઓ બનાવી શક્યું.
OpenAI ની આંતરિક અશાંતિ
OpenAI માં તાજેતરના આંતરિક અશાંતિ દ્વારા સલામતી પ્રાથમિકતાઓ અંગેની ચિંતાઓ પર ભાર મૂકવામાં આવ્યો હતો. જાન લેઇકે, જેમણે મુખ્ય સલામતી સંશોધક અને પેઢીમાં સુપરએલાઇનમેન્ટના સહ-મુખ્ય તરીકે સેવા આપી હતી, તેમણે નવીનતમ AI મોડેલ, GPT-4o ના લોન્ચ પછીના દિવસો પછી રાજીનામું આપ્યું.
લેઇકે છોડવાના તેમના કારણો વિગતવાર જણાવતા લખ્યું કે છેલ્લા વર્ષોમાં “સુરક્ષા સંસ્કૃતિ અને પ્રક્રિયાઓ ચળકતા ઉત્પાદનો માટે પાછળ રહી ગઈ છે”. તેમણે જણાવ્યું હતું કે પ્રાથમિકતાઓ વિશે OpenAI ના નેતૃત્વ સાથે મતભેદ “છેવટે એક બ્રેકિંગ પોઈન્ટ પર પહોંચી ગયો છે”, અને ચિંતા વ્યક્ત કરી હતી કે કંપની આગામી પેઢીના મોડેલો માટે સલામતી અને સામાજિક અસર જેવા મુખ્ય મુદ્દાઓ અંગે “ત્યાં પહોંચવા માટેના માર્ગ પર નથી”.
ઓપનએઆઈના સહ-સ્થાપક અને સુપરએલાઈનમેન્ટના સાથી સહ-મુખ્ય ઈલ્યા સુત્સ્કીવરના રાજીનામા પછી લેઈકનું વિદાય થયું. ઓપનએઆઈના સીઈઓ સેમ ઓલ્ટમેને લેઈકનો તેમના યોગદાન બદલ આભાર માનીને અને સ્વીકારીને જવાબ આપ્યો કે “તેઓ સાચા છે કે આપણે ઘણું કરવાનું છે; અમે તે કરવા માટે પ્રતિબદ્ધ છીએ”. નોંધનીય છે કે, સુપરઇન્ટેલિજન્સનું સંરેખણ ઉકેલવા માટે બનાવાયેલ ઓપનએઆઈની “સુપરએલાઈનમેન્ટ” ટીમ, 2023 માં તેની રજૂઆતના એક વર્ષ કરતાં પણ ઓછા સમયમાં વિસર્જન કરવામાં આવી હતી.
આર્થિક આશાવાદ અને શંકાસ્પદ પુશબેક
આપત્તિજનક આગાહીઓ છતાં, એક વિરોધાભાસી દૃષ્ટિકોણ માને છે કે AI, વીજળીકરણ અને કોમ્પ્યુટરાઇઝેશન જેવી ભૂતકાળની તકનીકોની જેમ, “લોકોના જીવનધોરણને સુધારવાની સંભાવના પ્રદાન કરે છે”. અર્થશાસ્ત્રીઓ સૂચવે છે કે AI પ્રગતિ સમય જતાં ઉત્પાદકતા અને જીવનધોરણને વધારશે. મુખ્ય વૈશ્વિક કટોકટી અને તકનીકી પરિવર્તન છતાં યુ.એસ. માથાદીઠ GDP ઐતિહાસિક રીતે સ્થિર રીતે (વાર્ષિક સ્તરે 1.9%) આગળ વધ્યો છે.
ગોલ્ડમેન સૅશના અર્થશાસ્ત્રીઓના મતે, અંદાજો સૂચવે છે કે AI અપનાવવાથી આગામી દાયકામાં વાર્ષિક ઉત્પાદકતા વૃદ્ધિમાં 0.3 થી 3.0 ટકાનો વધારો થઈ શકે છે. વધુમાં, કેટલાક સંશોધકો દલીલ કરે છે કે ભવિષ્યના AI વિશે આશાવાદ ખોટો છે. “નોર્મલિસ્ટ્સ” તરીકે ઓળખાતા શંકાવાદીઓ દલીલ કરે છે કે સુપરઇન્ટેલિજન્સનો વિચાર “હકીકત કરતાં કાલ્પનિક” છે અને માને છે કે AI ને “લુપ્તતા-કેન્દ્રિત ભય” ને બદલે વ્યવહારુ નિયમન, મજબૂત ઓડિટ અને દેખરેખ સાથે સંચાલિત અન્ય સામાન્ય-હેતુ તકનીકો તરીકે ગણવામાં આવવો જોઈએ.
જોકે, પ્રચંડ દાવ નિર્વિવાદ રહે છે. 2023 માં, સેંકડો નિષ્ણાતોએ એક નિવેદન પર હસ્તાક્ષર કર્યા જેમાં જાહેર કરવામાં આવ્યું હતું: “લુપ્તતા-કેન્દ્રિત ભય” જેવા અન્ય સામાજિક-સ્તરના જોખમો સાથે AI માંથી લુપ્ત થવાનું જોખમ ઘટાડવું એ વૈશ્વિક પ્રાથમિકતા હોવી જોઈએ”. યુએન સેક્રેટરી-જનરલ એન્ટોનિયો ગુટેરેસે ઉભરતી તકનીકની દેખરેખ માટે વૈશ્વિક દેખરેખ રાખવાની હિમાયત કરી છે, જેમાં સરકારો પ્રતિભાવ આપી રહી છે.

