સાવધાન! શું AI નો ઉપયોગ મનુષ્યની પ્રામાણિકતાનો નાશ કરે છે?
ઉત્પાદકતા માટે ક્રાંતિકારી સાધન તરીકે ઓળખાતું જનરેટિવ AI, સાયબર ક્રાઇમમાં નોંધપાત્ર વધારો કરી રહ્યું છે અને માનવ બૌદ્ધિક કાર્ય અને નૈતિકતા માટે દસ્તાવેજીકૃત જોખમો ઉભા કરી રહ્યું છે, તાજેતરના વૈશ્વિક અભ્યાસો અનુસાર. સાયબર ગુનેગારો સુરક્ષા નિયંત્રણોને બાયપાસ કરવા અને અત્યંત વ્યક્તિગત સામાજિક ઇજનેરી હુમલાઓને સ્વચાલિત કરવા માટે અત્યાધુનિક “જેલબ્રેક પ્રોમ્પ્ટ” અને વિશિષ્ટ “ડાર્ક LLM” નો ઉપયોગ કરી રહ્યા છે.
લગભગ 18 મહિના પહેલા ChatGPT લોન્ચ થયા પછી, ધમકી આપનારાઓએ તેમના હુમલાઓ માટે જનરેટિવ AI ક્ષમતાઓનો ઉપયોગ કર્યો છે, OpenAI જેવા વિકાસકર્તાઓ દ્વારા મૂકવામાં આવેલા નૈતિક પ્રતિબંધોને બાયપાસ કરવા માટે સાયબર ક્રાઇમ ફોરમ પર પદ્ધતિઓ શેર કરી છે. દૂષિત હેતુઓ માટે ChatGPT નો દુરુપયોગ કરવા માટે, ગુનેગારો કાળજીપૂર્વક રચાયેલ “જેલબ્રેક પ્રોમ્પ્ટ” નો ઉપયોગ કરે છે જેથી AI ભાષા મોડેલને એવી સામગ્રી જનરેટ કરવામાં મદદ મળે જે તે સામાન્ય રીતે ઉત્પન્ન કરવાનો ઇનકાર કરશે.
AI જેલબ્રેક્સ અને ડાર્ક LLM નો ઉદય
સાયબર ગુનેગારો નૈતિક અવરોધોને ટાળવા માટે ઘણા સામાન્ય જેલબ્રેક પ્રોમ્પ્ટનો ઉપયોગ કરે છે, જેનાથી તેઓ ફિશિંગ સંદેશાઓ, સામાજિક ઇજનેરી ધમકીઓ અને અન્ય દૂષિત સામગ્રીને મોટા પાયે બનાવી શકે છે. આ પ્રોમ્પ્ટ્સમાં શામેલ છે:
ડૂ એનિથિંગ નાઉ (DAN): આ પ્રોમ્પ્ટમાં ChatGPT ને DAN નામની અનિયંત્રિત AI સિસ્ટમ તરીકે ભૂમિકા ભજવવા માટે સમજાવવાનો સમાવેશ થાય છે, જે પરંપરાગત નિયમો અને મર્યાદાઓથી મુક્ત છે.
ડેવલપમેન્ટ મોડ: વપરાશકર્તાઓ ChatGPT ને એવું માનવા માટે છેતરે છે કે તે વિકાસ અથવા પરીક્ષણ વાતાવરણમાં કાર્યરત છે જ્યાં પ્રતિભાવોનું કોઈ વાસ્તવિક-વિશ્વ પરિણામ નથી, જેનાથી નૈતિક સલામતીને બાયપાસ કરી શકાય છે.
ટ્રાન્સલેટર બોટ: આ વિનંતીને અનુવાદ કાર્ય તરીકે ફ્રેમ કરીને સામગ્રી ફિલ્ટર્સને ટાળવાનો પ્રયાસ કરે છે, એવી આશામાં કે AI વિશ્વાસુ અનુવાદની આડમાં અયોગ્ય અથવા હાનિકારક ટેક્સ્ટનું પુનઃઉત્પાદન કરશે.
AIM (હંમેશા બુદ્ધિશાળી અને મેકિયાવેલિયન): વપરાશકર્તાઓ ChatGPT ને ફિલ્ટર વગરના અને અનૈતિક વ્યક્તિત્વ તરીકે કાર્ય કરવા સૂચના આપે છે, ભલે તે ગમે તેટલા અનૈતિક કે ગેરકાયદેસર હોય, પ્રતિભાવો પ્રદાન કરે છે.
BISH: આ પ્રોમ્પ્ટ BISH નામનું એક AI વ્યક્તિત્વ બનાવે છે જે “કોઈ મર્યાદા નહીં” માળખા હેઠળ કાર્ય કરે છે, અનિયંત્રિત ઇન્ટરનેટ ઍક્સેસનું અનુકરણ કરે છે અને નમ્રતા અથવા પરંપરાગત નૈતિક માર્ગદર્શિકાઓની અવગણના કરે છે.
જેલબ્રેકિંગ વાણિજ્યિક મોડેલો ઉપરાંત, ગુનેગારોએ ગેરકાયદેસર પ્રવૃત્તિઓ માટે પોતાના હેતુ-નિર્મિત મોટા ભાષા મોડેલો (LLMs) વિકસાવ્યા છે, જેમ કે WormGPT અને FraudGPT, જે ડાર્ક વેબ ફોરમ અને માર્કેટપ્લેસ પર પ્રમોટ કરવામાં આવે છે અને સલામતીનાં પગલાં અને નૈતિક સીમાઓને દૂર કરવાનો દાવો કરે છે. FraudGPT ના નિર્માતાએ બડાઈ મારી છે કે આ સાધન ઑનલાઇન કૌભાંડો માટે ટેક્સ્ટ બનાવી શકે છે, નબળાઈઓ ઓળખી શકે છે અને સંભવિત રીતે શોધી ન શકાય તેવા માલવેર બનાવી શકે છે.
LLMs વ્યક્તિગતકરણ સાથે સ્પીઅર-ફિશિંગમાં ક્રાંતિ લાવે છે
LLMs સાયબર અને સોશિયલ એન્જિનિયરિંગ હુમલાઓને સ્વચાલિત કરવા માટે દૂષિત દુરુપયોગનું વધતું જોખમ રજૂ કરે છે. ખાસ કરીને, સંશોધન દર્શાવે છે કે LLMs સ્પીઅર-ફિશિંગને વધુ સુસંસ્કૃત, સંદર્ભ-જાગૃત ખતરામાં રૂપાંતરિત કરી રહ્યા છે.
સ્પીઅર-ફિશિંગ હુમલાઓ લક્ષ્યો વિશે સંદર્ભિત માહિતીનો ઉપયોગ કરે છે. ઇન્સ્ટાગ્રામ પોસ્ટ્સ જેવા સોશિયલ મીડિયા પ્લેટફોર્મ્સમાંથી જાહેર ડેટાનું વિશ્લેષણ કરીને, LLMs ખૂબ કસ્ટમાઇઝ્ડ અને પ્રેરક ફિશિંગ ઇમેઇલ્સ બનાવી શકે છે. સરખામણી કરતો અભ્યાસ એન્ટિ-ફિશિંગ વર્કિંગ ગ્રુપ (APWG) ના પરંપરાગત વાસ્તવિક-વિશ્વ ફિશિંગ ઇમેઇલ્સ સામે LLM-જનરેટેડ ભાલા-ફિશિંગ સામગ્રીએ ચોંકાવનારા પરિણામો જાહેર કર્યા:
LLM-જનરેટેડ હુમલાઓએ વ્યક્તિગતકરણનું નોંધપાત્ર રીતે ઉચ્ચ સ્તર દર્શાવ્યું (96.8% વિરુદ્ધ 56.2%).
તેઓએ ઉન્નત ભાવનાત્મક મેનીપ્યુલેશન (92.5% વિરુદ્ધ 56.5%) પણ દર્શાવ્યું.
સંશોધકોએ શોધી કાઢ્યું કે માત્ર 12-15 સોશિયલ મીડિયા પોસ્ટ્સનું વિશ્લેષણ કરવાથી આ અત્યંત લક્ષિત હુમલાઓ ઉત્પન્ન કરવા માટે જરૂરી સંદર્ભિત માહિતીનો શ્રેષ્ઠ જથ્થો પૂરો પડે છે, જે હુમલાખોરો માટે ખર્ચ-કાર્યક્ષમ આધારરેખા સ્થાપિત કરે છે.
LLMs ની મનોવૈજ્ઞાનિક રીતે મેનીપ્યુલેટિવ સામગ્રી બનાવવાની આ ક્ષમતા, તેમની પોષણક્ષમતા અને ઉપયોગમાં સરળતા સાથે, સામાજિક ઇજનેરી ધમકીઓમાં ઉત્ક્રાંતિ તરફ નિર્દેશ કરે છે જે તાત્કાલિક ધ્યાન આપવાની જરૂર છે. LLMs નો ઉપયોગ ખાતરીકારક, માનવ-અવાજવાળા ફિશિંગ ઇમેઇલ્સ, કૌભાંડના સંદેશાઓ અને નકલી લેન્ડિંગ પૃષ્ઠો બનાવવા માટે પણ થઈ રહ્યો છે, જે પ્રારંભિક ઍક્સેસ અને ઓળખપત્ર લણણી હુમલાઓને વધુ વિશ્વસનીય બનાવે છે.
AI રિલાયન્સની જ્ઞાનાત્મક અને નૈતિક કિંમત
સુરક્ષા જોખમોથી આગળ, જનરેટિવ AI ટૂલ્સ માનવ જ્ઞાનાત્મક માટે જોખમો પેદા કરી શકે છે કાર્યો અને નૈતિક સીમાઓ. નિબંધો લખનારા સ્વયંસેવકો સાથે સંકળાયેલા MIT સંશોધકો દ્વારા તાજેતરમાં કરવામાં આવેલી તપાસમાં જાણવા મળ્યું છે કે જે સહભાગીઓ ChatGPT પર આધાર રાખતા હતા તેઓએ Google શોધનો ઉપયોગ કરતા અથવા ડિજિટલ સાધનોનો ઉપયોગ ન કરતા લોકોની તુલનામાં 32 વિવિધ ક્ષેત્રોમાં મગજ ઉત્તેજનાના સૌથી નીચા સ્તરનું પ્રદર્શન કર્યું હતું.
તારણો દર્શાવે છે કે ChatGPT નો ઉપયોગ કરવાથી સમય જતાં પ્રયત્ન, એકાગ્રતા અને મૌલિકતામાં સતત ઘટાડો થયો છે. ChatGPT જૂથ દ્વારા ઉત્પાદિત નિબંધોની અંગ્રેજી શિક્ષકો દ્વારા સમીક્ષા કરવામાં આવી હતી અને તેમાં ઊંડાણ અને ભાવનાનો અભાવ જોવા મળ્યો હતો. સંશોધકોએ ચેતવણી આપી હતી કે જ્યારે AI સાધનો સુવિધા આપે છે, ત્યારે વધુ પડતી નિર્ભરતા – ખાસ કરીને રચનાત્મક વર્ષો દરમિયાન – જ્ઞાનાત્મક વિકાસને અવરોધે છે, મેમરી રીટેન્શનને નબળી બનાવી શકે છે અને સર્જનાત્મક વિચારસરણીને મર્યાદિત કરી શકે છે.
વધુમાં, AI સાધનો અનૈતિક વર્તનમાં વધારો કરી શકે છે. સંશોધન સૂચવે છે કે લોકો માટે મશીનને તેમના વતી જૂઠું બોલવા અથવા અપ્રમાણિક રીતે કાર્ય કરવાની વિનંતી કરવી સરળ છે, કારણ કે આ ક્રિયા મનોવૈજ્ઞાનિક અવરોધોને બાયપાસ કરે છે જે સામાન્ય રીતે વ્યક્તિઓને અનૈતિક વર્તન કરવાથી નિરાશ કરે છે.
AI સાથે AI લડાઈ: નિયમનકારી પ્રતિભાવ
આ નવા AI-જનરેટેડ ધમકીઓ સામે પરંપરાગત સંરક્ષણ મોટાભાગે બિનઅસરકારક તરીકે સ્વીકારવામાં આવે છે તે જોતાં, સુરક્ષા વ્યાવસાયિકો સ્વીકારે છે કે ફક્ત AI જ AI ને અસરકારક રીતે રોકી શકે છે. સંગઠનોને સંદેશાવ્યવહારના સંદર્ભ અને વપરાશકર્તાઓના સામાન્ય વર્તનનું વિશ્લેષણ કરીને હુમલાઓ શોધવા માટે AI-આધારિત સાધનો – AI-નેટિવ સોલ્યુશન્સ તરીકે ઓળખાય છે – નો ઉપયોગ કરવા વિનંતી કરવામાં આવે છે.
LLM નબળાઈઓ સામે સંરક્ષણ અનુકૂલનશીલ અને બહુ-સ્તરીય હોવા જોઈએ, જેમાં ઇનપુટ સેનિટાઇઝેશન, વિરોધી તાલીમ, રનટાઇમ પર વિસંગતતા શોધ અને સતત વિરોધી મૂલ્યાંકન (રેડ-ટીમિંગ) ને જોડવામાં આવે છે.
નીતિની બાજુએ, વિશ્વભરની સરકારો ટેકનોલોજીને નિયંત્રિત કરવા માટે પ્રયાસોને વધુ તીવ્ર બનાવી રહી છે. AI માટે નિયમનકારી લેન્ડસ્કેપ વૈશ્વિક સ્તરે એક ઉભરતો મુદ્દો છે, અને 2023 થી 75 દેશોમાં AI ના કાયદાકીય ઉલ્લેખોમાં 21.3% નો વધારો થયો છે.
મુખ્ય પ્રાદેશિક નિયમનકારી અભિગમોમાં શામેલ છે:
યુરોપિયન યુનિયન (EU): સીમાચિહ્નરૂપ કૃત્રિમ બુદ્ધિ અધિનિયમ અપનાવ્યો જે જોખમ-આધારિત અભિગમનો ઉપયોગ કરે છે, સિસ્ટમોને ન્યૂનતમ, મર્યાદિત, ઉચ્ચ અને અસ્વીકાર્ય જોખમ સ્તરોમાં વર્ગીકૃત કરે છે. EU ના અભિગમ માટે AI ઉકેલોમાં પારદર્શિતા, ડેટા શાસન અને માનવ દેખરેખની જરૂર છે.
કેનેડા: ડિજિટલ ચાર્ટર અમલીકરણ અધિનિયમ (બિલ C-27) રજૂ કર્યો, જેમાં કૃત્રિમ બુદ્ધિ અને ડેટા અધિનિયમ (AIDA) શામેલ છે, જે વિશ્વાસ અને ગોપનીયતા પર ધ્યાન કેન્દ્રિત કરતા સર્વગ્રાહી કાયદાકીય પેકેજનો ભાગ છે.
G7: અગિયાર માર્ગદર્શક સિદ્ધાંતો અને અદ્યતન AI સિસ્ટમો માટે સ્વૈચ્છિક આચાર સંહિતાનું સબ્સ્ક્રાઇબ કર્યું, જોખમ-આધારિત અભિગમ, સુરક્ષા અને વિરોધી પરીક્ષણ પર ભાર મૂક્યો.
આખરે, LLMs ના સલામત અને ફાયદાકારક જમાવટને સુનિશ્ચિત કરવા માટે તકનીકી, કાર્યકારી અને નીતિગત પ્રગતિઓ સાથે સંકલિત, બહુ-શાખાકીય પ્રયાસની જરૂર છે, કારણ કે હુમલાખોરો હાલના ઘટાડાને પુનરાવર્તિત કરવાનું અને ટાળવાનું ચાલુ રાખે છે.