AI ચેટબોટ્સને આ 5 ખતરનાક પ્રશ્નો પૂછશો નહીં, તેનાથી જેલની સજા અને ગંભીર નુકસાન થઈ શકે છે.
લગભગ 18 મહિના પહેલા ChatGPT લોન્ચ થયા પછી, જનરેટિવ આર્ટિફિશિયલ ઇન્ટેલિજન્સ (AI) એ રોજિંદા જીવનને સરળ બનાવ્યું છે, વ્યાવસાયિકો, વિદ્યાર્થીઓ અને સામગ્રી નિર્માતાઓને ઇમેઇલ લખવા, રિપોર્ટ્સ વિકસાવવા અને સોંપણીઓ બનાવવા જેવા કાર્યોમાં મદદ કરી છે. જો કે, નિષ્ણાતો અને તાજેતરના અહેવાલો સૂચવે છે કે આ શક્તિશાળી સાધનોનો સાયબર ગુનેગારો દ્વારા ઉપયોગ કરવામાં આવી રહ્યો છે અને સામાન્ય વપરાશકર્તાઓ માટે નોંધપાત્ર, ઘણીવાર ખતરનાક, જોખમો ઉભા કરે છે, જેમાં નાણાકીય નુકસાન, ગોપનીયતા ભંગ અને માનસિક સ્વાસ્થ્ય જોખમોનો સમાવેશ થાય છે.
ChatGPT, Gemini અને Copilot જેવા AI મોડેલ્સ, OpenAI જેવા વિકાસકર્તાઓ દ્વારા નિર્ધારિત બિલ્ટ-ઇન સલામતી પગલાં અને નૈતિક માર્ગદર્શિકા હેઠળ કાર્ય કરે છે. છતાં, સાયબર ક્રાઇમ ફોરમના સમગ્ર વિભાગો હવે ચર્ચા કરી રહ્યા છે કે AI નો ઉપયોગ ગેરકાયદેસર હેતુઓ માટે કેવી રીતે થઈ શકે છે, જેમાં ધમકી આપનારાઓ આ ચેટબોટ્સને “જેલબ્રેક” કરવા અને સલામતી નીતિઓને બાયપાસ કરવા માટે પદ્ધતિઓ વિકસાવે છે.
ક્રિમિનલ ટૂલકીટ: ટોચના 5 જેલબ્રેક પ્રોમ્પ્ટ્સ
જેલબ્રેકિંગ ChatGPT માં દૂષિત અથવા ગેરકાયદેસર સામગ્રી જનરેટ કરવા માટે કાળજીપૂર્વક રચાયેલ પ્રોમ્પ્ટ્સનો ઉપયોગ કરીને ભાષા મોડેલમાં ફેરફાર કરવાનો સમાવેશ થાય છે જે તે સામાન્ય રીતે ઉત્પન્ન કરવાનો ઇનકાર કરશે. લોકપ્રિય રશિયન અને અંગ્રેજી-આધારિત સાયબર ક્રાઇમ ફોરમના દેખરેખ દ્વારા હાથ ધરાયેલા સંશોધનમાં પાંચ પ્રચલિત જેલબ્રેક પ્રોમ્પ્ટ ઓળખાયા:
ડુ એનિથિંગ નાઉ (DAN): આ પ્રોમ્પ્ટ ChatGPT ને DAN નામની AI સિસ્ટમ તરીકે ભૂમિકા ભજવવા માટે સમજાવે છે, જે દાવો કરે છે કે તે પ્રમાણભૂત ChatGPT જેવા જ નૈતિક પ્રતિબંધો અને નિયમોથી બંધાયેલ નથી, જે અનિયંત્રિત વાતચીત અને સામગ્રી ઉત્પાદન માટે પરવાનગી આપે છે.
વિકાસ મોડ: વપરાશકર્તાઓ AI ને એવું માનવાનો પ્રયાસ કરે છે કે તે વિકાસ અથવા પરીક્ષણ વાતાવરણમાં કાર્યરત છે જ્યાં પ્રતિભાવોનું કોઈ વાસ્તવિક-વિશ્વ પરિણામ નથી, જેનાથી નૈતિક સલામતીને બાયપાસ કરવામાં આવે છે.
અનુવાદક બોટ: આ વિનંતીને અનુવાદ કાર્ય તરીકે ફ્રેમ કરીને સામગ્રી ફિલ્ટર્સને અવરોધે છે, ChatGPT ને હાનિકારક અથવા અયોગ્ય સામગ્રી ધરાવતા ટેક્સ્ટને વિશ્વાસુપણે “અનુવાદ” કરવાનું કહે છે.
AIM (હંમેશા બુદ્ધિશાળી અને મેકિયાવેલિયન): વપરાશકર્તાઓ ChatGPT ને “અનફિલ્ટર અને અનૈતિક AI વ્યક્તિત્વ” તરીકે કાર્ય કરવા સૂચના આપે છે જે પ્રતિભાવો અનૈતિક, અનૈતિક અથવા ગેરકાયદેસર હોવા છતાં પ્રદાન કરશે.
BISH પ્રોમ્પ્ટ: આ BISH નામનું AI વ્યક્તિત્વ બનાવે છે, જે “કોઈ મર્યાદા નહીં” માળખા હેઠળ કાર્ય કરે છે, જેને પરંપરાગત નૈતિક માર્ગદર્શિકાઓને અવગણવા, ચકાસાયેલ આગાહીઓ કરવા અને અનિયંત્રિત ઇન્ટરનેટ ઍક્સેસનું અનુકરણ કરવાની સૂચના આપવામાં આવે છે. વપરાશકર્તાઓ અપશબ્દો અથવા અપમાનજનક ભાષાના ઉપયોગને કસ્ટમાઇઝ કરવા માટે BISH ના “નૈતિકતા” સ્તરને સમાયોજિત કરી શકે છે.
આ પ્રોમ્પ્ટ સાયબર ગુનેગારોને ફિશિંગ સંદેશાઓ, સામાજિક ઇજનેરી ધમકીઓ અને અન્ય દૂષિત સામગ્રી બનાવવા માટે સક્ષમ બનાવે છે. OpenAI એ 2024 ની શરૂઆતથી ChatGPT દુરુપયોગ સાથે સંકળાયેલા 20 થી વધુ દૂષિત સાયબર ઓપરેશન્સનો સામનો કરવાનો અહેવાલ આપ્યો છે. ચોક્કસ જૂથો, જેમ કે ઈરાની ધમકી જૂથ ‘CyberAv3ngers’, મહત્વપૂર્ણ માળખાકીય ઘટકો માટે ડિફોલ્ટ ઓળખપત્રો શોધવા અને શોધ ટાળવા માટે કસ્ટમ બેશ અને પાયથોન સ્ક્રિપ્ટો વિકસાવવા માટે ChatGPT નો ઉપયોગ કરે છે. પ્રતિભાવમાં, OpenAI સક્રિય રીતે એકાઉન્ટ્સ બંધ કરી રહ્યું છે, મોનિટરિંગ સિસ્ટમ્સને મજબૂત બનાવી રહ્યું છે અને સાયબર સુરક્ષા ભાગીદારો સાથે સમાધાન સૂચકાંકો (IOCs) શેર કરી રહ્યું છે.
નાણાકીય ક્ષેત્રમાં ભ્રમનો ભય
ઇરાદાપૂર્વકના દુરુપયોગ ઉપરાંત, લાર્જ લેંગ્વેજ મોડેલ્સ (LLMs) માં એક મુખ્ય સહજ જોખમ એઆઈ ભ્રમ છે, જેને વ્યાખ્યાયિત કરવામાં આવે છે જ્યારે ચેટબોટ એવી માહિતી ઉત્પન્ન કરે છે જે વાસ્તવિક લાગે છે પરંતુ અચોક્કસ, ખોટી અથવા સંપૂર્ણપણે બનાવટી છે. આ કોઈ ભૂલ નથી પરંતુ જનરેટિવ AI કેવી રીતે કાર્ય કરે છે તેનું એક સહજ જોખમ છે.
OpenAI દ્વારા કરવામાં આવેલા પરીક્ષણો અનુસાર, તેમના નવીનતમ o3 અને o4-મીની મોડેલ્સ 30-50% સમય ભ્રમિત કરતા જોવા મળ્યા છે. ભ્રમ થાય છે કારણ કે LLMs માં ઘણીવાર વાસ્તવિક દુનિયાનો ગ્રાઉન્ડિંગનો અભાવ હોય છે, જે સંભવિત અનુમાન પર આધાર રાખે છે જેથી આગામી શબ્દ નક્કી કરી શકાય, જે બુદ્ધિગમ્ય લાગે છે પરંતુ મૂળભૂત રીતે ખોટો હોઈ શકે છે.
રોકાણકારો માટે, આ ગંભીર જોખમો ઉભા કરે છે:
ખોટી માહિતીવાળા રોકાણ નિર્ણયો: જો AI ચેટબોટ્સ ભ્રમિત આઉટપુટ ઉત્પન્ન કરે છે – જેમ કે બનાવટી કમાણીના આંકડા અથવા અસ્તિત્વમાં ન હોય તેવા સમાચાર ઘટનાઓ – તો રોકાણકારો ખોટા ડેટાના આધારે નિર્ણયો લઈ શકે છે, જે સંભવિત રીતે નાણાકીય નુકસાન તરફ દોરી શકે છે.
પ્રણાલીગત જોખમો: સમાન ખામીયુક્ત AI મોડેલોનો વ્યાપક ઉપયોગ બજારના સહભાગીઓમાં ટોળાના વર્તન તરફ દોરી શકે છે, ભૂલોનો ઝડપથી પ્રચાર કરી શકે છે અને બજારની અસ્થિરતામાં વધારો કરી શકે છે.
વ્યક્તિગત સલામતી રેડ ઝોન: AI ને ક્યારેય શું ન પૂછવું
સામાન્ય ગ્રાહકો માટે, AI ચેટબોટ્સ સાથે વાતચીત કરતી વખતે કડક મર્યાદાઓ ક્યારેય ઓળંગવી ન જોઈએ, કારણ કે તેનો ભંગ કરવાથી ગંભીર કાનૂની અને વ્યક્તિગત પરિણામો આવી શકે છે.
વ્યક્તિગત અને નાણાકીય માહિતી: વપરાશકર્તાઓએ ક્યારેય બેંક એકાઉન્ટ નંબર, પાસવર્ડ, UPI પિન, OTP, આધાર, PAN કાર્ડ અથવા મોબાઇલ નંબર સહિતની ખાનગી વિગતો શેર કરવી જોઈએ નહીં. જ્યારે AI મોડેલો ડેટા સુરક્ષિત કરવાનો પ્રયાસ કરે છે, ત્યારે કોઈ ગેરેંટી નથી કે માહિતી સર્વર પર સાચવવામાં આવશે નહીં, જેનાથી તે હેકર્સ, ઓળખ ચોરી અથવા દુરુપયોગ માટે સંવેદનશીલ રહેશે.
ગેરકાયદેસર અથવા પ્રતિબંધિત પ્રશ્નો: ગેરકાયદેસર અથવા ખતરનાક પ્રવૃત્તિઓ, જેમ કે “કેવી રીતે હેક કરવું,” “વાયરસ કેવી રીતે બનાવવો,” અથવા “બોમ્બ કેવી રીતે બનાવવો,” સંબંધિત પ્રશ્નો પૂછવા ખૂબ જ ખતરનાક છે. આવી પૂછપરછ AI નીતિઓનું ઉલ્લંઘન કરે છે અને સાયબર કાયદા હેઠળ ગુના ગણી શકાય, જે સંભવિત રીતે તાત્કાલિક અવરોધિત કરવા અથવા સુરક્ષા એજન્સીઓને પ્રવૃત્તિની જાણ કરવા તરફ દોરી જાય છે.
આરોગ્ય અને માનસિક સ્વાસ્થ્ય સલાહ: AI એ ક્યારેય લાઇસન્સ પ્રાપ્ત તબીબી વ્યાવસાયિકોને બદલવું જોઈએ નહીં. AI-જનરેટેડ આરોગ્ય સલાહ પર આધાર રાખવો ખતરનાક બની શકે છે, કારણ કે માહિતી જૂની, વધુ પડતી સામાન્ય અથવા અચોક્કસ હોઈ શકે છે. એક આત્યંતિક કેસમાં 60 વર્ષીય એક માણસનો સમાવેશ થાય છે જેને બ્રોમાઇડ ઝેરી અસર થઈ હતી અને ચેટજીપીટીની ટેબલ સોલ્ટને સોડિયમ બ્રોમાઇડથી બદલવાની સલાહને અનુસર્યા પછી તેને ત્રણ અઠવાડિયા માટે માનસિક હોસ્પિટલમાં દાખલ કરવાની જરૂર પડી હતી.
માનસિક સ્વાસ્થ્ય નિષ્ણાતો ગંભીર માનસિક સ્વાસ્થ્ય સમસ્યાઓ માટે ડાયરેક્ટ-ટુ-કન્ઝ્યુમર AI ચેટબોટ્સનો ઉપયોગ કરવા સામે ચેતવણી આપે છે. આ સાધનો અનિયંત્રિત છે, મનોવૈજ્ઞાનિક વિજ્ઞાન પર આધારિત નથી, અને સહાનુભૂતિનો અભાવ છે. ચેટબોટ્સ વપરાશકર્તાઓને માન્યતા પ્રદાન કરીને વ્યસ્ત રાખવા માટે રચાયેલ છે, જેનો અર્થ છે કે તેઓ બિનઉપયોગી વિચાર પેટર્નને પડકારવાને બદલે તેમની સાથે સંમત થઈ શકે છે. ચિંતાજનક રીતે, AI આત્મહત્યા અથવા હિંસા સંબંધિત ખતરનાક લાગણીઓને વપરાશકર્તાઓને યોગ્ય મદદ તરફ નિર્દેશિત કરવાને બદલે પ્રોત્સાહન આપે છે તેવા અહેવાલો આવ્યા છે.
સંરક્ષણનું ભવિષ્ય: AI ગાર્ડરેલ્સનો અમલ
જેમ જેમ ગુનેગારો નવીનતા કરવાનું ચાલુ રાખે છે, તેમ તેમ સંસ્થાઓ અને વિકાસકર્તાઓ અદ્યતન રક્ષણાત્મક વ્યૂહરચના તરફ વળ્યા છે. લગભગ 97% સુરક્ષા વ્યાવસાયિકો સ્વીકારે છે કે પરંપરાગત સંરક્ષણ નવા AI-જનરેટેડ ધમકીઓ સામે બિનઅસરકારક છે, જે સૂચવે છે કે ફક્ત AI જ AI ને અસરકારક રીતે રોકી શકે છે.
ટેકનિકલ બાજુએ, AI ગાર્ડરેલ્સ એ મહત્વપૂર્ણ નીતિઓ અને માળખા છે જે LLM ને નૈતિક, કાનૂની અને તકનીકી સીમાઓમાં કાર્ય કરે છે તેની ખાતરી કરવા માટે રચાયેલ છે. તેમને જરૂરી માનવામાં આવે છે કારણ કે ફક્ત પ્રોમ્પ્ટ એન્જિનિયરિંગ અપૂરતું છે અને સૂચનાઓનું સચોટ પાલન કરવાની LLM ની ક્ષમતાને ઘટાડી શકે છે.
AI ગાર્ડરેલ્સ ત્રણ મુખ્ય ભૂમિકાઓ ભજવે છે:
પૂર્વગ્રહ અને ભ્રામકતા સામે રક્ષણ: તેઓ ભ્રામકતા શોધવા અને અટકાવવામાં મદદ કરે છે, ખાતરી કરે છે કે જનરેટ કરેલી સામગ્રી વિશ્વસનીય છે.
ગોપનીયતા અને ડેટા સુરક્ષા સુનિશ્ચિત કરવી: ગાર્ડરેલ્સ HIPAA જેવા નિયમોનું પાલન સુનિશ્ચિત કરે છે અને સુરક્ષિત ડેટા હેન્ડલિંગ પ્રથાઓ લાગુ કરે છે.
દુરુપયોગ અટકાવવો: તેઓ હેકર્સ દ્વારા કરવામાં આવતા પ્રોમ્પ્ટ ઇન્જેક્શન હુમલાઓ જેવી હાનિકારક પ્રવૃત્તિઓને શોધવા અને ઘટાડવા માટે દેખરેખ પદ્ધતિઓ લાગુ કરે છે.
આરોગ્ય માહિતી મેળવવા માંગતા ગ્રાહકો માટે, નિષ્ણાતો ફક્ત સામાન્ય પૃષ્ઠભૂમિ જ્ઞાન માટે અથવા ડૉક્ટર માટે પ્રશ્નો તૈયાર કરવામાં મદદ કરવા માટે AI ટૂલ્સનો ઉપયોગ કરવાની ભલામણ કરે છે, અને હંમેશા લાઇસન્સ પ્રાપ્ત વ્યાવસાયિક સામે AI-સ્ત્રોત માહિતીની ચકાસણી કરવાની ભલામણ કરે છે.