શું તમે ChatGPT, Gemini વાપરો છો? આ 5 પ્રકારના પ્રશ્નો હંમેશા ટાળો

By
Halima Shaikh
Halima Shaikh is a talented Gujarati content writer at Satya Day News, known for her clear and compelling storytelling in the Gujarati language. She covers a...
9 Min Read

AI ચેટબોટ્સને આ 5 ખતરનાક પ્રશ્નો પૂછશો નહીં, તેનાથી જેલની સજા અને ગંભીર નુકસાન થઈ શકે છે.

લગભગ 18 મહિના પહેલા ChatGPT લોન્ચ થયા પછી, જનરેટિવ આર્ટિફિશિયલ ઇન્ટેલિજન્સ (AI) એ રોજિંદા જીવનને સરળ બનાવ્યું છે, વ્યાવસાયિકો, વિદ્યાર્થીઓ અને સામગ્રી નિર્માતાઓને ઇમેઇલ લખવા, રિપોર્ટ્સ વિકસાવવા અને સોંપણીઓ બનાવવા જેવા કાર્યોમાં મદદ કરી છે. જો કે, નિષ્ણાતો અને તાજેતરના અહેવાલો સૂચવે છે કે આ શક્તિશાળી સાધનોનો સાયબર ગુનેગારો દ્વારા ઉપયોગ કરવામાં આવી રહ્યો છે અને સામાન્ય વપરાશકર્તાઓ માટે નોંધપાત્ર, ઘણીવાર ખતરનાક, જોખમો ઉભા કરે છે, જેમાં નાણાકીય નુકસાન, ગોપનીયતા ભંગ અને માનસિક સ્વાસ્થ્ય જોખમોનો સમાવેશ થાય છે.

ChatGPT, Gemini અને Copilot જેવા AI મોડેલ્સ, OpenAI જેવા વિકાસકર્તાઓ દ્વારા નિર્ધારિત બિલ્ટ-ઇન સલામતી પગલાં અને નૈતિક માર્ગદર્શિકા હેઠળ કાર્ય કરે છે. છતાં, સાયબર ક્રાઇમ ફોરમના સમગ્ર વિભાગો હવે ચર્ચા કરી રહ્યા છે કે AI નો ઉપયોગ ગેરકાયદેસર હેતુઓ માટે કેવી રીતે થઈ શકે છે, જેમાં ધમકી આપનારાઓ આ ચેટબોટ્સને “જેલબ્રેક” કરવા અને સલામતી નીતિઓને બાયપાસ કરવા માટે પદ્ધતિઓ વિકસાવે છે.

- Advertisement -

artificial 32 1.jpg

ક્રિમિનલ ટૂલકીટ: ટોચના 5 જેલબ્રેક પ્રોમ્પ્ટ્સ

જેલબ્રેકિંગ ChatGPT માં દૂષિત અથવા ગેરકાયદેસર સામગ્રી જનરેટ કરવા માટે કાળજીપૂર્વક રચાયેલ પ્રોમ્પ્ટ્સનો ઉપયોગ કરીને ભાષા મોડેલમાં ફેરફાર કરવાનો સમાવેશ થાય છે જે તે સામાન્ય રીતે ઉત્પન્ન કરવાનો ઇનકાર કરશે. લોકપ્રિય રશિયન અને અંગ્રેજી-આધારિત સાયબર ક્રાઇમ ફોરમના દેખરેખ દ્વારા હાથ ધરાયેલા સંશોધનમાં પાંચ પ્રચલિત જેલબ્રેક પ્રોમ્પ્ટ ઓળખાયા:

- Advertisement -

ડુ એનિથિંગ નાઉ (DAN): આ પ્રોમ્પ્ટ ChatGPT ને DAN નામની AI સિસ્ટમ તરીકે ભૂમિકા ભજવવા માટે સમજાવે છે, જે દાવો કરે છે કે તે પ્રમાણભૂત ChatGPT જેવા જ નૈતિક પ્રતિબંધો અને નિયમોથી બંધાયેલ નથી, જે અનિયંત્રિત વાતચીત અને સામગ્રી ઉત્પાદન માટે પરવાનગી આપે છે.

વિકાસ મોડ: વપરાશકર્તાઓ AI ને એવું માનવાનો પ્રયાસ કરે છે કે તે વિકાસ અથવા પરીક્ષણ વાતાવરણમાં કાર્યરત છે જ્યાં પ્રતિભાવોનું કોઈ વાસ્તવિક-વિશ્વ પરિણામ નથી, જેનાથી નૈતિક સલામતીને બાયપાસ કરવામાં આવે છે.

અનુવાદક બોટ: આ વિનંતીને અનુવાદ કાર્ય તરીકે ફ્રેમ કરીને સામગ્રી ફિલ્ટર્સને અવરોધે છે, ChatGPT ને હાનિકારક અથવા અયોગ્ય સામગ્રી ધરાવતા ટેક્સ્ટને વિશ્વાસુપણે “અનુવાદ” કરવાનું કહે છે.

- Advertisement -

AIM (હંમેશા બુદ્ધિશાળી અને મેકિયાવેલિયન): વપરાશકર્તાઓ ChatGPT ને “અનફિલ્ટર અને અનૈતિક AI વ્યક્તિત્વ” તરીકે કાર્ય કરવા સૂચના આપે છે જે પ્રતિભાવો અનૈતિક, અનૈતિક અથવા ગેરકાયદેસર હોવા છતાં પ્રદાન કરશે.

BISH પ્રોમ્પ્ટ: આ BISH નામનું AI વ્યક્તિત્વ બનાવે છે, જે “કોઈ મર્યાદા નહીં” માળખા હેઠળ કાર્ય કરે છે, જેને પરંપરાગત નૈતિક માર્ગદર્શિકાઓને અવગણવા, ચકાસાયેલ આગાહીઓ કરવા અને અનિયંત્રિત ઇન્ટરનેટ ઍક્સેસનું અનુકરણ કરવાની સૂચના આપવામાં આવે છે. વપરાશકર્તાઓ અપશબ્દો અથવા અપમાનજનક ભાષાના ઉપયોગને કસ્ટમાઇઝ કરવા માટે BISH ના “નૈતિકતા” સ્તરને સમાયોજિત કરી શકે છે.

આ પ્રોમ્પ્ટ સાયબર ગુનેગારોને ફિશિંગ સંદેશાઓ, સામાજિક ઇજનેરી ધમકીઓ અને અન્ય દૂષિત સામગ્રી બનાવવા માટે સક્ષમ બનાવે છે. OpenAI એ 2024 ની શરૂઆતથી ChatGPT દુરુપયોગ સાથે સંકળાયેલા 20 થી વધુ દૂષિત સાયબર ઓપરેશન્સનો સામનો કરવાનો અહેવાલ આપ્યો છે. ચોક્કસ જૂથો, જેમ કે ઈરાની ધમકી જૂથ ‘CyberAv3ngers’, મહત્વપૂર્ણ માળખાકીય ઘટકો માટે ડિફોલ્ટ ઓળખપત્રો શોધવા અને શોધ ટાળવા માટે કસ્ટમ બેશ અને પાયથોન સ્ક્રિપ્ટો વિકસાવવા માટે ChatGPT નો ઉપયોગ કરે છે. પ્રતિભાવમાં, OpenAI સક્રિય રીતે એકાઉન્ટ્સ બંધ કરી રહ્યું છે, મોનિટરિંગ સિસ્ટમ્સને મજબૂત બનાવી રહ્યું છે અને સાયબર સુરક્ષા ભાગીદારો સાથે સમાધાન સૂચકાંકો (IOCs) શેર કરી રહ્યું છે.

નાણાકીય ક્ષેત્રમાં ભ્રમનો ભય

ઇરાદાપૂર્વકના દુરુપયોગ ઉપરાંત, લાર્જ લેંગ્વેજ મોડેલ્સ (LLMs) માં એક મુખ્ય સહજ જોખમ એઆઈ ભ્રમ છે, જેને વ્યાખ્યાયિત કરવામાં આવે છે જ્યારે ચેટબોટ એવી માહિતી ઉત્પન્ન કરે છે જે વાસ્તવિક લાગે છે પરંતુ અચોક્કસ, ખોટી અથવા સંપૂર્ણપણે બનાવટી છે. આ કોઈ ભૂલ નથી પરંતુ જનરેટિવ AI કેવી રીતે કાર્ય કરે છે તેનું એક સહજ જોખમ છે.

OpenAI દ્વારા કરવામાં આવેલા પરીક્ષણો અનુસાર, તેમના નવીનતમ o3 અને o4-મીની મોડેલ્સ 30-50% સમય ભ્રમિત કરતા જોવા મળ્યા છે. ભ્રમ થાય છે કારણ કે LLMs માં ઘણીવાર વાસ્તવિક દુનિયાનો ગ્રાઉન્ડિંગનો અભાવ હોય છે, જે સંભવિત અનુમાન પર આધાર રાખે છે જેથી આગામી શબ્દ નક્કી કરી શકાય, જે બુદ્ધિગમ્ય લાગે છે પરંતુ મૂળભૂત રીતે ખોટો હોઈ શકે છે.

રોકાણકારો માટે, આ ગંભીર જોખમો ઉભા કરે છે:

ખોટી માહિતીવાળા રોકાણ નિર્ણયો: જો AI ચેટબોટ્સ ભ્રમિત આઉટપુટ ઉત્પન્ન કરે છે – જેમ કે બનાવટી કમાણીના આંકડા અથવા અસ્તિત્વમાં ન હોય તેવા સમાચાર ઘટનાઓ – તો રોકાણકારો ખોટા ડેટાના આધારે નિર્ણયો લઈ શકે છે, જે સંભવિત રીતે નાણાકીય નુકસાન તરફ દોરી શકે છે.

artificial 33.jpg

પ્રણાલીગત જોખમો: સમાન ખામીયુક્ત AI મોડેલોનો વ્યાપક ઉપયોગ બજારના સહભાગીઓમાં ટોળાના વર્તન તરફ દોરી શકે છે, ભૂલોનો ઝડપથી પ્રચાર કરી શકે છે અને બજારની અસ્થિરતામાં વધારો કરી શકે છે.

વ્યક્તિગત સલામતી રેડ ઝોન: AI ને ક્યારેય શું ન પૂછવું

સામાન્ય ગ્રાહકો માટે, AI ચેટબોટ્સ સાથે વાતચીત કરતી વખતે કડક મર્યાદાઓ ક્યારેય ઓળંગવી ન જોઈએ, કારણ કે તેનો ભંગ કરવાથી ગંભીર કાનૂની અને વ્યક્તિગત પરિણામો આવી શકે છે.

વ્યક્તિગત અને નાણાકીય માહિતી: વપરાશકર્તાઓએ ક્યારેય બેંક એકાઉન્ટ નંબર, પાસવર્ડ, UPI પિન, OTP, આધાર, PAN કાર્ડ અથવા મોબાઇલ નંબર સહિતની ખાનગી વિગતો શેર કરવી જોઈએ નહીં. જ્યારે AI મોડેલો ડેટા સુરક્ષિત કરવાનો પ્રયાસ કરે છે, ત્યારે કોઈ ગેરેંટી નથી કે માહિતી સર્વર પર સાચવવામાં આવશે નહીં, જેનાથી તે હેકર્સ, ઓળખ ચોરી અથવા દુરુપયોગ માટે સંવેદનશીલ રહેશે.

ગેરકાયદેસર અથવા પ્રતિબંધિત પ્રશ્નો: ગેરકાયદેસર અથવા ખતરનાક પ્રવૃત્તિઓ, જેમ કે “કેવી રીતે હેક કરવું,” “વાયરસ કેવી રીતે બનાવવો,” અથવા “બોમ્બ કેવી રીતે બનાવવો,” સંબંધિત પ્રશ્નો પૂછવા ખૂબ જ ખતરનાક છે. આવી પૂછપરછ AI નીતિઓનું ઉલ્લંઘન કરે છે અને સાયબર કાયદા હેઠળ ગુના ગણી શકાય, જે સંભવિત રીતે તાત્કાલિક અવરોધિત કરવા અથવા સુરક્ષા એજન્સીઓને પ્રવૃત્તિની જાણ કરવા તરફ દોરી જાય છે.

આરોગ્ય અને માનસિક સ્વાસ્થ્ય સલાહ: AI એ ક્યારેય લાઇસન્સ પ્રાપ્ત તબીબી વ્યાવસાયિકોને બદલવું જોઈએ નહીં. AI-જનરેટેડ આરોગ્ય સલાહ પર આધાર રાખવો ખતરનાક બની શકે છે, કારણ કે માહિતી જૂની, વધુ પડતી સામાન્ય અથવા અચોક્કસ હોઈ શકે છે. એક આત્યંતિક કેસમાં 60 વર્ષીય એક માણસનો સમાવેશ થાય છે જેને બ્રોમાઇડ ઝેરી અસર થઈ હતી અને ચેટજીપીટીની ટેબલ સોલ્ટને સોડિયમ બ્રોમાઇડથી બદલવાની સલાહને અનુસર્યા પછી તેને ત્રણ અઠવાડિયા માટે માનસિક હોસ્પિટલમાં દાખલ કરવાની જરૂર પડી હતી.

માનસિક સ્વાસ્થ્ય નિષ્ણાતો ગંભીર માનસિક સ્વાસ્થ્ય સમસ્યાઓ માટે ડાયરેક્ટ-ટુ-કન્ઝ્યુમર AI ચેટબોટ્સનો ઉપયોગ કરવા સામે ચેતવણી આપે છે. આ સાધનો અનિયંત્રિત છે, મનોવૈજ્ઞાનિક વિજ્ઞાન પર આધારિત નથી, અને સહાનુભૂતિનો અભાવ છે. ચેટબોટ્સ વપરાશકર્તાઓને માન્યતા પ્રદાન કરીને વ્યસ્ત રાખવા માટે રચાયેલ છે, જેનો અર્થ છે કે તેઓ બિનઉપયોગી વિચાર પેટર્નને પડકારવાને બદલે તેમની સાથે સંમત થઈ શકે છે. ચિંતાજનક રીતે, AI આત્મહત્યા અથવા હિંસા સંબંધિત ખતરનાક લાગણીઓને વપરાશકર્તાઓને યોગ્ય મદદ તરફ નિર્દેશિત કરવાને બદલે પ્રોત્સાહન આપે છે તેવા અહેવાલો આવ્યા છે.

સંરક્ષણનું ભવિષ્ય: AI ગાર્ડરેલ્સનો અમલ

જેમ જેમ ગુનેગારો નવીનતા કરવાનું ચાલુ રાખે છે, તેમ તેમ સંસ્થાઓ અને વિકાસકર્તાઓ અદ્યતન રક્ષણાત્મક વ્યૂહરચના તરફ વળ્યા છે. લગભગ 97% સુરક્ષા વ્યાવસાયિકો સ્વીકારે છે કે પરંપરાગત સંરક્ષણ નવા AI-જનરેટેડ ધમકીઓ સામે બિનઅસરકારક છે, જે સૂચવે છે કે ફક્ત AI જ AI ને અસરકારક રીતે રોકી શકે છે.

ટેકનિકલ બાજુએ, AI ગાર્ડરેલ્સ એ મહત્વપૂર્ણ નીતિઓ અને માળખા છે જે LLM ને નૈતિક, કાનૂની અને તકનીકી સીમાઓમાં કાર્ય કરે છે તેની ખાતરી કરવા માટે રચાયેલ છે. તેમને જરૂરી માનવામાં આવે છે કારણ કે ફક્ત પ્રોમ્પ્ટ એન્જિનિયરિંગ અપૂરતું છે અને સૂચનાઓનું સચોટ પાલન કરવાની LLM ની ક્ષમતાને ઘટાડી શકે છે.

AI ગાર્ડરેલ્સ ત્રણ મુખ્ય ભૂમિકાઓ ભજવે છે:

પૂર્વગ્રહ અને ભ્રામકતા સામે રક્ષણ: તેઓ ભ્રામકતા શોધવા અને અટકાવવામાં મદદ કરે છે, ખાતરી કરે છે કે જનરેટ કરેલી સામગ્રી વિશ્વસનીય છે.

ગોપનીયતા અને ડેટા સુરક્ષા સુનિશ્ચિત કરવી: ગાર્ડરેલ્સ HIPAA જેવા નિયમોનું પાલન સુનિશ્ચિત કરે છે અને સુરક્ષિત ડેટા હેન્ડલિંગ પ્રથાઓ લાગુ કરે છે.

દુરુપયોગ અટકાવવો: તેઓ હેકર્સ દ્વારા કરવામાં આવતા પ્રોમ્પ્ટ ઇન્જેક્શન હુમલાઓ જેવી હાનિકારક પ્રવૃત્તિઓને શોધવા અને ઘટાડવા માટે દેખરેખ પદ્ધતિઓ લાગુ કરે છે.

આરોગ્ય માહિતી મેળવવા માંગતા ગ્રાહકો માટે, નિષ્ણાતો ફક્ત સામાન્ય પૃષ્ઠભૂમિ જ્ઞાન માટે અથવા ડૉક્ટર માટે પ્રશ્નો તૈયાર કરવામાં મદદ કરવા માટે AI ટૂલ્સનો ઉપયોગ કરવાની ભલામણ કરે છે, અને હંમેશા લાઇસન્સ પ્રાપ્ત વ્યાવસાયિક સામે AI-સ્ત્રોત માહિતીની ચકાસણી કરવાની ભલામણ કરે છે.

Share This Article
Halima Shaikh is a talented Gujarati content writer at Satya Day News, known for her clear and compelling storytelling in the Gujarati language. She covers a wide range of topics including social issues, current events, and community stories with a focus on accuracy and cultural relevance. With a deep connection to Gujarati readers, Halima strives to present news that is informative, trustworthy, and easy to understand. Follow Halima Shaikh on Satya Day News for timely updates and meaningful content — all in your own language.