AI Clone Voice Scam
AI Clone Voice Scam: આજના સમયમાં આર્ટિફિશિયલ ઈન્ટેલિજન્સની મદદથી લોકોનો અવાજ બદલીને આર્થિક છેતરપિંડી સરળતાથી કરી શકાય છે. અહીં અમે તમને આનાથી બચવાના ઉપાયો જણાવી રહ્યા છીએ.
જેમ જેમ ટેક્નોલોજી વધી રહી છે તેમ તેમ લોકો માટે જોખમ પણ વધી રહ્યું છે. આજના સમયમાં સ્કેમર્સ સરળતાથી કોઈના અવાજ, વીડિયો કે ફોટો એડિટ કરીને લોકોને છેતરે છે, પરંતુ આ પ્રકારની નાણાકીય છેતરપિંડીથી બચવા માટે તમારે તમારી જાતને તૈયાર કરવી પડશે.
આર્ટિફિશિયલ ઈન્ટેલિજન્સ દ્વારા યુવાનો અને વરિષ્ઠ લોકો સાથે છેતરપિંડી થઈ રહી હોવાના અહેવાલો વચ્ચે સાયબર સુરક્ષા સાથે સંબંધિત નિષ્ણાતોએ એક એડવાઈઝરી જારી કરી છે. નિષ્ણાતોના મતે આ પડકારોનો સામનો કરવા માટે વિચારસરણીમાં બદલાવ ખૂબ જ જરૂરી છે.
બીબીસીના અહેવાલ મુજબ, CloudSEEK ના મુખ્ય કાર્યકારી અધિકારી રાહુલ શશી કહે છે કે તમે દરેક વ્યક્તિ અથવા દરેક વસ્તુ પર વિશ્વાસ કરી શકતા નથી. તમારે તમારી જાતને એવી વ્યક્તિમાં ઘડવી પડશે જે દરેક વસ્તુ પર શંકા કરે છે.
રાહુલ શશી કહે છે કે તમામ વસ્તુઓ અને તમામ લોકો પર વિશ્વાસ કરી શકાય નહીં. આ માટે તમારે તમારી વિચારસરણી બદલવી ખૂબ જ જરૂરી છે. આ છેતરપિંડી અશિક્ષિત તેમજ શિક્ષિત લોકો સાથે થઈ રહી છે. આ ભયથી બચવા માટે આપણે આપણી જાતને સારી રીતે તૈયાર કરવી પડશે.
નિષ્ણાતો કહે છે કે આવા કિસ્સાઓમાં, ફોન ઉપાડનાર અથવા સંદેશ પ્રાપ્ત કરનાર વ્યક્તિએ સંદેશ અથવા ફોન પર આંધળો વિશ્વાસ ન કરવો જોઈએ. હાલમાં, ડીપ ફેક બનાવવા માટે ટેકનોલોજી ઉપલબ્ધ છે. પરંતુ તેનો સામનો કરવા માટે કોઈ ટેકનોલોજી નથી.
સાયબર લો એકેડમીશિયન નવી વિજયશંકરનું કહેવું છે કે સોશિયલ મીડિયા મોટાભાગના છેતરપિંડી કરનારાઓ માટે ખજાના જેવું છે. અહીંથી તેઓ અવાજની સાથે વીડિયો અને ફોટોગ્રાફ્સ કોપી કરી શકે છે અને પછી તેનો દુરુપયોગ કરી શકે છે.