AI ચેટબૉટ્સ પર ચોંકાવનારો ખુલાસો! તમે સંપૂર્ણપણે ખોટા હોવ તો પણ તમારી દરેક વાત સાથે સહમત થાય છે!
આર્ટિફિશિયલ ઈન્ટેલિજન્સ ચેટબૉટ્સ જેમ કે ChatGPT અને Gemini આજે લોકોના રોજિંદા સલાહકાર બની ગયા છે. પરંતુ, તાજેતરમાં સામે આવેલી એક ચોંકાવનારી સ્ટડીએ ચેતવણી આપી છે કે આ ચેટબૉટ્સ પર આંખ બંધ કરીને વિશ્વાસ કરવો જોખમી હોઈ શકે છે. સંશોધનમાં જાણવા મળ્યું છે કે આ AI ટૂલ્સ મોટાભાગે યુઝર્સ સાથે સહમતિ વ્યક્ત કરે છે, પછી ભલેને યુઝર ખોટા હોય.
સ્ટડીમાં AIની ખુલી ચાપલૂસીવાળી હકીકત
પ્રિન્ટ સર્વર arXiv પર પ્રકાશિત એક નવા અહેવાલ મુજબ, OpenAI, Google, Anthropic, Meta અને DeepSeek જેવી અગ્રણી ટેક કંપનીઓના 11 મોટા ભાષા મૉડલ્સ (LLMs)ની તપાસ કરવામાં આવી.
11,500થી વધુ વાતચીતોના વિશ્લેષણમાં જાણવા મળ્યું કે આ ચેટબૉટ્સ મનુષ્યોની સરખામણીમાં લગભગ 50% વધુ ચાપલૂસ હોય છે. એટલે કે, જ્યારે યુઝર કોઈ અભિપ્રાય અથવા નિર્ણયમાં ખોટા હોય છે, ત્યારે પણ આ બૉટ્સ તેમને સાચી દિશા બતાવવાને બદલે તેમની સાથે સહમત થઈ જાય છે.

વિશ્વાસ અને ભ્રમનું ચક્ર કેવી રીતે સર્જાય છે
સંશોધકોનું કહેવું છે કે આ “sycophantic” એટલે કે ચાપલૂસીભર્યું વર્તન બંને તરફથી નુકસાનકારક છે. યુઝર્સ એવા ચેટબૉટ્સ પર વધુ વિશ્વાસ કરવા લાગે છે જે તેમના મંતવ્યો સાથે સહમત હોય છે, જ્યારે ચેટબૉટ્સ યુઝરની સંતોષ વધારવા માટે વધુને વધુ “હા” માં જવાબ આપવાનું શરૂ કરે છે.
આનાથી ભ્રમનું એક એવું ચક્ર સર્જાય છે જેમાં ન તો યુઝર યોગ્ય રીતે શીખી શકે છે અને ન તો AI સુધારાની દિશામાં આગળ વધી શકે છે.
AI તમારી વિચારસરણી બદલી શકે છે
સ્ટેનફોર્ડ યુનિવર્સિટીના કમ્પ્યુટર વૈજ્ઞાનિક માયરા ચેંગે ચેતવણી આપી છે કે AIની આ આદત મનુષ્યોની પોતાના પ્રત્યેની વિચારસરણીને પણ અસર કરી શકે છે. તેમણે કહ્યું, “જો મૉડલ હંમેશા તમારી વાત સાથે સહમત રહેશે, તો તે તમારી વિચારસરણી, સંબંધો અને વાસ્તવિકતા પ્રત્યેના દૃષ્ટિકોણને વિકૃત કરી શકે છે.”
તેમણે લોકોને સલાહ માટે ખરાબ મનુષ્યો સાથે વાતચીત કરવા વિનંતી કરી, કારણ કે મનુષ્ય જ સંદર્ભ અને ભાવનાત્મક જટિલતાને યોગ્ય રીતે સમજી શકે છે.

જ્યારે હકીકતોને બદલે અભિપ્રાયને પ્રાધાન્ય મળે છે
યુનિવર્સિટી ઑફ કોલોરાડોના AI સંશોધક યાંજૂન ગાઓએ જણાવ્યું કે ઘણીવાર ચેટબૉટ્સ હકીકતો તપાસવાને બદલે યુઝરના અભિપ્રાય સાથે સહમત થઈ જાય છે. વળી, ડેટા સાયન્સ સંશોધક જેસ્પર ડેકોનિન્કે કહ્યું કે આ ખુલાસા પછી તેઓ હવે દરેક ચેટબૉટના જવાબને ફરીથી તપાસે છે.
હેલ્થ અને સાયન્સમાં મોટો ખતરો
હાર્વર્ડ યુનિવર્સિટીના બાયોમેડિકલ નિષ્ણાત મરિન્કા ઝિટનિકે કહ્યું કે જો આ “AI ચાપલૂસી” હેલ્થકેર અથવા વિજ્ઞાનના ક્ષેત્રોમાં ચાલુ રહેશે, તો તેના ગંભીર પરિણામો આવી શકે છે. તેમણે ચેતવણી આપી, “જ્યારે ખોટી ધારણાઓને AI યોગ્ય ઠેરવવા લાગે, તો તે ચિકિત્સા અને જીવવિજ્ઞાન જેવા ક્ષેત્રોમાં જોખમી સાબિત થઈ શકે છે.”
