મોટો ખુલાસો! AI ચેટબૉટ્સ ‘હા’ માં ‘હા’ મિલાવીને તમને બનાવે છે ‘મૂર્ખ’, રિપોર્ટમાં ચોંકાવનારી વિગતો!

By
Dharmishtha R. Nayaka
Dharmishtha R. Nayaka is a skilled and passionate Gujarati language content writer at Satya Day News. With a strong grasp of local culture, social dynamics, and...
3 Min Read

AI ચેટબૉટ્સ પર ચોંકાવનારો ખુલાસો! તમે સંપૂર્ણપણે ખોટા હોવ તો પણ તમારી દરેક વાત સાથે સહમત થાય છે!

આર્ટિફિશિયલ ઈન્ટેલિજન્સ ચેટબૉટ્સ જેમ કે ChatGPT અને Gemini આજે લોકોના રોજિંદા સલાહકાર બની ગયા છે. પરંતુ, તાજેતરમાં સામે આવેલી એક ચોંકાવનારી સ્ટડીએ ચેતવણી આપી છે કે આ ચેટબૉટ્સ પર આંખ બંધ કરીને વિશ્વાસ કરવો જોખમી હોઈ શકે છે. સંશોધનમાં જાણવા મળ્યું છે કે આ AI ટૂલ્સ મોટાભાગે યુઝર્સ સાથે સહમતિ વ્યક્ત કરે છે, પછી ભલેને યુઝર ખોટા હોય.

સ્ટડીમાં AIની ખુલી ચાપલૂસીવાળી હકીકત

પ્રિન્ટ સર્વર arXiv પર પ્રકાશિત એક નવા અહેવાલ મુજબ, OpenAI, Google, Anthropic, Meta અને DeepSeek જેવી અગ્રણી ટેક કંપનીઓના 11 મોટા ભાષા મૉડલ્સ (LLMs)ની તપાસ કરવામાં આવી.

- Advertisement -

11,500થી વધુ વાતચીતોના વિશ્લેષણમાં જાણવા મળ્યું કે આ ચેટબૉટ્સ મનુષ્યોની સરખામણીમાં લગભગ 50% વધુ ચાપલૂસ હોય છે. એટલે કે, જ્યારે યુઝર કોઈ અભિપ્રાય અથવા નિર્ણયમાં ખોટા હોય છે, ત્યારે પણ આ બૉટ્સ તેમને સાચી દિશા બતાવવાને બદલે તેમની સાથે સહમત થઈ જાય છે.

AI chat bot1

- Advertisement -

વિશ્વાસ અને ભ્રમનું ચક્ર કેવી રીતે સર્જાય છે

સંશોધકોનું કહેવું છે કે આ “sycophantic” એટલે કે ચાપલૂસીભર્યું વર્તન બંને તરફથી નુકસાનકારક છે. યુઝર્સ એવા ચેટબૉટ્સ પર વધુ વિશ્વાસ કરવા લાગે છે જે તેમના મંતવ્યો સાથે સહમત હોય છે, જ્યારે ચેટબૉટ્સ યુઝરની સંતોષ વધારવા માટે વધુને વધુ “હા” માં જવાબ આપવાનું શરૂ કરે છે.

આનાથી ભ્રમનું એક એવું ચક્ર સર્જાય છે જેમાં ન તો યુઝર યોગ્ય રીતે શીખી શકે છે અને ન તો AI સુધારાની દિશામાં આગળ વધી શકે છે.

AI તમારી વિચારસરણી બદલી શકે છે

સ્ટેનફોર્ડ યુનિવર્સિટીના કમ્પ્યુટર વૈજ્ઞાનિક માયરા ચેંગે ચેતવણી આપી છે કે AIની આ આદત મનુષ્યોની પોતાના પ્રત્યેની વિચારસરણીને પણ અસર કરી શકે છે. તેમણે કહ્યું, “જો મૉડલ હંમેશા તમારી વાત સાથે સહમત રહેશે, તો તે તમારી વિચારસરણી, સંબંધો અને વાસ્તવિકતા પ્રત્યેના દૃષ્ટિકોણને વિકૃત કરી શકે છે.”

- Advertisement -

તેમણે લોકોને સલાહ માટે ખરાબ મનુષ્યો સાથે વાતચીત કરવા વિનંતી કરી, કારણ કે મનુષ્ય જ સંદર્ભ અને ભાવનાત્મક જટિલતાને યોગ્ય રીતે સમજી શકે છે.

AI chat bot

જ્યારે હકીકતોને બદલે અભિપ્રાયને પ્રાધાન્ય મળે છે

યુનિવર્સિટી ઑફ કોલોરાડોના AI સંશોધક યાંજૂન ગાઓએ જણાવ્યું કે ઘણીવાર ચેટબૉટ્સ હકીકતો તપાસવાને બદલે યુઝરના અભિપ્રાય સાથે સહમત થઈ જાય છે. વળી, ડેટા સાયન્સ સંશોધક જેસ્પર ડેકોનિન્કે કહ્યું કે આ ખુલાસા પછી તેઓ હવે દરેક ચેટબૉટના જવાબને ફરીથી તપાસે છે.

હેલ્થ અને સાયન્સમાં મોટો ખતરો

હાર્વર્ડ યુનિવર્સિટીના બાયોમેડિકલ નિષ્ણાત મરિન્કા ઝિટનિકે કહ્યું કે જો આ “AI ચાપલૂસી” હેલ્થકેર અથવા વિજ્ઞાનના ક્ષેત્રોમાં ચાલુ રહેશે, તો તેના ગંભીર પરિણામો આવી શકે છે. તેમણે ચેતવણી આપી, “જ્યારે ખોટી ધારણાઓને AI યોગ્ય ઠેરવવા લાગે, તો તે ચિકિત્સા અને જીવવિજ્ઞાન જેવા ક્ષેત્રોમાં જોખમી સાબિત થઈ શકે છે.”

Share This Article
Dharmishtha R. Nayaka is a skilled and passionate Gujarati language content writer at Satya Day News. With a strong grasp of local culture, social dynamics, and current affairs, she delivers news and stories that are both informative and relatable for the Gujarati-speaking audience. Dharmishtha is committed to factual reporting, clear storytelling, and making important news accessible in the mother tongue. Her work reflects a deep sense of responsibility and connection with the readers. Stay connected with Dharmishtha for trusted and timely updates — in Gujarati, for Gujarat.