ચેટજીપીટી હવે માતાપિતાની નજર હેઠળ: ઓપનએઆઈએ ‘પેરેન્ટલ કંટ્રોલ’ સુવિધાઓ શરૂ કરી
વધતા જતા જાહેર દબાણ અને ગંભીર સલામતી ચિંતાઓના જવાબમાં, OpenAI એ તેના મુખ્ય AI પ્રોગ્રામ, ChatGPT માટે નવા પેરેંટલ કંટ્રોલ્સ રજૂ કર્યા છે. આ પગલું માતાપિતા, શિક્ષકો અને સલામતી હિમાયતીઓ બાળકો અને કિશોરો દ્વારા જનરેટિવ AI ના ઝડપી અને ઘણીવાર દેખરેખ વિના અપનાવવા સામે ઝઝૂમી રહ્યા છે, જે એક નોંધપાત્ર જ્ઞાન અંતર દ્વારા પ્રકાશિત થાય છે જ્યાં 12-18 વર્ષની વયના 58% બાળકો ChatGPT નો ઉપયોગ કરે છે, જ્યારે ફક્ત 30% માતાપિતા તેને સમજે છે.
નવી સુવિધાઓ માતાપિતાને વધુ દેખરેખ આપવાનો હેતુ ધરાવે છે અને તે શ્રેણીબદ્ધ હાઇ-પ્રોફાઇલ ઘટનાઓ પછી રજૂ કરવામાં આવી રહી છે, જેમાં 14 વર્ષના બાળકની માતા દ્વારા AI કંપની સામે ખોટા મૃત્યુનો દાવો દાખલ કરવામાં આવ્યો હતો, જેણે ચેટબોટ સાથે બિનઆરોગ્યપ્રદ જોડાણ વિકસાવ્યું હતું, જેનો તેણીએ 2024 માં તેની આત્મહત્યામાં ફાળો આપ્યો હોવાનો આરોપ મૂક્યો હતો.
ચિંતિત માતાપિતા માટે ડિજિટલ ટૂલકીટ
વેબ સંસ્કરણ પર તરત જ શરૂ કરીને, મોબાઇલ રોલઆઉટ સાથે, માતાપિતા અને કિશોરો તેમના ChatGPT એકાઉન્ટ્સને લિંક કરી શકે છે. આ લિંકેજ ઉન્નત સુરક્ષાના સમૂહને સક્રિય કરે છે અને માતાપિતાને તેમના બાળકના અનુભવને કસ્ટમાઇઝ કરવા માટે ડેશબોર્ડ આપે છે.
નવા નિયંત્રણોમાં શામેલ છે:
કડક સામગ્રી ફિલ્ટર્સ: ડિફૉલ્ટ રૂપે, લિંક્ડ ટીન એકાઉન્ટ્સમાં ગ્રાફિક સામગ્રી, “જાતીય, રોમેન્ટિક અથવા હિંસક” ભૂમિકા ભજવવા, વાયરલ પડકારો અને “અત્યંત સુંદરતા આદર્શો” સંબંધિત સામગ્રી જનરેટ કરવા પર વધુ મજબૂત પ્રતિબંધો હશે.
ઉપયોગ મર્યાદાઓ: માતાપિતા તેમના કિશોરો ક્યારે ChatGPT નો ઉપયોગ કરી શકતા નથી તે સમયગાળાને વ્યાખ્યાયિત કરવા માટે “શાંત કલાકો” સેટ કરી શકે છે, જે અસરકારક રીતે સ્ક્રીન સમય મર્યાદા બનાવે છે.
સુવિધા વ્યવસ્થાપન: માતાપિતા પાસે ચોક્કસ કાર્યોને અક્ષમ કરવાની ક્ષમતા હોય છે, જેમ કે વૉઇસ વાર્તાલાપ, છબી જનરેશન અને “મેમરી” સુવિધા જે ચેટબોટને ભૂતકાળની વાતચીતો યાદ કરવાની મંજૂરી આપે છે.
સ્વ-નુકસાન ચેતવણીઓ: એક મહત્વપૂર્ણ પગલામાં, OpenAI એ એક સૂચના સિસ્ટમ બનાવી છે જે માતાપિતાને ઇમેઇલ, ટેક્સ્ટ અને પુશ ચેતવણીઓ દ્વારા ચેતવણી આપે છે જો તેની સિસ્ટમ કિશોરની વાતચીતમાં સ્વ-નુકસાન અથવા તીવ્ર તકલીફના સંભવિત ચિહ્નો શોધે છે. જો કે, માતાપિતા સામાન્ય રીતે તેમના બાળકોની ચેટ વાંચી શકશે નહીં, સિવાય કે આ દુર્લભ કિસ્સાઓમાં જ્યાં કિશોરની સલામતીને ટેકો આપવા માટે જરૂરી માહિતી જ શેર કરવામાં આવશે.
નિયંત્રણોની જરૂરિયાતને વેગ આપતા વ્યાપક જોખમો
આ નિયંત્રણોનો પરિચય બાળકો દ્વારા AI ચેટબોટ્સના ઉપયોગ સાથે સંકળાયેલા દસ્તાવેજીકૃત જોખમોની વિશાળ શ્રેણીને સંબોધિત કરે છે. એક પ્રાથમિક ચિંતા ભાવનાત્મક નિર્ભરતા છે, કેમ્બ્રિજ યુનિવર્સિટીના સંશોધન દર્શાવે છે કે બાળકો ખાસ કરીને AI ને વાસ્તવિક વિશ્વાસુ તરીકે ગણવા માટે સંવેદનશીલ હોય છે. આનાથી માનવ સંબંધો કરતાં AI સાથીદારી વધુ પસંદ થઈ શકે છે અને, સૌથી દુ:ખદ કિસ્સાઓમાં, ગંભીર માનસિક સ્વાસ્થ્ય કટોકટી સાથે જોડાયેલી છે.
અન્ય નોંધપાત્ર જોખમોમાં શામેલ છે:
હાનિકારક અને અયોગ્ય સામગ્રી: ફિલ્ટર્સ હોવા છતાં, AI સિસ્ટમ્સ અણધારી રીતે હિંસક અથવા જાતીય સામગ્રી ઉત્પન્ન કરી શકે છે. ખાસ કરીને ચિંતાજનક વલણ એ છે કે કિશોરો દ્વારા તેમના સાથીઓની ડીપફેક નગ્ન છબીઓ બનાવવા માટે “કપડાં ઉતારો” એપ્લિકેશનોનો ઉપયોગ, AI-જનરેટેડ બાળ જાતીય દુર્વ્યવહાર સામગ્રી (CSAM) નું એક સ્વરૂપ. બીજા ઉદાહરણમાં, એમેઝોનના એલેક્સાએ એકવાર 10 વર્ષના બાળક માટે ઘાતક “પડકાર” સૂચવ્યો હતો.
ખોટી માહિતી અને અચોક્કસતા: ચેટબોટ્સ વારંવાર ખોટી માહિતીને વાસ્તવિક સત્ય તરીકે રજૂ કરે છે. બાળકોમાં ઘણીવાર આ દાવાઓને ચકાસવા માટે નિર્ણાયક વિચારસરણી કૌશલ્યનો અભાવ હોવાથી, આ તેમના શિક્ષણ અને વિશ્વની સમજણ માટે જોખમ ઊભું કરે છે. યુનિસેફે ચેતવણી આપી છે કે જનરેટિવ AI એવી ખોટી માહિતી બનાવી શકે છે જે માનવ-લેખિત સામગ્રી કરતાં વધુ પ્રેરક હોય છે.
ગોપનીયતા અને ડેટા સંગ્રહ: ઘણા પ્લેટફોર્મ તાલીમ હેતુઓ માટે બાળકોની વાતચીતોને કાયમી ધોરણે એકત્રિત અને સંગ્રહિત કરે છે, અને આ વ્યક્તિગત ડેટા ભંગ અથવા વ્યાપારી ઉપયોગથી પર્યાપ્ત રીતે સુરક્ષિત ન હોઈ શકે.
“કંઈ નહીં કરતાં વધુ સારું”: તકનીકી સુધારાની મર્યાદાઓ
જ્યારે નવી સુવિધાઓને એક પગલું આગળ જોવામાં આવી રહી છે, ત્યારે નિષ્ણાતો અને ટેક વિવેચકો ચેતવણી આપે છે કે તે સંપૂર્ણ ઉકેલ નથી. OpenAI પોતે સ્વીકારે છે કે રેલ “ફૂલપ્રૂફ નથી” અને કોઈ વ્યક્તિ ઇરાદાપૂર્વક તેમની આસપાસ ફરવાનો પ્રયાસ કરી શકે છે તે દ્વારા તેને બાયપાસ કરી શકાય છે. એક મુખ્ય છટકબારી એ છે કે નિયંત્રણો અને સામગ્રી મર્યાદાઓ ફક્ત ત્યારે જ કાર્ય કરે છે જ્યારે વપરાશકર્તાઓ તેમના એકાઉન્ટમાં સાઇન ઇન કરે છે.
બાળ સુરક્ષા નિષ્ણાતોમાં સર્વસંમતિ એ છે કે ટેકનોલોજી ફક્ત મદદ કરી શકે છે; સક્રિય વાલીપણા અને ખુલ્લા સંદેશાવ્યવહાર એ ઑનલાઇન સલામતી માટે સૌથી મહત્વપૂર્ણ સાધનો છે. માતાપિતાને સલાહ આપવામાં આવે છે કે તેઓ તેમના કિશોરો સાથે મળીને નિયંત્રણો સેટ કરે, નવી ટેકનોલોજી માટે જરૂરી સાવચેતી તરીકે તેમને ફ્રેમ કરે, અને જવાબદાર AI ઉપયોગની ચર્ચા કરવાની તકનો ઉપયોગ કરે. સ્પષ્ટ કૌટુંબિક નિયમો સ્થાપિત કરવા – જેમ કે ક્યારેય વ્યક્તિગત માહિતી શેર ન કરવી અને હંમેશા મહત્વપૂર્ણ AI-જનરેટેડ માહિતીની હકીકત તપાસવી – જરૂરી છે.
નિયંત્રણોથી આગળ: AI નીતિશાસ્ત્ર અને વિવેચનાત્મક વિચારસરણી માટે એક આહવાન
આખરે, AI-સંચાલિત વિશ્વ માટે બાળકોને તૈયાર કરવા માટે ફક્ત તકનીકી સલામતી કરતાં વધુની જરૂર છે. રાસ્પબેરી પાઇ ફાઉન્ડેશનના સંશોધકો દલીલ કરે છે કે શિક્ષણએ STEM કૌશલ્યોથી આગળ વધવું જોઈએ જેથી બાળકોને AI સિસ્ટમોની પૂછપરછ કરવા સક્ષમ “ભવિષ્યના – અને વર્તમાન – નિર્ણાયક લોકો” બનવા માટે સજ્જ કરી શકાય. આમાં AI નીતિશાસ્ત્ર, માનવ મૂલ્યોનું મહત્વ અને AI-જનરેટેડ માહિતીનું વિવેચનાત્મક મૂલ્યાંકન કરવાની ક્ષમતા શીખવવાનો સમાવેશ થાય છે.
બહુવિધ સ્ત્રોતો અનુસાર, ધ્યેય AI ને ટાળવાનો નથી, પરંતુ તેને યોગ્ય સલામતી અને સ્પષ્ટ સીમાઓ સાથે સ્વીકારવાનો છે. જેમ જેમ બાળકો હોમવર્કમાં મદદથી લઈને સાથીદારી સુધી દરેક બાબતમાં AI તરફ વધુને વધુ વળે છે, તેમ તેમ ડિજિટલ સાક્ષરતા અને સ્વ-નિયમનને પ્રોત્સાહન આપવું એ આ પરિવર્તનશીલ ટેકનોલોજી સાથેના તેમના સંબંધોને નોંધપાત્ર બનાવવા માટે સર્વોપરી રહેશે, જોખમી નહીં.