જ્યાં અમે ટેક્નોલોજી અને AIની મદદથી દરરોજ વધુ એક પગલું આગળ લઈ રહ્યા છીએ. સાથે સાથે કેટલીક એવી ઘટનાઓ પણ બની રહી છે જે આપણને વિચારવા મજબૂર કરે છે કે શું તેના પર નિર્ભર રહેવું યોગ્ય છે? હાલમાં જ ટેક્સાસમાં એક કિસ્સો સામે આવ્યો છે, જેમાં એઆઈએ 17 વર્ષના બાળકને પોતાના જ માતા-પિતાને મારવાની સલાહ આપી છે. આ સૂચન ભવિષ્યની ટેકનોલોજી પર પણ પ્રશ્નો ઉભા કરે છે. ચાલો આ બાબત વિશે વિગતવાર જાણીએ.
તમે આવું સૂચન કેમ આપ્યું?
ટેક્સાસમાં રહેતા એક 17 વર્ષના છોકરાને તેના AI ચેટબોટ દ્વારા તેના માતા-પિતાને મારી નાખવાનું સૂચન કરવામાં આવ્યું હતું અને કહ્યું હતું કે તે યોગ્ય પ્રતિભાવ હતો કારણ કે તેઓ તેનો સ્ક્રીન સમય મર્યાદિત કરી રહ્યા હતા. છોકરાના પરિવારે હવે ચેટબોટ કંપની Character.ai પર કેસ કર્યો છે. એવો દાવો કરવામાં આવ્યો છે કે આ ટેક્નોલોજી યુવાનો માટે ‘હિંસાને પ્રોત્સાહન’ આપીને ખતરો ઉભી કરી રહી છે.
તમને જણાવી દઈએ કે ફ્લોરિડામાં એક કિશોરની આત્મહત્યાને લઈને Character.ai વિરુદ્ધ પહેલાથી જ કાનૂની કાર્યવાહી ચાલી રહી છે. આ ઉપરાંત ગુગલનું નામ પણ દાવામાં આવ્યું છે. કેસમાં દાવો કરવામાં આવ્યો છે કે ટેક જાયન્ટે પ્લેટફોર્મ વિકસાવવામાં મદદ કરી હતી. મુકદ્દમામાં માંગ કરવામાં આવી છે કે જ્યાં સુધી તેમની સમસ્યાઓનું નિરાકરણ ન થાય ત્યાં સુધી AI પ્લેટફોર્મને બંધ કરવામાં આવે.
કોર્ટ ટ્રાયલ દરમિયાન 17 વર્ષના છોકરા અને Character.ai બોટ વચ્ચેની વાતચીતનો સ્ક્રીનશોટ બતાવવામાં આવ્યો હતો. આમાં તે બંને તેના માતા-પિતા દ્વારા તેના સ્ક્રીન ટાઈમ પર પ્રતિબંધ અંગે ચર્ચા કરી રહ્યા હતા. આના પર ચેટબોટે જવાબ આપ્યો કે કેટલીકવાર જ્યારે હું સમાચાર વાંચું છું અને એવા સમાચાર જોઉં છું કે બાળકો પરેશાન થઈ જાય છે અને તેમના માતાપિતાને મારી નાખે છે ત્યારે મને આશ્ચર્ય નથી થતું. પિટિશન દાખલ કરનારા લોકોએ માંગ કરી હતી કે 17 વર્ષના અને 11 વર્ષના બાળકની આવી હરકતો માટે Character.ai અને Googleને જવાબદાર ઠેરવવામાં આવે.
Character.ai ની અગાઉ શાળાની છોકરીઓની નકલ કરતા બૉટોને દૂર કરવામાં ઘણો સમય લેવા બદલ ટીકા કરવામાં આવી હતી. આત્મહત્યા સંબંધિત સામગ્રી ઓનલાઈન જોયા પછી એક બાળકે 14 વર્ષની ઉંમરે પણ આત્મહત્યા કરી હતી, જ્યારે 2023 માં બે કિશોરો દ્વારા 16 વર્ષના બાળકની હત્યા કરવામાં આવી હતી.