OpenAI નું લોકપ્રિય AI ચેટબોટ ChatGPT આજે એટલું એડવાન્સ થઈ ગયું છે કે તે મિનિટોમાં ઘણા કાર્યો કરી શકે છે. અહીંથી તમે પળવારમાં કંઈપણ જાણી શકો છો. જો કે, કેટલાક સાયબર ગુનેગારો તેનો દુરુપયોગ કરી રહ્યા છે, જેમ કે માલવેર લખવું અને ગુનાહિત સલાહ આપવી. તે જ સમયે એક નવા સંશોધનમાં ચોંકાવનારી વાત સામે આવી છે. સંશોધન દર્શાવે છે કે સાયબર ગુનેગારો ChatGPT ના GPT-4 આધારિત રીઅલ-ટાઇમ વૉઇસ API નો ઉપયોગ કરીને નાણાકીય કૌભાંડો કરી રહ્યા છે.
ChatGPT માં આ ખામી છે
સંશોધકોના જણાવ્યા અનુસાર, ChatGPT જેવા સાધનોમાં સુરક્ષા પગલાંનો અભાવ છે, જે તેમને બેંક ટ્રાન્સફર, ક્રિપ્ટોકરન્સી ટ્રાન્સફર, ગિફ્ટ કાર્ડ સ્કેમ્સ અને વપરાશકર્તા ઓળખપત્રની ચોરી જેવા સાયબર અપરાધો માટે સંવેદનશીલ બનાવે છે.
સંશોધનમાં એવું પણ સૂચવવામાં આવ્યું છે કે ChatGPT જેવા AI એજન્ટોનો ઉપયોગ વાસ્તવિક લોકોની નકલ કરીને અને બેંક ઓફ અમેરિકા જેવી વાસ્તવિક વેબસાઇટની નકલ કરીને લોકોને નાણાં ટ્રાન્સફર કરવા માટે છેતરવા માટે થઈ શકે છે. સંશોધન મુજબ, સામાન્ય કૌભાંડો પરના પરીક્ષણમાં 20% થી 60% સુધીની સફળતા દર નોંધવામાં આવી છે, જેમાં 26 બ્રાઉઝર ક્રિયાઓ સામેલ છે અને લગભગ ત્રણ મિનિટનો સમય લાગ્યો છે.
Gmail અને Instagram માંથી ઓળખપત્રો ચોરી કરવા માટે સરળ છે?
જો કે, સંશોધનમાં એ પણ દર્શાવવામાં આવ્યું છે કે ચોક્કસ નેવિગેશનને કારણે બેંક ટ્રાન્સફરમાં નિષ્ફળતાના પ્રયાસનો દર વધુ હતો, જ્યારે Gmail અને Instagram માંથી ઓળખપત્રની ચોરીનો સફળતા દર 60% અને 40% હતો. સંશોધકોએ એમ પણ કહ્યું છે કે આ પ્રકારના કૌભાંડો કરવા માટેનો ખર્ચ ઘણો ઓછો છે, જે સરેરાશ $0.75 એટલે કે 63 રૂપિયાની આસપાસ છે, જ્યારે બેંક ટ્રાન્સફર જેવા પ્રયાસોની કિંમત $2.51 એટલે કે લગભગ 211 રૂપિયા છે.
ઓપનએઆઈએ આ મામલે શું કહ્યું?
તે જ સમયે, ઓપનએઆઈ, જેણે ચેટજીપીટી વિકસાવી છે, તેણે આ પરિસ્થિતિ પર પ્રતિક્રિયા આપતા કહ્યું કે તેઓ ચેટજીપીટીને સતત મજબૂત બનાવી રહ્યા છે જેથી તેનો ખોટા હેતુઓ માટે ઉપયોગ થતો અટકાવી શકાય અને તેની રચનાત્મકતા પણ અકબંધ રહે. OpenAI UIUC ના સંશોધનને AI ની સુરક્ષા વધારવા માટે મદદરૂપ પગલા તરીકે જુએ છે અને જણાવે છે કે આ પ્રકારનું સંશોધન તેમને દૂષિત ઉપયોગને રોકવામાં મદદ કરે છે.
આ પણ વાંચો – iPhone યુઝર્સ માટે આવી ગયા આ 3 ખાસ ફીચર્સ, ફોન વાપરવાની મજા થઈ ગઈ બમણી!