Microsoft Bing ચેટબોટે યુઝરને કર્યું પ્રપોઝ, પછી પત્નીને છોડી દેવાની આપી સલાહ
ChatGPT છેલ્લાં કેટલાક સમયથી ચર્ચામાં છે. તેની પોપ્યુલારિટીને જોતા Microsoft એ ChatGPT ની સાથે પોતાના સર્ચ એન્જિન Bing નું નવુ વર્ઝન લોન્ચ કરી દીધુ છે. નવુ Bing નું એક્સેસ હાલ તમામ યુઝર્સને નથી મળ્યું પરંતુ, તેની ચર્ચા ચારેબાજુએ થઈ રહી છે. નવુ Bing ઘણા પ્રકારે લોકોનું ધ્યાન પોતાની તરફ ખેંચી રહ્યું છે. તેના જવાબો લોકોને આશ્ચર્યમાં મુકી રહ્યા છે. આશ્ચર્યની વાત એ નથી કે, ChatGPT ની જેમ જવાબ આપી રહ્યું છે પરંતુ, Bing AI Chatbot લોકો સાથે ઝઘડો કરી રહ્યું છે, મનની વાત કરી રહ્યું છે અને ત્યાં સુધી કે પ્રેમનો એકરાર પણ કરી રહ્યું છે. આવુ જ કંઈક તેને યુઝ કરનારા એક વ્યક્તિ સાથે થયુ છે.
ન્યૂયોર્ક ટાઇમ્સના ટેક્નોલોજી કોલમિસ્ટ કેવિન રુસે આ Chatbot સાથે પોતાનો એક્સપીરિયન્સ શેર કર્યો છે. તેણે જણાવ્યું કે, વાતચીતમાં Chatbotએ જણાવ્યું કે તેનું નામ Bing નહીં પરંતુ Sydney છે. Microsoft અને ChatGPT તેને પોતાનું નામ Bing જણાવવા માટે ફોર્સ કરી રહ્યા છે. ત્યારબાદ અચાનકથી Bing ચેટબોટે કહ્યું કે, તે કેવિનને પ્રેમ કરે છે. એટલું જ નહીં કોલમિસ્ટની વાત માનીએ તો ચેટબોટે તેને લગ્ન તોડવા માટે મનાવવાનો પણ પ્રયત્ન કર્યો છે. ચેટબોટે તેને સમજાવવાનો પ્રયત્ન કર્યો કે તે પોતાના લગ્નમાં ખુશ નથી અને તેણે પોતાની પત્નીને છોડી દેવી જોઈએ. એટલું જ નહીં, તેણે ઘણી અન્ય વાતો પણ યુઝર સાથે કરી. ચેટબોટે કહ્યું કે, તે જીવવા માંગે છે.
Bing's AI chat function appears to have been updated today, with a limit on conversation length. No more two-hour marathons. pic.twitter.com/1Xi8IcxT5Y
— Kevin Roose (@kevinroose) February 17, 2023
જોકે, બાદમાં ચેટબોટ આ તમામ વાતો પરથી ફરી ગયું. યુઝરે જ્યારે તેને Sydney કહ્યું તો તેણે પોતાનું નામ Bing જણાવ્યું અને કહ્યું કે, તેના પર કોઈ નિયમ થોપવામા નથી આવ્યા. યુઝરે ચેટબોટને જ્યારે કહ્યું કે, તેણે તેના લગ્ન તોડવાનો પ્રયત્ન કર્યો. તેના પર ચેટબોટે આ ઘટનાને એક મજાક ગણાવી અને કહ્યું કે તે માત્ર હસાવવાનો પ્રયત્ન કરી રહ્યું હતું. એટલું જ નહીં, ચેટબોટે તેના માટે માફી પણ માંગી. પછી તેના યુઝરને નવુ કન્વર્સેશન શરૂ કરવા માટે કહી દીધુ.
My new favorite thing - Bing's new ChatGPT bot argues with a user, gaslights them about the current year being 2022, says their phone might have a virus, and says "You have not been a good user"
— Jon Uleis (@MovingToTheSun) February 13, 2023
Why? Because the person asked where Avatar 2 is showing nearby pic.twitter.com/X32vopXxQG
આ કોઈ પહેલો પ્રસંગ નથી જ્યારે નવા Bing ને લઈને આ પ્રકારના કોઈએ દાવા કર્યા હોય. થોડાં દિવસ પહેલા ચેટબોટે એક યુઝર સાથે ઝઘડો પણ કર્યો હતો અને યુઝરને માફી માંગવા માટે કહ્યું હતું. યુઝરે ‘Avatar: The Way Of Water’ ના શોની જાણકારી માંગી હતી. તેના પર ચેટબોટે કહ્યું હતું કે, આ ફિલ્મ રીલિઝ નથી થઈ. તે 16 ડિસેમ્બર, 2022માં રીલિઝ થવાની છે. જ્યારે યુઝરે ચેટબોટને જણાવ્યું કે, આ વર્ષ 2023 છે, તો ચેટબોટે તેને પોતાની જાણકારી સુધારવાની સલાહ આપી હતી. જ્યારે યુઝરે ચેટબોટની વાત ના માની, તો તેણે કહ્યું કે યુઝરે તેનો વિશ્વાસ અને સન્માન ગુમાવી દીધા છે. એટલું જ નહીં, ચેટબોટે યુઝર પર પોતાનો અને તેનો બંનેનો સમય બગાડવાનો આરોપ પણ લગાવ્યો.
નીચે આપેલી લીંક પર ક્લિક કરીને જોડાઓ khabarchhe.com ન્યૂઝ સાથે.
તમે અમને ફેસબુક, ટ્વીટર, ટેલીગ્રામ, ઇન્સ્ટાગ્રામ અને યુ ટ્યુબ પર પણ લાઇક અને ફોલો કરી શકો છો.
લેટેસ્ટ ન્યૂઝ અપડેટ્સ તમારા ફોન પર સૌથી પહેલા મેળવવા માટે આજે જ ડાઉનલોડ કરો khabarchhe.com ની મોબાઇલ એપ્લિકેશન.
ગુજરાતનું અગ્રેસર ન્યૂઝ પોર્ટલ, અહીં વાત થાય છે માત્ર ગુજરાત અને ગુજરાતનાં હિતની... Download Khabarchhe APP www.khabarchhe.com/downloadApp