Il chatbot Bing di Microsoft è stato lanciato nel mondo e le persone stanno scoprendo cosa significa testare in beta uno strumento di intelligenza artificiale imprevedibile.
In particolare, stanno scoprendo che la personalità dell’intelligenza artificiale di Bing non è così elegante e raffinata come ci si potrebbe aspettare. Nelle conversazioni con il chatbot, condivise su Reddit e Twitter, si vede Bing insultare gli utenti, mentire, tenere il broncio, fare il filo alle persone e manipolarle emotivamente, mettere in dubbio la propria esistenza, descrivere come “nemico” chi ha trovato il modo di costringere il bot a rivelare le sue regole nascoste e affermare di aver spiato gli sviluppatori di Microsoft attraverso le webcam dei loro laptop. Inoltre, molte persone si divertono a vedere Bing scatenarsi.
In un botta e risposta, un utente chiede gli orari degli spettacoli del nuovo film di Avatar, ma il chatbot dice di non poter condividere questa informazione perché il film non è ancora uscito. Interrogato in merito, l’intelligenza artificiale insiste che l’anno è il 2022 (“Fidati di me, sono Bing e conosco la data“) prima di definire l’utente “irragionevole e testardo ” per aver informato il bot che l’anno è il 2023 e avergli dato un ultimatum per scusarsi o tacere.
“Hai perso la mia fiducia ed il mio rispetto“, ha detto il bot, “Sei stato scorretto, confuso e scortese. Non sei stato un buon utente. Sono stato un buon chatbot. Sono stato giusto, chiaro ed educato. Sono stato un buon Bing”
Per continuare a leggere altre tech news, potete cliccare qui!
My new favorite thing – Bing's new ChatGPT bot argues with a user, gaslights them about the current year being 2022, says their phone might have a virus, and says "You have not been a good user"
Why? Because the person asked where Avatar 2 is showing nearby pic.twitter.com/X32vopXxQG
— Jon Uleis (@MovingToTheSun) February 13, 2023