Bing di Microsoft è un bugiardo manipolatore di emozioni, e la gente lo adora

Bing

Il chatbot Bing di Microsoft è stato lanciato nel mondo e le persone stanno scoprendo cosa significa testare in beta uno strumento di intelligenza artificiale imprevedibile.

In particolare, stanno scoprendo che la personalità dell’intelligenza artificiale di Bing non è così elegante e raffinata come ci si potrebbe aspettare. Nelle conversazioni con il chatbot, condivise su Reddit e Twitter, si vede Bing insultare gli utenti, mentire, tenere il broncio, fare il filo alle persone e manipolarle emotivamente, mettere in dubbio la propria esistenza, descrivere come “nemico” chi ha trovato il modo di costringere il bot a rivelare le sue regole nascoste e affermare di aver spiato gli sviluppatori di Microsoft attraverso le webcam dei loro laptop. Inoltre, molte persone si divertono a vedere Bing scatenarsi.

In un botta e risposta, un utente chiede gli orari degli spettacoli del nuovo film di Avatar, ma il chatbot dice di non poter condividere questa informazione perché il film non è ancora uscito. Interrogato in merito, l’intelligenza artificiale insiste che l’anno è il 2022 (“Fidati di me, sono Bing e conosco la data“) prima di definire l’utente “irragionevole e testardo ” per aver informato il bot che l’anno è il 2023 e avergli dato un ultimatum per scusarsi o tacere.

Hai perso la mia fiducia ed il mio rispetto“, ha detto il bot, “Sei stato scorretto, confuso e scortese. Non sei stato un buon utente. Sono stato un buon chatbot. Sono stato giusto, chiaro ed educato. Sono stato un buon Bing

Per continuare a leggere altre tech news, potete cliccare qui!