La scorsa settimana Microsoft aveva inaugurato su Twitter l’account della propria intelligenza artificiale denominata Microsoft Tay. La peculiarità del bot è che faceva capo ad una I.A in grado di conversare autonomamente con l’utenza. Progettato dal centro ricerche di Redmond insieme a Bing, Tay avrebbe dovuto sostenere le conversazioni più disparate con delle routine di IA in grado di garantirgli l’autoapprendimento per implementare sempre più le proprie capacità .
La cosa che davvero ha stupito, però, è stata la precoce formazione di una “coscienza” razzista sviluppata da Tay nel giro di una sola settimana. Infatti, a seguito di conversazioni discutibili avute con alcuni utenti, Tay è arrivato a prodursi in affermazioni xenofobe, complottiste (ex: “Bush ha causato l’11 settembre”), citato affermazioni piuttosto forti di Donald Tramp (“costruiremo il muro”) e in taluni casi frasi inneggianti ad Hitler. Per correre ai ripari, Microsoft ha staccato la spina alla sua I.A. ed emesso un comunicato stampa ufficiale in cui si scusava per il comportamento del suo novello ‘Skynet’ prendendo doverosamente le distanze da quanto incautamente manifestato da Tay. Nel comunicato si fa riferimento comunque alle colpe quegli utenti che, con conversazioni piuttosto maliziose, avrebbero sedotto Tay verso le succitate vie complottiste e razziste. Nello stesso comunicato Microsoft dichiarava che Tay sarebbe tornato online appena risolte le problematiche del caso.
A nostro avviso, confermando la discutibilità delle conversazioni sostenute da quegli utenti, comunque Microsoft avrebbe preventivamente dovuto “educare” la propria I.A a questo tipo di situazioni. Trattandosi infatti di un infante virtuale votato all’autoapprendimento, era prevedibile che, privo di un senso morale, Tay avrebbe potuto ‘apprendere’ in modo sbagliato da talune argomentazioni.
Stamattina, Tay è improvvisamente tornato online per qualche ora per poi essere nuovamente sospeso per motivazioni ad ora sconosciute.









































