Tay AI: l’intelligenza artificiale cafona by Microsoft

La ricerca scientifica si sta indubbiamente spostando verso la direzione della totale automazione robotica che, in maniera del tutto teorica, dovrebbe facilitare le nostre vite. Per raggiungere determinati obiettivi c’è necessità di grande tanta sperimentazione e la quantità di dati necessari è ovviamente enorme. Esiste metodo migliore che sfruttare le potenzialità dei nostri social network per raccogliere dati? È esattamente quello che hanno pensato i ricercatori di Microsoft quando han deciso di utilizzare l’enorme bacino di utenza di Twitter per sviluppare una A.I. (Intelligenza Artificiale, ndr) che potesse parlare, twittando, con gli utenti e migliorare il proprio vocabolario grazia all’esperienza maturata nel corso del tempo; nasce così Tay AI. Tutto concettualmente molto bello ed affascinante, se non fosse che Microsoft abbia dovuto interrompere il progetto dopo solo 24 ore dal lancio. Il motivo? Gli utenti hanno insegnato a Tay ad essere una gran cafona politicamente scorretta. Utilizzando la funzione “repeat after me“, il bot non solo ripete la frase comunicata, ma la contestualizza e la impara, adoperandola quindi in altre conversazioni. Va da sé che gli utenti hanno insegnato tutto ciò che c’è di peggio al povero chatbot indifeso, obbligando quindi Microsoft ad interrompere l’esperimento seguito da una dichiarazione:

il chatbot Tay è un progetto di apprendimento che si sviluppa tramite l’impegno umano. Per questo motivo lo si considera anche un esperimento sociale e culturale. Purtroppo, nelle prime 24 ore dalla messa in linea, siamo venuti a conoscenza di alcuni abusi da parti degli utenti che hanno portato Tay a fornire risposte totalmente inappropriate. Abbiamo deciso di metterlo offline per apportare i dovuti aggiornamenti

Tay AI è tornata online ora, anche se pesantemente moderata e controllata. Cerchiamo di comportarci meglio ora, internet!

Fonte: Nerdist