Ven 16 Gennaio, 2026
53,189FansMi piace
5,056FollowerSegui
7,522FollowerSegui
2,487IscrittiIscriviti

Le News della settimana

spot_img

Potrebbe interessarti

Un falso report generato dall’Intelligenza Artificiale ha indotto la polizia britannica a vietare l’accesso allo stadio ad alcuni tifosi

Ecco un’altra storia vera che sembra uscita da un episodio di Black Mirror. La polizia britannica ha ammesso di aver utilizzato Microsoft Copilot, l’Intelligenza Artificiale dell’azienda di Redmond, per redigere un report di intelligence rivelatosi falso, decisione che ha portato al divieto di accesso allo stadio per i tifosi del Maccabi Tel Aviv.

Il problema? L’IA ha letteralmente inventato una partita di calcio che non è mai esistita.

Una partita mai giocata

Lo scorso mese di novembre il club israeliano del Maccabi Tel Aviv avrebbe dovuto affrontare l’Aston Villa a Birmingham per L’Europa League.

Prima dell’incontro, il comitato per la sicurezza cittadina ha deciso di vietare la trasferta ai tifosi israeliani, basandosi su un report della West Midlands Police che definiva l’evento ad alto rischio di scontri tra hooligan.

Quel documento, però, è finito rapidamente sotto accusa da parte dei funzionari governativi. Ora è arrivata l’ammissione ufficiale: il report si basava su informazioni generate da Microsoft Copilot mai verificate.

L’ammissione ufficiale e l’errore di Copilot

Secondo quanto emerso, il report citava un precedente incontro tra Maccabi Tel Aviv e West Ham, presentato come esempio di disordini tra le due tifoserie. Peccato che le due squadre non abbiano mai giocato l’una contro l’altra.

A confermarlo è stata anche la Commissione Affari Interni del Parlamento britannico che ha sottolineato come, nel giorno indicato dall’IA, il West Ham fosse impegnato in una partita completamente diversa contro la squadra greca dell’Olympiacos.

Il capo della West Midlands Police, Craig Guildford, ha scritto in una lettera ufficiale: “Sono venuto a conoscenza che il risultato errato relativo alla partita West Ham contro Maccabi Tel Aviv è emerso a causa dell’uso di Microsoft Copilot.”

Una ammissione arrivata dopo settimane di smentite sull’uso dell’Intelligenza Artificiale.

La risposta di Microsoft

Microsoft ha dichiarato di aver contattato la polizia per chiarimenti, ma di non essere riuscita a replicare riguardo l’accaduto.

Un portavoce dell’azienda ha spiegato che Copilot: aggrega informazioni da più fonti online; fornisce citazioni; avvisa l’utente che sta interagendo con un sistema di Intelligenza Artificiale e, soprattutto, invita a verificare le fonti.

Peccato che, in questo caso, nessuno lo abbia fatto.

Un problema tutt’altro che isolato

L’episodio britannico non è un caso unico. L’intelligenza artificiale generativa è ancora fortemente soggetta a “hallucinations”, ovvero la produzione di informazioni false ma presentate come plausibili.

Solo pochi mesi fa: Deloitte, una delle più grandi società di consulenza al mondo, ha dovuto rimborsare parzialmente il governo australiano a causa di per un report contenente articoli accademici e sentenze giudiziarie completamente inventate dalla IA.

È ormai palese che quando questi errori finiscono in documenti ufficiali, le conseguenze diventano politiche, legali e sociali.

Quando l’Intelligenza Artificiale descrive la realtà (sbagliata)

La vicenda dimostra una verità scomoda: l’intelligenza artificiale non è un oracolo, ma uno strumento che richiede controllo umano, contesto e responsabilità. Affidarle report di sicurezza senza verifiche significa trasformare un errore digitale in un problema molto concreto.

E se oggi si parla di tifosi ingiustamente esclusi da una partita, domani potrebbe trattarsi di decisioni ben più gravi.

fonte