Categorie
Tecnologia

A Londra l’AI sorveglia i passeggeri della metropolitana

Author: Wired

Madeleine Stone, senior advocacy officer del gruppo per la privacy Big Brother Watch, è convinta che l’uso di un algoritmo per determinare se una persona è “aggressiva” rappresenta un metodo “profondamente imperfetto, e sottolinea che l’Information commissioner’s office (Ico, l’equivalente del nostro Garante della privacy nel Regno Unito) ha messo in guardia dall’uso di tecnologie per l’analisi delle emozioni.

Secondo quanto riportato dai documenti, durante la sperimentazione il personale dell’ente di trasporto ha eseguito simulazioni approfondite” a Willesden Green, in alcuni casi mentre la stazione era chiusa, allo scopo di raccogliere dati utili per l’addestramento. “Vedrete l’agente della Btp [British Transport Police, il corpo di polizia britannico attiva sulle ferrovie e nella metropolitana] con in mano un machete e una pistola in diversi punti all’interno della stazione“, si legge in una didascalia nei documenti. Durante i test, non ci sono stati lanciati allarmi legati a incidenti con armi.

Il maggior numero di segnalazioni ha riguardato persone che non pagavano il biglietto evitavano di pagare il biglietto, saltando e strisciando sotto i tornelli chiusi oppure entrando dopo una persona che aveva regolarmente passato il biglietto. Il fenomeno delle passeggeri che viaggiano senza pagare comporta mancati introiti che possono arrivare fino a 130 milioni di sterline (circa 152 milioni di euro) all’anno, afferma la TfL, precisando che durante la sperimentazione sono stati emessi ben 26mila avvisi legati a questa infrazione.

All’inizio della sperimentazione, i volti delle persone sono stati sfocati, mentre i dati sono stati conservati per un massimo di 14 giorni. Dopo sei mesi, però la TfL ha deciso di non offuscare più le immagini dei volti delle persone sospettate di viaggiare senza biglietto e ha conservato i dati per un periodo più lungo.“Se essere utilizzate, queste tecnologie devono avere la fiducia, il consenso e il sostegno del pubblico”, commenta Birtwistle dell’Ada Lovelace Institute.-

Gran parte della sperimentazione era finalizzata ad aiutare il personale della metropolitana a capire cosa stava accadendo alla stazione e a rispondere agli incidenti. Le 59 segnalazioni sulla presenza di persone sulla sedia a rotelle hanno permesso allo staff di Willesden Green, che non dispone di strutture di accesso adatte, di fornire l’assistenza necessaria agli utenti. Il sistema ha anche generato quasi 2.200 persone che avevano oltrepassato la linea di sicurezza gialla, 39 segnalazioni che si erano spinte sui binari e quasi .000 segnalazioni che erano rimaste sedute su una panchina per un periodo di tempo prolungato.

Author: Wired

Madeleine Stone, senior advocacy officer del gruppo per la privacy Big Brother Watch, è convinta che l’uso di un algoritmo per determinare se una persona è “aggressiva” rappresenta un metodo “profondamente imperfetto, e sottolinea che l’Information commissioner’s office (Ico, l’equivalente del nostro Garante della privacy nel Regno Unito) ha messo in guardia dall’uso di tecnologie per l’analisi delle emozioni.

Secondo quanto riportato dai documenti, durante la sperimentazione il personale dell’ente di trasporto ha eseguito simulazioni approfondite” a Willesden Green, in alcuni casi mentre la stazione era chiusa, allo scopo di raccogliere dati utili per l’addestramento. “Vedrete l’agente della Btp [British Transport Police, il corpo di polizia britannico attiva sulle ferrovie e nella metropolitana] con in mano un machete e una pistola in diversi punti all’interno della stazione“, si legge in una didascalia nei documenti. Durante i test, non ci sono stati lanciati allarmi legati a incidenti con armi.

Il maggior numero di segnalazioni ha riguardato persone che non pagavano il biglietto evitavano di pagare il biglietto, saltando e strisciando sotto i tornelli chiusi oppure entrando dopo una persona che aveva regolarmente passato il biglietto. Il fenomeno delle passeggeri che viaggiano senza pagare comporta mancati introiti che possono arrivare fino a 130 milioni di sterline (circa 152 milioni di euro) all’anno, afferma la TfL, precisando che durante la sperimentazione sono stati emessi ben 26mila avvisi legati a questa infrazione.

All’inizio della sperimentazione, i volti delle persone sono stati sfocati, mentre i dati sono stati conservati per un massimo di 14 giorni. Dopo sei mesi, però la TfL ha deciso di non offuscare più le immagini dei volti delle persone sospettate di viaggiare senza biglietto e ha conservato i dati per un periodo più lungo.“Se essere utilizzate, queste tecnologie devono avere la fiducia, il consenso e il sostegno del pubblico”, commenta Birtwistle dell’Ada Lovelace Institute.-

Gran parte della sperimentazione era finalizzata ad aiutare il personale della metropolitana a capire cosa stava accadendo alla stazione e a rispondere agli incidenti. Le 59 segnalazioni sulla presenza di persone sulla sedia a rotelle hanno permesso allo staff di Willesden Green, che non dispone di strutture di accesso adatte, di fornire l’assistenza necessaria agli utenti. Il sistema ha anche generato quasi 2.200 persone che avevano oltrepassato la linea di sicurezza gialla, 39 segnalazioni che si erano spinte sui binari e quasi .000 segnalazioni che erano rimaste sedute su una panchina per un periodo di tempo prolungato.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.