L’intelligenza artificiale, e in particolare il facial recognition tornano a far discutere: in seguito all’omicidio di George Floyd e le proteste scoppiate negli USA, tre delle più importanti aziende al mondo, IBM, Amazon e Microsoft, hanno consapevolmente scelto di fare un passo indietro consapevoli che il riconoscimento facciale ad oggi può dirsi non idoneo come supporto per le forze di polizia.

IBM è stata la prima a dichiarare pubblicamente l’intenzione di sospendere l’erogazione del servizio ai governi e alle forze dell’ordine. Le parole dell’amministratore delegato Arvind Krishna non lasciano spazio a dubbi: “IBM si oppone fermamente e non perdonerà l’uso di alcuna tecnologia di riconoscimento facciale, comprese quelle offerte da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà o a qualsiasi fine che non sia coerente con i nostri valori e principi di fiducia e trasparenza”.

Poco dopo, Amazon ha seguito l’esempio di IBM, vietando alla polizia l’utilizzo del suo Rekognition da qui a un anno.

Infine Microsoft che, in seguito all’esplicita richiesta da parte dei ricercatori del MIT, ha dichiarato, nel corso di una conferenza virtuale organizzata dal Washington Post lo stop alla vendita della tecnologia fino a quando non verrà varata una legge nazionale rispettosa dei diritti umani relativa a tale tecnologia.

Gli stessi studiosi del MIT, insieme all’Intelligence Team di Google, hanno infatti più volte denunciato l’inadeguatezza dei sistemi di riconoscimento facciale con particolare attenzione verso il bug riguardante la tecnologia di screening della melatonina, che non funzionerebbe adeguatamente su persone con la pelle più scura.

Inoltre, fa discutere anche l’utilizzo dei software in sinergia con le fotografie “prelevate” dai profili sui social network: un polverone che si era già sollevato durante il recente scandalo riguardante la startup Clearview AI.

Tecnologia ed etica: quando il business non può superare il valore delle persone

Sono tanti i dubbi che hanno accompagnato l’adozione su vasta scala dell’intelligenza artificiale per il riconoscimento facciale, e la scelta di adottare questa particolare tecnologia anche per gestire l’ordine pubblico, in un periodo di forti tensioni sociali, non ha che accentuato i dubbi anche etici sulla sua applicazione.

Il problema legato all’utilizzo del riconoscimento facciale è relativo alla possibilità che si possa trasformare in un dispositivo di sorveglianza di massa e di profilazione delle minoranze. La città di San Francisco aveva già vietato espressamente  l’utilizzo di questi software nel 2019, poiché ritenuti ancora acerbi e poco regolamentati per un utilizzo continuativo che non violi inevitabilmente i diritti e le libertà dei cittadini.

Il problema però non è solo statunitense.

Già nel 2018 l’Unione Europea aveva iniziato la stesura di un codice volto a prevenire situazioni in cui l’utilizzo di intelligenze artificiali in grado di riconoscere il volto delle persone potesse rivelarsi pericoloso per le libertà e lesivo per i diritti umani, a maggior ragione considerando che questi sistemi si basano su algoritmi che presentano ancora falle importanti per quanto riguarda il riconoscimento di donne, bambini e minoranze etniche.

La domanda quindi resta: ci possiamo affidare all’intelligenza artificiale per “farci riconoscere”? Al momento, la risposta sembra essere no: e non per colpa delle  macchine.