Condividi su:

Il 2 giugno ha fatto il giro del mondo la notizia secondo cui, durante una simulazione digitale, l’intelligenza artificiale creata per i droni dell’esercito avrebbe ucciso il proprio operatore, reo di limitarne l’efficacia.

Dagli approfondimenti è emerso che in realtà il colonnello Tucker Hamilton, responsabile delle attività di test sulle AI per l’Aeronautica militare statunitense, aveva raccontato uno scenario ipotetico: un’IA impostata con l’obiettivo di abbattere missili terra-aria, non prima di aver ricevuto l’approvazione da parte di un operatore, potrebbe secondo il colonnello interpretare l’uomo come un ostacolo al raggiungimento dello scopo, e quindi decidere di eliminarlo.

Sebbene il clamore della notizia si sia poi sgonfiato grazie alle dichiarazioni di Hamilton, il pericolo che questa nuova tecnologia possa essere una minaccia per l’essere umano non è certo una novità.

Il 30 maggio 2023 il Center for AI Safety, una nonprofit che si occupa dei rischi che l’intelligenza artificiale porta alla società, ha pubblicato un comunicato secondo cui “mitigare il rischio di estinzione da parte dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”. La sintetica dichiarazione è stata sottoscritta da più di 350 esperti del campo e scienziati, tra cui Bill Gates e diversi membri di società internazionali, come OpenAI e Google DeepMind, ma mancano i rappresentanti di Meta.

Sul sito della nonprofit è presente anche un comunicato stampa collegato in cui la dichiarazione viene paragonata per importanza a quella sui potenziali effetti della bomba atomica fatta da Oppenheimer nel 1949.

Secondo diversi addetti ai lavori, non si tratta di altro che di un’operazione di marketing a basso costo al fine di sviare l’attenzione dalle attuali criticità dell’IA, così come la lettera aperta firmata da diversi operatori del settore, tra cui Elon Musk, in cui viene chiesta una pausa di sei mesi allo sviluppo di tecnologie più sofisticate di GPT-4: se pensano che sia necessario un periodo di stop perché non lo fanno?

Gli attuali problemi legati a IA sono per lo più imputabili alle caratteristiche della tecnologia stessa e all’uso improprio che se ne fa, come l’amplificazione di pregiudizi.

Vediamone alcuni.

In Amazon era stata sviluppata una tecnologia per valutare i curriculum, basata sui profili delle persone assunte negli ultimi dieci anni, secondo un sistema a stelline, analogamente ai punteggi dati ai prodotti dell’e-commerce.  Nel corso del primo anno, l’azienda ha notato come il sistema preferisse gli uomini alle donne: era naturale che fosse così, visto che l’azienda stessa nei dieci anni precedenti aveva preferito candidati maschili.

Gli appassionati di The good wife ricorderanno la puntata in cui una nuova tecnologia che doveva categorizzare le immagini (indicando se rappresentavano una persona, un animale, un oggetto…), classificava i soggetti afroamericani come scimmie: al software era stato insegnato molto bene come individuare un caucasico, ma non altrettanto come farlo con le persone di colore.

Questi sono solo alcuni esempi di come l’IA non possa essere definita di per sè maschilista o razzista: prende decisioni in base agli input ricevuti, che possono avere bias ab initio.

Un professore universitario in Texas ha bloccato la laurea di tutti i suoi studenti perché ChatGPT aveva affermato che tutte le tesi fossero frutto del lavoro di ChatGPT stesso. L’ironia è che sottoponendo all’IA la tesi del professore, anche questa viene classificata come prodotto dell’IA: la tecnologia, infatti, tende a compiacere lo scrivente e a seconda di come è impostato il prompt dà feedback opposti e/o non veritieri (è possibile far affermare che 1+1 fa 5).

Analogamente, negli Stati Uniti la NEDA (National Eating Disorder Association) aveva annunciato il licenziamento del personale che si dedicava alle linee telefoniche di supporto, sostituendo il servizio con un chatbot apposito, Tessa. L’operazione è poi stata bloccata perché l’IA dava risposte pericolose che incoraggiavano per esempio diete restrittive. Non proprio quello che ci si aspetterebbe contattando un’organizzazione che supporta le persone con disordini alimentari.

Insomma, problemi con l’intelligenza artificiale ne abbiamo già da ora, li risolveremo prima di estinguerci?