< Torna indietro
Ambiente, società e tecnologia

Ahi ahi, AI! Le criticità dell’Intelligenza Artificiale

Il 2 giugno ha fatto il giro del mondo la notizia secondo cui, durante una simulazione digitale, l’intelligenza artificiale creata per i droni dell’esercito avrebbe ucciso il proprio operatore, reo di limitarne l’efficacia.

Dagli approfondimenti è emerso che in realtà il colonnello Tucker Hamilton, responsabile delle attività di test sulle AI per l’Aeronautica militare statunitense, aveva raccontato uno scenario ipotetico: un’IA impostata con l’obiettivo di abbattere missili terra-aria, non prima di aver ricevuto l’approvazione da parte di un operatore, potrebbe secondo il colonnello interpretare l’uomo come un ostacolo al raggiungimento dello scopo, e quindi decidere di eliminarlo.

Sebbene il clamore della notizia si sia poi sgonfiato grazie alle dichiarazioni di Hamilton, il pericolo che questa nuova tecnologia possa essere una minaccia per l’essere umano non è certo una novità.

Il 30 maggio 2023 il Center for AI Safety, una nonprofit che si occupa dei rischi che l’intelligenza artificiale porta alla società, ha pubblicato un comunicato secondo cui “mitigare il rischio di estinzione da parte dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”. La sintetica dichiarazione è stata sottoscritta da più di 350 esperti del campo e scienziati, tra cui Bill Gates e diversi membri di società internazionali, come OpenAI e Google DeepMind, ma mancano i rappresentanti di Meta.

Sul sito della nonprofit è presente anche un comunicato stampa collegato in cui la dichiarazione viene paragonata per importanza a quella sui potenziali effetti della bomba atomica fatta da Oppenheimer nel 1949.

Secondo diversi addetti ai lavori, non si tratta di altro che di un’operazione di marketing a basso costo al fine di sviare l’attenzione dalle attuali criticità dell’IA, così come la lettera aperta firmata da diversi operatori del settore, tra cui Elon Musk, in cui viene chiesta una pausa di sei mesi allo sviluppo di tecnologie più sofisticate di GPT-4: se pensano che sia necessario un periodo di stop perché non lo fanno?

Gli attuali problemi legati a IA sono per lo più imputabili alle caratteristiche della tecnologia stessa e all’uso improprio che se ne fa, come l’amplificazione di pregiudizi.

Vediamone alcuni.

In Amazon era stata sviluppata una tecnologia per valutare i curriculum, basata sui profili delle persone assunte negli ultimi dieci anni, secondo un sistema a stelline, analogamente ai punteggi dati ai prodotti dell’e-commerce.  Nel corso del primo anno, l’azienda ha notato come il sistema preferisse gli uomini alle donne: era naturale che fosse così, visto che l’azienda stessa nei dieci anni precedenti aveva preferito candidati maschili.

Gli appassionati di The good wife ricorderanno la puntata in cui una nuova tecnologia che doveva categorizzare le immagini (indicando se rappresentavano una persona, un animale, un oggetto…), classificava i soggetti afroamericani come scimmie: al software era stato insegnato molto bene come individuare un caucasico, ma non altrettanto come farlo con le persone di colore.

Questi sono solo alcuni esempi di come l’IA non possa essere definita di per sè maschilista o razzista: prende decisioni in base agli input ricevuti, che possono avere bias ab initio.

Un professore universitario in Texas ha bloccato la laurea di tutti i suoi studenti perché ChatGPT aveva affermato che tutte le tesi fossero frutto del lavoro di ChatGPT stesso. L’ironia è che sottoponendo all’IA la tesi del professore, anche questa viene classificata come prodotto dell’IA: la tecnologia, infatti, tende a compiacere lo scrivente e a seconda di come è impostato il prompt dà feedback opposti e/o non veritieri (è possibile far affermare che 1+1 fa 5).

Analogamente, negli Stati Uniti la NEDA (National Eating Disorder Association) aveva annunciato il licenziamento del personale che si dedicava alle linee telefoniche di supporto, sostituendo il servizio con un chatbot apposito, Tessa. L’operazione è poi stata bloccata perché l’IA dava risposte pericolose che incoraggiavano per esempio diete restrittive. Non proprio quello che ci si aspetterebbe contattando un’organizzazione che supporta le persone con disordini alimentari.

Insomma, problemi con l’intelligenza artificiale ne abbiamo già da ora, li risolveremo prima di estinguerci?

< Torna indietro
Ambiente, società e tecnologia

“Hey Magi!”: in arrivo l’ultima novità targata Google

Magi, acronimo per Meta-Learning Agent for Human Instruction, si appresta a diventare l’integrazione AI (artificial intelligence) del motore di ricerca più utilizzato al mondo.

Recentemente gli sviluppi della ricerca sull’AI hanno portato alla ribalta ChatGPT, una chatbox in grado di scrivere testi complessi e fornire risposte articolate a moltissimi quesiti. Tutti i colossi del web stanno quindi correndo ai ripari per tenere il passo; Microsoft e Google non potevano essere da meno. Quest’ultimo in particolare negli ultimi mesi ha impiegato a tempo pieno circa 160 sviluppatori per poter presentare alla conferenza sviluppatori I/O 2023 dello scorso 10 maggio buona parte delle novità sulla sua AI. In realtà l’intero progetto di Google prende il nome di Bard, dalla figura del poeta-cantore di gesta epiche della tradizione celtica (soprannome tra l’altro utilizzato per Shakespeare), mentre la sua estensione all’esperienza di ricerca è stata chiamata appunto Magi. Ma vediamo un po’ più nel dettaglio di che cosa si tratta.

L’implementazione dell’AI nella web search engine dovrebbe fornire all’utente un’esperienza più personalizzata di quella attuale andando ad anticipare le sue esigenze attraverso l’integrazione contemporanea di più piattaforme. Un esempio di quanto appena detto, secondo numerose fonti web, potrebbe essere quello che riguarda il settore turismo. Inserendo nella chatbox i termini della ricerca, Google dovrebbe essere in grado di rispondere in un’unica schermata a tutte le domande dell’utente, riportando le migliori offerte per biglietti aerei, hotel, esperienze di viaggio come city tour e ristoranti senza neanche rendere necessario l’utilizzo di altre url. Allo stesso modo, un acquisto on line potrebbe essere effettuato già attraverso Google e senza la necessità di visitare l’e-commerce di un qualsiasi brand. In pratica l’esperienza di ricerca diventerà più una conversazione che un semplice botta e risposta.

E non finisce qui: Google lancerà altri servizi collegati all’AI che andranno a modificare e potenziare quanto già offerto da alcune delle sue APP più gettonate: Earth vedrà un miglioramento delle sue mappe attraverso l’implementazione di una navigazione immersiva che renderà molto più precisi i percorsi. Google Foto verrà invece integrato con Magic Editor, cioè una sorta di Photoshop molto semplificato. Tivoli Tutor sbarcherà sul mercato dei corsi di lingua offrendo la possibilità di conversazioni virtuali e, sempre nella macroarea delle lingue straniere, sarà possibile tradurre una frase parlata in tempo reale grazie ad un traduttore simultaneo virtuale.

Le funzionalità di Magi dovrebbero essere disponibili entro l’estate per buona parte degli utenti degli Stati Uniti e per il resto del globo entro fine anno. Non ci resta che attendere!

< Torna indietro
Ambiente, società e tecnologia

Come l’intelligenza artificiale sta cambiando i lavori creativi

Che l’intelligenza artificiale sia già largamente presente nelle nostre vite è evidente: basti pensare agli assistenti vocali, tra cui Siri, Cortana, Google Assistant e Alexa, ai marketplace online come Amazon, che in base al nostro comportamento online è in grado di capire a quali prodotti potremmo essere interessati e indirizzarci al loro acquisto, alle piattaforme streaming come Netflix, che, sempre in base alle azioni che effettuiamo sulla piattaforma, impara quali sono i contenuti di nostro gradimento per proporcene di simili e agli assistenti alla guida (ADAS) – presenti sulla maggior parte delle vetture oggi in commercio – i quali aiutano a prevenire gli incidenti. Proprio a partire da questi ultimi si evolve la guida autonoma, il cui graduale perfezionamento spinge il mondo a interrogarsi sull’impatto che questa avrà in futuro sui trasporti, nonché sulle problematiche che potrebbe generare nel mondo del lavoro se andasse a sostituire gli autisti di taxi, mezzi pesanti e mezzi agricoli. Questo interrogativo si inserisce in un dibattito più ampio, che, in tempi recenti, ha iniziato a interessare anche i cosiddetti lavori creativi; oggi, infatti, si può chiedere ai vari sistemi in circolazione – tra cui ChatGPT, Midjourney, Dall-e, Crayon, Imagen ed altri – di scrivere testi o generare immagini a partire dalle richieste degli utenti. Ma che cosa sono di preciso i lavori creativi?

Con il termine “creativi” si indicano tutti quei lavori riconducibili alla capacità espressiva dell’individuo, come il grafico, il fotografo, il designer e in generale l’artista. Tra i fattori che hanno contribuito a dare risonanza mediatica al dibattito sulla sostituibilità di queste figure da parte dell’intelligenza artificiale, significativo è stato il disclaimer che ha accompagnato ad aprile 2022 il lancio del servizio Dall-E 2 da parte della società OpenAI (che ha lanciato anche ChatGPT), il quale, tra le altre cose, afferma che “il modello potrebbe aumentare l’efficienza nell’esecuzione di alcuni compiti come l’editing o la produzione di fotografie d’archivio, che potrebbe soppiantare il lavoro di designer, fotografi, modelli, editor e artisti”. Allo stesso modo, tra gli altri eventi, ha creato preoccupazione nel settore la vincita di un concorso artistico negli Stati Uniti da parte di un quadro prodotto con Midjourney (“Théâtre D’opéra Spatial”).

Il mondo degli artisti è diviso sulla questione: una parte vede con scetticismo l’avvento di strumenti come Dall-E e Midjourney, l’altra al contrario apprezza queste piattaforme, in quanto ritiene che siano in grado di trasformare operazioni fino a ieri laboriose e che richiedevano precise competenze per essere svolte, in operazioni alla portata di tutti. Di questo parere è, ad esempio, lo scultore canadese Benjamin Von Wong, che afferma di non saper disegnare e dunque di affidarsi a Dall-E – dove basta inserire una stringa di testo per vedere realizzata l’immagine che si desidera – per visualizzare idee che successivamente trasformerà lui stesso in sculture.

L’utilizzo creativo dell’intelligenza artificiale non riguarda però solo il singolo artista nel processo di creazione di un’opera, bensì anche un altro ambiente dove l’AI è già largamente utilizzata per svolgere svariate operazioni: l’azienda. Questa, a seconda del tipo, ospita al suo interno diverse mansioni creative, per ciascuna delle quali esiste o sta nascendo una risposta del tutto digitale.

Nel caso degli organi di informazione, alcune testate giornalistiche tra cui Forbes e il Washington Post si affidano a strumenti come Heliograph e Synthesia per l’individuazione delle notizie di tendenza, l’ottimizzazione delle immagini e la stesura di titoli, altre come il DailyMirror e Express pubblicano articoli redatti dall’IA o vi inseriscono immagini da questa generate (più economiche rispetto a quelle di un fotografo), mentre altre ancora, tra cui Wired e Slow News, hanno scritto policy che impediscono a loro stesse di ricorrere a immagini o articoli frutto dell’IA. Alla base di quest’ultima decisione stanno ragioni di carattere etico, infatti, scrive Wired: “Vogliamo essere in prima linea nell’uso di nuove tecnologie, ma anche farlo in maniera etica e con una certa attenzione”.

A vedere la presenza sempre più massiccia dell’intelligenza artificiale in chiave creativa è anche l’area marketing. La piattaforma Contents.com è in grado di ricoprire diverse delle mansioni tipiche del social media manager, promettendo di “generare qualsiasi tipo di contenuto in pochi secondi” e, basandosi su un approccio data driven, dichiara di poter produrre qualsiasi tipo di testo – dalle schede prodotto ai post per social media, dai siti web agli e-commerce – e ha già collaborato con diversi marchi noti, come Ikea e Allianz. Ghost Writer AI viene utilizzato dalla casa di videogiochi Ubisoft per scrivere i dialoghi tra personaggi non giocanti. Ad aprile 2023, Levi’s ha annunciato la collaborazione con la startup olandese Lalaland per la realizzazione di avatar iperrealistici generati dall’intelligenza artificiale che saranno utili a presentare i prodotti rispecchiando più fedelmente le caratteristiche dei consumatori. Uno dei casi più eclatanti è, infine, quello di Beck’s, che a breve metterà in commercio in edizione limitata la birra Autonomous, interamente sviluppata dall’IA; in particolare, Beck’s si è affidata a ChatGPT e Midjourney per la creazione della ricetta, del branding e della campagna marketing a supporto della birra, mettendo tutte le scelte in mano alla tecnologia. Sebbene si tratti di un prodotto ideato per celebrare il 150esimo anniversario dell’azienda, è chiaro che questo progetto contribuisca a segnare la strada per un futuro sempre maggiore coinvolgimento dell’IA nei piani aziendali anche per i ruoli creativi; non a caso, Beck’s ha annunciato che introdurrà nel corso del 2023 nuovi design per i suoi pack disegnati collaborando con sistemi come quelli già citati.

I casi fin qui analizzati ci mostrano come l’intelligenza artificiale sia destinata a divenire sempre più parte integrante delle professioni creative, con la conseguente necessità per le autorità pubbliche di intervenire normativamente laddove questo fenomeno possa creare problemi (ad es. deep fake, diritto d’autore…) e per coloro che svolgono lavori creativi di possedere le conoscenze base tecnologiche, di programmazione e di analisi.

Ad ogni modo, fino al momento in cui sarà possibile “insegnare la creatività ai computer” – qualcosa che il dottor Stephen Thaler ha tentato di fare con DABUS (sistema che ha dato vita autonomamente a due idee di prodotti dopo essere stato “allenato” dall’umano) – la capacità di guardare fuori dagli schemi, il senso critico e la motivazione ad approfondire un aspetto della realtà invece che un altro saranno prerogative dell’umano, che darà l’input all’intelligenza artificiale affinché trasformi il pensiero in realtà.

< Torna indietro
Ambiente, società e tecnologia

La crisi idrica: le soluzioni da mettere in campo

La storia sembra ripetersi. Come l’anno scorso, è arrivata la primavera e lo stato dei fiumi, torrenti e laghi italiani non è dei più piacevoli. I livelli dei più grandi corsi d’acqua sono ai limiti storici: si cominciano a scorgere i letti dei fiumi, fondali fatti di sassi, sabbia e detriti. Bisogna fare i conti con un problema che gran parte della popolazione mondiale vive quotidianamente: la siccità. Le conseguenze? Ci sono a livello economico e sociale. Quindi serve agire per una gestione migliore e più attenta della risorsa. Ma le soluzioni ci sono e sono diverse: dalla conservazione, riduzione degli sprechi investendo nelle infrastrutture fino a coinvolgere la nanotecnologia per adottare soluzioni molto particolari per una desalinizzazione efficace dell’acqua marina.

 

Scarsità di acqua: un problema mondiale che stanno sperimentando sempre più paesi

L’acqua ricopre quasi il 70% della superficie del pianeta Terra e costituisce la risorsa per il benessere, la vita e la sicurezza per l’uomo e per il resto della biodiversità. L’acqua, lungo il ciclo idrogeologico la troviamo distribuita in superficie, atmosfera e nel sottosuolo. L’acqua salata di mari e oceani costituisce circa il 96%  e il restante è all’interno dei ghiacciai o a diverse profondità sottoterra . È proprio negli acquiferi profondi che troviamo l’acqua di qualità e utilizzabile per essere bevuta ed equivale a circa l’1%. A causa del cambiamento climatico antropogenico, l’intero ciclo idrogeologico e così l’accessibilità dell’acqua per l’uomo è sempre più a rischio. L’aumento delle temperature accelera la fusione dei ghiacciai e il fenomeno dell’evaporazione aggravando l’impatto dei periodi di siccità e rendendo la disponibilità di acqua meno prevedibile. A questo si aggiunge l’incremento della presenza  di agenti inquinanti(da pratiche agricole e sversamenti industriali) che ne riduce in generale la qualità e l’accessibilità. Il risultato? Un incremento di gravi stress sulle gestione e controllo dell’acqua  e una vera a propria crisi idrica per un numero sempre maggiore di paesi nel mondo anche in quelle zone tipicamente ricche di acqua. Parliamo di crisi idrica perché l’acqua oltre che essere una questione di sanità pubblica è una fonte essenziale per i principali settori economici di un paese. In Europa, un terzo delle risorse idriche sono destinate all’agricoltura, seguita dal settore industriale e poi quello energetico.

Nonostante l’importanza di questa risorsa, una gestione corretta e sostenibile dell’acqua risulta ancora difficile. Ma le possibili conseguenze,  tra perdite economiche e crisi sociali sono sempre più visibili e possono solo che inasprirsi. Si stima che i conflitti a livello locale per l’acqua siano destinati ad aumentare e che solo nel periodo dal 1983 al 2009 le perdite agricole a livello globale  per riduzione della produzione siano state di più di 100 miliardi di dollari. La riduzione di precipitazioni per esempio diminuisce la produzione idroelettrica  e termoelettrica, impattando su alcune delle principali fonti primarie di energia rinnovabile per molti paesi Europei. Un problema che è presente da tempo e che ora si ripresenta più spesso e con impatti solo più evidenti e tangibili. Alla luce di questa situazione c’è bisogno di definire soluzioni di adattamento e mitigazione degli impatti della crisi climatica per ridurre sprechi e migliorare la gestione dell’acqua. Questo implica agire sul rafforzamento e miglioramento le infrastrutture oltre che pensare a politiche territoriali lungimiranti.

 

Attualmente in Italia che si fa?

Ad oggi in Italia, si punta a soluzioni come la conservazione e stoccaggio, cioè la raccolta dell’acqua piovana attraverso diverse tecniche. Nelle aree urbane purtroppo ne riusciamo a raccogliere meno del 15% prima che tocchi terra e venga contaminata. Tutto il resto viene perso per evaporazione o finisce nei tombini. Certo si potrebbe puntare su un recupero maggiore delle risorsa sfruttando tecnologie per la captazione, filtraggio e accumulo di acqua piovana non potabile proveniente dalle coperture degli edifici. Ma oggi le soluzioni adottate sono dighe o vasche di contenimento a cui magari abbinare impianti fotovoltaici galleggianti da cui ricavare potenza elettrica.  Sebbene sia una delle soluzioni più diffuse in Italia, Il Centro italiano per la riqualificazione fluviale ne sottolinea le criticità.  La costruzione di nuove dighe lungo i corsi d’acqua esercita un forte impatto sui sistemi idrografici perché con lo scavo si crea un deficit di sedimenti su estese porzioni di terra oltre che determinare un’accelerazione dell’erosione costiera.  Meno impattanti invece risultano i piccoli invasi collinari e  ancora migliore la soluzione dello stoccaggio diretto nella falda.

È da ricordare come, oltre al recupero dell’acqua piovana, sia da stimolare un miglioramento ed efficientamento delle infrastrutture per ridurre quelli che ad oggi sono le importanti perdite dovute a tubazioni che sono a tutti gli effetti dei colabrodo. Secondo i dati ISTAT in Italia su un totale di 8,2 miliardi di metri cubi di acqua immessa nel sistema la perdita è di circa il 42%, quasi 150 litri di acqua sprecata al giorno per abitante.

Inoltre, si stanno inserendo nella pianificazione strategica delle amministrazioni locali progetti per sfruttare la superficie dei tetti. Per esempio con la creazione di giardini pensili e serre aeroponiche che andrebbero ad avere duplice funzione: mitigare flussi d’acqua abbondanti che si riversano sulle strade(specie durante i forti temporali) e grazie alla presenza della vegetazione  ridurre gli  inquinanti e l’effetto delle isole di calore.

 

La biomimetica per risolvere la crisi idrica? Desalinizzare l’acqua guardando alle proteine

Un’altra soluzione è quella di sfruttare l’immensa risorsa d’acqua salata dei mari attraverso la tecnica della dissalazione che può avvenire per evaporazione, con membrane e per scambio ionico. In questo modo si riesce a trattare l’acqua marina e renderla utile per scopo alimentare e agricolo riducendone il contenuto di sali, che non devono scomparire del tutto perché sono importanti! Oggi la dissalazione è praticata in 183 paesi e la scienza su questo fronte corre veloce, l’interesse nel settore c’è e la volontà di innovazione anche. In Italia, oggi lo sviluppo di questa tecnologia  è limitato a impianti di piccole dimensioni in Sicilia, Toscana e Liguria. Il potenziale della dissalazione in Italia è enorme e grazie allo sviluppo di nuovi materiali sarà possibile incrementare la presenza di questa tecnologia sul territorio.

Ad oggi, negli impianti più utilizzati, quelli a membrane l’acqua viene pompata e direzionata verso diversi step di filtraggio per l’eliminazione di detriti prima, batteri, nanoparticelle e sali poi.

Da diversi anni ormai la ricerca  si concentra sulla sintesi di membrane filtranti biomimetiche per la riduzione dei sali ispirandosi ad alcuni processi biologici altamente efficienti. Un gruppo variegato di ricercatori da diverse parti del mondo, con un lavoro pubblicato su Nature Nanotechnology ha esplorato la possibilità di creare delle membrane di poliammide a matrice nanometrica ispirate alle proteine biologiche chiamate acquaporine sfruttando il fenomeno dell’osmosi inversa. Le acquaporine sono naturali proteine che hanno la funzione di creare canali nelle membrane cellulari e regolare il flusso di acqua nel corpo umano. Il gruppo ne ha preso ispirazione ricreando canali artificiali altamente permeabili all’acqua e non ai sali.  La creazione di queste membrane permette di dissalare  in modo più efficace la stessa quantità di acqua rispetto all’utilizzo delle tradizionali membrane a film polimerici riducendo molto i costi energetici.

Per quanto sia un’ottima soluzione per aumentare la disponibilità di acqua, la desalinizzazione porta con sé una serie di criticità.  Sono ben noti i problemi ambientali che questa tecnologia comporta. Infatti, è un processo fortemente energivoro che viene alimentato da combustibili fossili che va a contribuire all’aumento delle emissioni. A questo si aggiunge, negli impianti che sfruttano l’evaporazione, la produzione della cosi detta “salamoia” ovvero il residuo altamente tossico (le concentrazioni di rame e sale sono elevate), che viene rilasciato in mare andando a impattare sugli ecosistemi costieri.

In conclusione, la scarsità di acqua è un’emergenza che non dobbiamo sottovalutare. Per risolvere questo problema non possiamo solo affidarci alla tecnologia, che ci offre soluzioni sempre più interessanti, ma pensare bene di ottimizzare e valorizzare ciò che abbiamo oltre che pianificare una riduzione degli sprechi e dei consumi in eccesso.

< Torna indietro
Ambiente, società e tecnologia

ChatGPT: ritorno al futuro?

Nelle ultime settimane si sta parlando molto della sospensione in Italia di ChatGPT, software di intelligenza artificiale relazionale, disposta da OpenAI L.L.C., società sviluppatrice del servizio.

La misura è la risposta all’apertura di un’istruttoria in cui si contesta la raccolta illecita dei dati degli utenti italiani, che ha portato al provvedimento del Garante per la Protezione dei dati personali, il quale prevedeva di limitare provvisoriamente il servizio fino a che non fosse tornato a norma il trattamento delle informazioni personali degli utenti utilizzatori.

 

L’evento che ha spinto il Garante a prendere tale decisione risale allo scorso 20 marzo quando, a causa di un problema tecnico, si è verificato un data breach in cui è stata mostrata oltre alla cronologia delle domande degli utenti con i loro dati, anche parte dei dettagli sui metodi di pagamento utilizzati per l’abbonamento al servizio ChatGPT Plus, che offre funzionalità extra.

Ma cerchiamo di comprendere meglio le cause che hanno portato a tale blocco e le azioni che deve intraprendere la società per superarlo.

 

Lacune della OpenAI sulla protezione dei dati

Numerose sono le contestazioni mosse all’organizzazione, in quanto questa non rispetterebbe diversi parametri previsti dalle normative che tutelano la privacy dei dati personali, in particolare dal General Data Protection Regulation (GDPR) – regolamento (UE) 2016/679.

Il Garante ha rilevato anzitutto l’assenza di informazioni agli utenti e agli interessati sulla raccolta dei dati personali da parte della società e su come questi vengano trattati. Un altro problema riscontrato è l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di addestrare gli algoritmi sottesi al funzionamento della piattaforma. In pratica, se un utente inserisce i propri dati all’interno della chat, il servizio non ha nessun sistema che permette di filtrarli, e in più il trattamento di questi risulta inesatto in quanto non sempre le informazioni fornite corrispondono poi alla procedura corretta, perché aggiornate al 2021. Un ulteriore elemento critico è rappresentato dal fatto che, nonostante il servizio sia rivolto ai maggiori di 13 anni, l’assenza di filtri che permettano di verificare l’età degli utenti esponga i minori a risposte inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.

 

Cosa deve fare OpenAI per tornare operativa in Italia?

L’organizzazione deve adempiere entro il 30 aprile alle prescrizioni imposte dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.

Innanzitutto, deve rendere disponibile un’informativa trasparente sul proprio sito che deve essere presentata agli utenti che si collegano dall’Italia, prima del completamento della registrazione, o qualora siano già iscritti deve essere sottoposta al primo accesso conseguente alla riattivazione.

Per la base giuridica sulla raccolta e la conservazione delle informazioni soggette a privacy, il Garante ha ordinato di indicare il consenso o il legittimo interesse come presupposto per l’utilizzo lecito delle stesse.

Inoltre, OpenAI deve permettere agli interessati di poter richiedere la rettifica o qualora questa non sia possibile, la cancellazione delle informazioni lasciate a ChatGPT.

Infine, per superare l’ostacolo riguardante i minori di tredici anni la società deve sviluppare un sistema che consenta di richiedere l’età ai fini della registrazione al servizio.

 

Quello Italiano è il primo intervento di questo tipo a livello mondiale nei confronti di ChatGPT.

Il 5 aprile però si è aperto un dialogo tra OpenAI, che ha confermato la volontà di collaborare, pur essendo convinta di attenersi alle norme in tema di privacy, e il Garante della Protezione dei dati personali che ha assicurato sul fatto che “non vi sia alcuna intenzione di porre un freno allo sviluppo dell’AI e dell’innovazione tecnologica”*. Sembra quindi che si stia andando nella direzione della cooperazione per far si che ci possa essere una convivenza tra innovazione, progresso tecnologico e rispetto dei diritti fondamentali degli individui cosicché si possa dare la possibilità a ChatGPT, con le adeguate modifiche, di tornare operativo in Italia e di farci cavalcare l’onda del futuro.

 

*Garante per la Protezione dei dati personali, Comunicato del 6 aprile 2023.

< Torna indietro
Ambiente, società e tecnologia

Tourism Leakage: dove finiscono i soldi dei turisti?

Il turismo, tra i settori principali dell’economia mondiale, ha un importante ruolo nello sviluppo socioeconomico dei territori, generando ricchezza e occupazione. Tuttavia, quando ciò non accade, si parla di Tourism Leakage, uno degli impatti negativi e spesso nascosti del settore turistico.

Secondo la definizione del WTO, con Tourism Leakage si intende quel “processo mediante il quale una parte delle entrate in valuta estera generate dal turismo, invece di essere trattenuta dai paesi che ricevono turisti, viene trattenuta dai paesi che generano turisti o ritorna a questi sotto forma di profitti, reddito, rimborso di prestiti esteri e importazioni di attrezzature, materiali, capitali e beni di consumo per soddisfare le esigenze del turismo internazionale e delle spese promozionali all’estero.”

Il problema è presente soprattutto nei paesi in via di sviluppo e nelle piccole mete esotiche insulari come le Maldive e gli stati caraibici, dove secondo il UNWTO il denaro speso dai turisti, ma non circolante nell’economia locale, è pari quasi all’80% del totale.

Al tempo stesso, seppure in misura minore, la dispersione di denaro si verifica anche nelle maggiori destinazioni turistiche internazionali contribuendo, anche a causa dell’overtourism, ad accrescere l’insofferenza verso i visitatori da parte dei residenti, come testimoniato da conflitti e manifestazioni che negli ultimi anni hanno interessato diverse città, tra le tante Barcellona e Venezia.

 

Tra le cause del Tourism Leakage va considerata la presenza delle grandi catene internazionali del settore alberghiero e ristorativo all’interno di questi paesi. Per la loro forza economica e organizzativa, infatti, queste possono attuare politiche di prodotto/servizio e di prezzo difficilmente pareggiabili dalle piccole attività ricettive del territorio, con il risultato che i redditi generati dai turisti vengono trasferiti all’estero.

Imprese e aziende internazionali che, soprattutto nei paesi a basso reddito, operano non solo nel comparto dell’hospitality, ma anche nella gestione di servizi di trasporto e infrastrutture. Spesso, sono gli stessi governi nazionali, per mancanza di fondi e risorse necessarie, ad attrarre tramite incentivi fiscali, le compagnie straniere sul proprio territorio, chiedendo loro di investire nel settore e generando investimenti che, se non coordinati in maniera adeguata con la comunità, disincentivano la crescita economica, culturale e sociale di quest’ultima.

Sebbene per gli esperti sia impossibile azzerare la perdita di denaro causata da questi fattori, è lo stesso importante ripensare una forma di turismo più responsabile, dove anche i singoli viaggiatori assumano con le loro scelte un ruolo centrale nel benessere della collettività e dei territori. Scegliere di soggiornare in strutture gestite dagli abitanti del posto piuttosto che nei grandi resort internazionali, acquistare cibo e artigianato del luogo, preferire destinazioni meno conosciute o viaggiare in periodi di minor affluenza, possono costituire delle buone pratiche di viaggio per garantire notevoli effetti positivi sull’intera economia locale.

È necessario quindi, come affermato dal segretario generale delle Nazioni Unite Antonio Guterres lo scorso 27 settembre in occasione della Giornata Mondiale del Turismo, “riconsiderare e reinventare il turismo per offrire un futuro più sostenibile, prospero e resiliente per tutti”.

< Torna indietro
Ambiente, società e tecnologia

Cemento e calcestruzzo green: soluzioni di uno dei materiale più usati (e inquinanti) sulla Terra

Cemento e poi cemento e poi cemento: all’apparenza un materiale molto semplice, che in realtà nasconde caratteristiche e subisce trasformazioni che non sono ancora state del tutto comprese. La quasi totalità di noi non se ne è mai minimamente interessato, ma basta guardarsi intorno per capire quanto è presente nelle nostre vite. Ecco perché è necessario capire cos’è e quanto impatta sull’ambiente.

Per prima cosa dobbiamo capire cosa è il cemento e come si produce. Si parte dal carbonato di calcio (CaCO3) e da argilla. Questi vengono prima sbriciolati, poi messi in un forno a circa 1450 °C e cotti fino ad ottenere il cosiddetto clinker, che successivamente viene di nuovo sbriciolato e mischiato a gesso, ceneri e altri elementi per ottenere la polvere di cemento. Quando questa viene mischiata ad acqua, ghiaia e sabbia quello che si ottiene è il calcestruzzo, il materiale più utilizzato al mondo e secondo solo all’acqua. Proprio a causa delle enormi quantità prodotte il cemento ha un impatto estremamente elevato sull’ambiente, dato che produce CO2 in due modi:

  • tramite la decomposizione del carbonato di calcio in calcare e CO2 (CaCO3 à CaO + CO2);
  • tramite l’utilizzo di combustibili fossili per alimentare i forni.

Secondo la review di Robbie M. Andrew, ricercatore per il CICERO (Center for International Climate Research) nel 2017 l’emissione di CO2 dovuta alla decomposizione del carbonato di calcio ha contribuito per il 5% delle emissioni totali mondiali, mentre aggiungendo le emissioni dovute ai combustibili fossili si passa all’8%. In tutto si stima una quantità di CO2 prodotta quell’anno dal cemento di circa 1.47 miliardi di tonnellate. Una cifra niente male. Nel seguente grafico possiamo vedere alcuni tra i paesi che più inquinano a causa del cemento:

Figure 1. https://ourworldindata.org/grapher/annual-co2-cement?time=1917..latest&country=CHN~USA~IND~SAU~ITA~Europe

Più si va avanti nel tempo e più cemento viene prodotto per soddisfare la domanda sia dei paesi del primo mondo (negli USA è aumentata di 2.5 milioni di tonnellate nel 2022) sia quelli dei paesi emergenti che, dato l’aumento di popolazione e ricchezza ha bisogno di costruire nuove abitazioni e infrastrutture.

 

Figure 2 https://www.sciencedirect.com/science/article/pii/S2212609013000071

 

Ci si aspetta infatti che nel 2030, la variante più utilizzata di cemento (la Portland) arriverà ad una produzione mondiale annuale di circa 5 miliardi di metri cubi e nel 2050 a quasi 6 miliardi. Data la quantità prodotta, rischiamo anche di consumare più risorse naturali di quello che possiamo permetterci.

Ma quindi cosa possiamo fare? Abbiamo la necessità di diminuire le emissioni e il consumo di materie prime, ma allo stesso tempo dobbiamo trovare modi per riassorbire la CO2 emessa e di utilizzare prodotti di scarto per diminuire la richiesta di risorse naturali. Inoltre abbiamo bisogno di qualcosa che non costi troppo, altrimenti i guadagni per le aziende scenderebbero, mentre il costo per i consumatori salirebbe moltissimo.

Ci sono diversi modi per approcciarsi al problema. Uno di questi è quello di utilizzare vari scarti industriali o urbani, come rifiuti urbani, fanghi di depurazione, farine animali, sottoprodotti di scarto e altro per alimentare i forni. I vantaggi sono diversi:

  • un bisogno ridotto di energia e una conseguente riduzione dei costi;
  • lo stato paga i produttori di cemento per smaltire i rifiuti, che altrimenti andrebbero in discarica.

Tutto bellissimo, se non fosse che in questo caso si aumenta la CO2 e si generano altri materiali dannosi come SO2 o altri composti di zolfo, composti organici volatili (VOCs), metalli come piombo o mercurio. Non è quindi la migliore soluzione per agire, a meno che tutti questi composti non vengano successivamente ricatturati e riutilizzati o smaltiti.

L’altro è quello di utilizzare il cemento green o calcestruzzo verde. Questi sono definiti come calcestruzzi e cementi che incorporano materiali di scarto come uno dei loro componenti e che viene prodotto in modo che non danneggi l’ambiente, oppure che ha prestazioni superiori e un ciclo di vita sostenibile. Ci sono molti esempi degni di nota.

Il primo esempio è quello di utilizzare le nanotecnologie. Queste dovrebbero servire per rendere il calcestruzzo più denso e forte, sostituendo il carbonato di calcio e emettendo quindi meno CO2. Le più promettenti sembrano essere i nanotubi di carbonio (fogli di grafene chiusi su sé stessi). Secondo alcuni ricercatori questi aumenterebbero la resistenza alla compressione. Altri addirittura hanno verificato una variazione di potenziale elettrico quando il calcestruzzo viene sottoposto a stress-test. Significa che il cemento potrebbe “automonitorarsi”, aumentando o diminuendo il potenziale elettrico a seconda dello stress applicato e andando a intervenire prima di un possibile cedimento.

Cambiare radicalmente la composizione potrebbe essere un altro passo verso la riduzione di CO2. Esistono altri tipi di cemento, come quelli geopolimerici, in cui vengono utilizzati polimeri inorganici nella miscela. Questo riduce di molto la CO2 emessa e le prestazioni dei calcestruzzi che ne derivano sembrano essere al pari di quelli tradizionali.

Ultimo ma non ultimo, i materiali utilizzati per produrre il cemento tradizionale potrebbero essere presi da scarti industriali. Alcuni esempi sono l’uso di ceneri volanti, prodotto di scarto della combustione del carbone, lo scarto della produzione di ghisa o anche da quella di vetri. In questo modo si riuscirebbe a riutilizzare materiali che altrimenti verrebbero eliminati ma evitando di produrre ulteriore anidride carbonica.

Come abbiamo visto i metodi per diminuire l’impatto del cemento sono tanti e quindi la vera domanda è: riusciremo a risolvere il problema nei tempi giusti? Se sì, forse riusciremo a cambiare le sorti del nostro pianeta, altrimenti sarà difficile fermare il cambiamento climatico.

< Torna indietro
Ambiente, società e tecnologia

“Destination Earth”: costruire una replica digitale della Terra per resistere meglio al cambiamento climatico

Eventi climatici estremi in grado di provocare danni socio-economici sempre più gravi: non si tratta di uno scenario futuro, ma di una conseguenza attuale del cambiamento climatico. Sebbene l’impegno per mitigarne gli effetti sia urgente, sono altrettanto indispensabili delle strategie di adattamento per poter limitare i danni causati da fenomeni inevitabili (come siccità, desertificazione e inondazioni), basate su dati e modelli attendibili. Uno degli strumenti con cui l’Unione Europea potrebbe riuscire a dare un contributo è il progetto “Destination Earth” (DestinE), il cui evento di lancio si è tenuto il 30 marzo 2022, che ha come obiettivo finale quello di creare un gemello digitale della Terra che aiuti nella previsione e nella gestione dei fenomeni legati al cambiamento climatico.

Che cos’è un gemello digitale e a cosa serve?

 

Nella sua accezione più generale, un gemello digitale è “la rappresentazione virtuale, continuamente aggiornata, di una risorsa reale in funzione”. Con il termine “risorsa” possono essere indicate entità su scale differenti e in diversi ambiti: si va da un componente specifico di un macchinario fino ad un’intera fabbrica, oppure a una città o a un organo umano. In ogni caso, l’oggetto reale è sempre il “gemello fisico”, legato al suo corrispettivo digitale da vari sensori che permettono l’acquisizione continua di dati e la loro elaborazione tramite algoritmi: così è possibile ottenere informazioni su come procederà il suo ciclo vitale e prevedere danni o malfunzionamenti futuri (a livello industriale questo viene definito “manutenzione predittiva”).

Un gemello digitale può essere costruito in modi differenti a seconda dell’esigenza a cui deve rispondere. Può funzionare grazie a un modello fisico integrato nell’algoritmo, che serve a descrivere l’oggetto reale e funge da base per l’elaborazione dei dati. Se da una parte questo approccio può portare a una maggiore precisione e a un’interpretazione più chiara delle cause sottostanti un fenomeno, dall’altra comporta anche calcoli molto più complessi e dispendiosi. Un gemello digitale può, in alternativa, essere data driven: in questo caso non ci si basa su modelli fisici, ma piuttosto su metodi numerici e statistici che permettono di allenare gli algoritmi partire dai dati stessi (se questi ultimi sono di buona qualità e disponibili in grandi quantità); inoltre, può essere un ibrido tra i due modelli di funzionamento.

Se è necessario un modello fisico, questo deve descrivere sufficientemente bene l’oggetto che si vuole replicare digitalmente, assieme alle sue possibili evoluzioni, indispensabili per ipotizzare scenari futuri. Definire questo modello diventa però più complesso all’aumentare delle variabili che governano il sistema stesso. Infatti, sebbene esistano già dei gemelli digitali di automobili o di infrastrutture energetiche, come delle turbine eoliche, non ne esiste ancora uno del pianeta Terra. Come viene spiegato dalla professoressa Karen Willcox in questa conferenza sul tema dei gemelli digitali, “siamo ancora molto lontani dall’essere in grado di creare modelli della scala necessaria per descrivere il clima a livello dell’intero pianeta da qui ai prossimi decenni”.

 

Come sarà realizzato il progetto DestinE?

 

Data la complessità della sfida che DestinE dovrà affrontare, il progetto sarà articolato in fasi successive. Entro la metà del 2024 è prevista la realizzazione di due gemelli digitali che replichino e prevedano alcuni fenomeni (e quindi aiutino a prendere decisioni) in modo mirato, in particolare gli eventi climatici estremi e le strategie di adattamento al cambiamento climatico. Tutto questo sarà possibile e fruibile per i decisori politici grazie a un amplissimo “data lake”, un “luogo destinato all’archiviazione, all’analisi e alla correlazione di dati in formato nativo” (cioè non ancora elaborati), grazie a cui i gemelli digitali potranno operare, e una “core service platform” attraverso cui sarà possibile interfacciarsi. La raccolta di una così grande quantità e varietà di dati sarà possibile soprattutto grazie all’osservazione satellitare dallo spazio. Solo nell’ultima fase, che terminerà nel 2030, potrebbe essere disponibile un gemello digitale dell’intero pianeta: la sua completezza sarà determinata dal numero e dalla qualità dei gemelli digitali, dedicati alla replica di fenomeni terresti particolari che potranno essere integrati nel modello più grande.

Il progetto è ispirato ai concetti di “adattamento e resilienza” così come sono concepiti dalle Nazioni Unite: DestinE infatti si pone come obiettivo quello di essere un’importante strumento informativo e predittivo, di supporto per decisioni riguardanti la gestione di risorse che saranno scarse (come acqua, energia e cibo) e di eventi che avranno un grande impatto socio-economico, oltre che ambientale (come disastri naturali, migrazioni climatiche o condizioni climatiche estreme).

< Torna indietro
Ambiente, società e tecnologia

Come si racconta la scienza su TikTok?

Con 18 milioni di utenti attivi in Italia, TikTok è il terzo social più diffuso (escludendo le app di messaggistica). E se alcuni continuano a considerarlo “per i ragazzini che fanno i balletti”, i numeri smentiscono questo pregiudizio: 7 milioni di italiani con più di 35 anni lo utilizzano.

Dati alla mano, TikTok permette di raggiungere facilmente anche le persone che non seguono un determinato profilo, ma che hanno manifestato interesse per argomenti simili: un algoritmo molto favorevole per i creator che in poco tempo possono conquistare un’ampia e nuova platea. Quale posto migliore per sperimentare un nuovo linguaggio per parlare di scienza?

Su TikTok è possibile trovare divulgatori e divulgatrici per tutti i gusti. Se dovessimo trovare un trait d’union fra tutti i profili, potremmo parlare di competenza raccontata con un linguaggio quasi teatrale, personale a seconda delle inclinazioni dello scienziato o della scienziata che diventa creator.

Sono numerosi i casi di successo che ormai possiamo trovare su TikTok: noi di iWrite abbiamo selezionato per voi i nostri preferiti.

Marco Martinelli (aka @marcoilgiallino) unisce la scienza a un’interpretazione quasi attoriale: un connubio vincente che ha conquistato 342 mila follower. Dalla spiegazione del funzionamento della pentola a pressione alla riproduzione della polvere volante di Harry Potter, Martinelli sfrutta frequentemente gli esperimenti più scenografici per stupire il pubblico.

Se vi interessa la scienza dietro i cosmetici e perché i claim pubblicitari possano essere ingannevoli, il profilo per voi è @divagatrice. Beatrice Mautino dopo aver pubblicato diversi libri sul mondo della cosmesi, ha fatto qualche esperimento su TikTok con video veramente molto riusciti.

@dario.bressanini, l’amichevole chimico di quartiere, sfata la leggenda del professore noioso: racconta con un piglio ironico la chimica della vita di tutti i giorni. Che sia per le pulizie o in cucina, Bressanini circondato da fumetti e con (a volte) il camice bianco racconta in maniera efficace perché alcune cose funzionano e altre no, senza limitarsi agli imperativi ma, anzi, arricchendoli sempre con una spiegazione chiara.

 

Laureato in ingegneria aerospaziale, fondatore di una startup che sviluppa videogiochi, Matteo Albrizio con la sua @scienzaedintorni ci fa fare un viaggio tra dimostrazioni matematiche non ancora raggiunte, indovinelli e curiosità dell’informatica.

 

Se è la fisica il vostro “mostro nero” a scuola, Vincenzo Schettini è la soluzione: professore di fisica e diplomato al conservatorio, con la sua @lafisicachecipiace è diventato celebre per alcune dimostrazioni pratiche eseguite in classe per poter far capire quello che i libri spiegano, a volte con parole complicate.

 

La curiosità e la voglia di imparare hanno trovato uno spazio in continua evoluzione (per esempio uno dei trend della piattaforma è l’aumento della durata dei video): le prospettive per il futuro della divulgazione scientifica su TikTok sono rosee e non ci resta che continuare a seguire i nostri creator preferiti e scoprirne di nuovi. Avete altri profili da suggerire?

< Torna indietro
Ambiente, società e tecnologia

Come si sta cercando di “catturare” il carbonio (e fermare il riscaldamento globale)

In atmosfera, mentre scriviamo queste righe, si trovano all’incirca 419ppm(parti per milione) di CO2.
Il diossido di carbonio (CO2) (come il metano(CH4), l’ozono e l’ossido di azoto(N2O) ) è uno tra i gas a effetto serra presente in natura che contribuisce, trattenendo il calore, all’equilibrio del clima terrestre. Le concentrazioni di questo gas prodotte in larga parte dalle attività umane (estrazione e consumo di combustibili fossili) continuano ad aumentare. Ma perché questo sta diventando un problema? Sebbene questo gas sia fondamentale, per esempio, nella fotosintesi delle piante, la sua azione quando è in concentrazioni elevate è quella di accumularsi negli strati dell’atmosfera e di riscaldare come una coperta molto calda provocando l’innalzamento delle temperature globali.

Questa molecola non è poi così male e non ha solo aspetti negativi. Ad oggi, la CO2 la usiamo industrialmente nel trattamento delle acque, nella produzione di refrigeranti e in una tecnica di recupero del petrolio. Quindi perché non provare a prelevare e riutilizzare le grandi quantità che abbiamo a disposizione in atmosfera, cercando così di controllare il problema?
È nata così la tecnica nota come Carbon Capture and Storage -CCS, letteralmente Cattura e Stoccaggio del Carbonio. Un processo tecnologico che prevede diversi step:  la cattura, il trasporto e la conservazione ed eventualmente il suo riutilizzo. Vediamoli nel dettaglio.

 

1) La CO2 può essere catturata in diversi modi. In grandi impianti industriali si cerca di far assorbire la molecola prodotta da fumi di combustione in forma gassosa tramite solventi chimici (post-combustione) oppure separando l’anidride carbonica presente prima della reazione (pre-combustione). A questi poi si affiancano i naturali metodi di sequestro della CO2 come il rimboschimento, introduzione di tecniche agronomiche per aumentare l’assorbimento della stessa da parte delle colture agricole e infine la cattura per semplice filtrazione dell’aria (Direct Air Carbon Capture and Storage – DACCS) che ad oggi è tra le più complesse.

2) Il trasporto è la fase in cui, una volta che il gas viene compresso e trasformato in fase liquida può essere direzionato tramite appositi mezzi di trasporto alla sede dove sarà infine conservata.

3) Infine, lo stoccaggio è lo step in cui la CO2 in forma liquida viene poi iniettata e depositata in un sito di confinamento. Questi luoghi sono a tutti gli effetti trappole geologiche e tipicamente possono essere un vecchio giacimento di idrocarburi, falde acquifere saline ma anche sul fondo degli oceani. La CO2 in forma liquida, una volta iniettata in profondità rocciose andrà a formare con gli elementi presenti nelle strutture minerali, composti stabili come il carbonato di calcio utile per la produzione dei vetri. Mentre, ancora più interessante, può essere lo stoccaggio in depositi di carbone perché la reazione controllata di anidride carbonica, assommata al materiale, produce gas metano che potrebbe essere venduto per compensare i costi dell’operazione. L’alternativa al semplice conservare il carbonio è il suo riutilizzo: per esempio, introducendo la CO2 intrappolata nelle serre per incrementare la crescita delle piante.

 

Contributo delle attività umane alla CO2 in atmosfera e il suo sequestro.
Contributo delle attività umane alla CO2 in atmosfera e il suo sequestro.
Fonte: https://www.usgs.gov/science/science-explorer/climate/greenhouse-gases-and-carbon-storage

 

Ogni passaggio del processo di sequestro ha delle sfide e criticità a livello infrastrutturale oltre che tecnologico. A questi si aggiungono problemi di natura politica, con la difficoltà a legiferare sulla materia.

Le strutture sviluppate finora sono nella maggior parte dei casi in fase prototipale e nulla è disponibile su larga scala. Al 2021 gli impianti attivi o in costruzione erano circa 31 con una capacità di 40 milioni di tonnellate di CO2 all’anno catturate. Due anni dopo, diverse aziende come Microsoft investono in tecnologia CCS per raggiungere i propri obiettivi climatici. Non solo le aziende: i governi la vedono come un’alternativa da inserire nei programmi di mitigazione climatica. Per esempio, a Copenaghen il governo ha pensato di affiancare le tecniche di Carbon Capture & Storage nella sua strategia contro il cambiamento climatico, realizzando un impianto di cattura nei suoi sistemi di smaltimento rifiuti per cercare di abbattere le emissioni di quel comparto. Nel mondo emergono comunque progetti di più ampio respiro come quello in Norvegia, dove lo Sleipner CO2 Storage Site riesce a raggiungere una capacità di 10 tonnellate di CO2 iniettata in acquiferi salini e che viene monitorato da particolari metodi geofisici.

Alla luce di questi progressi, le infrastrutture CCS possono essere la soluzione? Dal rapporto del Global CCS institute, emerge che per arrivare agli obiettivi dell’Accordo di Parigi(2015) in merito al clima entro il 2050 dovremmo dare un’accelerata alla costruzione di questi impianti (dovremmo costruirne circa 100 ogni dodici mesi) e ottenere una capacità di cattura di circa 1.7 miliardi di tonnellate/anno.

Tuttavia, c’è molto scetticismo sulla potenziale efficacia di questo metodo, per via di una serie di questioni ancora aperte: costi elevati di costruzione degli impianti, ricerca e sviluppo sull’accessibilità e sicurezza dei siti per l’iniezione, rischi di fuoriuscite accidentali dai giacimenti oltre che la possibile alterazione della struttura del sottosuolo e possibilità di conseguenze sismiche vicino ai luoghi di stoccaggio. A questo si aggiunge una questione ancora molto dibattuta e non sviscerata adeguatamente ovvero la reale sostenibilità economica e ambientale di questa tecnologia. Questi impianti andrebbero in molti casi a produrre più emissioni della loro stessa capacità di cattura (considerando tutto il processo di costruzione e gestione) e rendere vani investimenti pubblici e privati.

Insomma, a oggi per combattere il Global Warming la cosa più efficace da fare rimane consumare meno.

< Torna indietro
Ambiente, società e tecnologia

La carne del futuro sarà coltivata?

“Fonti proteiche alternative alla carne cercasi”: negli ultimi anni le risposte a questo ipotetico annuncio sono aumentate, supportate da istanze sia etiche sia ambientali. Tra le alternative plant-based e gli alimenti a base di insetti, emerge un’altra opzione: la carne “coltivata” in laboratorio a partire da cellule animali. Soprattutto alcuni tipi di carne, come quelle di bovino e di agnello, hanno un’impronta di carbonio significativamente più alta rispetto ad altri alimenti considerati come fonti proteiche: l’indicazione condivisa è quella di ridurne, anche drasticamente, il consumo. È possibile però trovare delle soluzioni affiancabili a quest’ultima? Soprattutto, la carne coltivata potrebbe essere una delle opzioni future per consumare carne senza un forte impatto sull’ambiente e sul benessere animale?

Come può essere coltivata la carne in laboratorio?

I tessuti animali che compongono la carne che normalmente mangiamo sono formati da più tipi di cellule, come quelle muscolari e adipose: per la produzione di carne coltivata si parte da cellule staminali, che hanno la caratteristica di potersi differenziare in fase di crescita. Queste si ottengono ad oggi tramite una biopsia, cioè un piccolo prelievo di tessuto da un animale in vivo, oppure tramite macellazione. Le cellule staminali possono in seguito moltiplicarsi e differenziarsi all’interno di bioreattori che possano contenere migliaia di litri di materiale (che potete vedere qui) e al cui interno deve essere mantenuto un ambiente ottimale: temperatura, pH, flusso di gas e agitazione meccanica devono essere strettamente controllati. Per dare forma a un prodotto simile a un taglio di carne, le cellule hanno bisogno di una struttura tridimensionale porosa su cui potersi organizzare per riprodurlo: una tra quelle utilizzate attualmente è fatta di proteine vegetali (ed è quindi edibile).

Le cellule non crescono da sole, ma hanno bisogno di un terreno di coltura ricco di nutrienti e sostanze che ne favoriscano lo sviluppo. Una delle criticità maggiori risiede proprio in uno dei componenti del terreno di coltura ad oggi ritenuto ottimale: si tratta del siero fetale bovino (generalmente abbreviato con “FBS”), ricavato dal sangue del feto bovino ed estremamente difficile e costoso da replicare in laboratorio. Attualmente sono in studio o in fase pilota soluzioni alternative, per far sì che la futura industria della carne coltivata possa dipendere sempre meno dall’allevamento tradizionale e dalla macellazione del bestiame.

Ma è possibile ricreare in questo modo il gusto della carne tradizionale? Sicuramente sì, almeno per alcuni tipi di preparazione, come nuggets di pollo o hamburger. Risulta più complesso, anche se possibile, riprodurre fedelmente la consistenza e la struttura di una bistecca.

La carne coltivata è (o diventerà) un prodotto sostenibile?

Sappiamo che il concetto di sostenibilità non è univoco, ma deve essere declinato dal punto di vista ambientale, economico e sociale. Perciò, per comprendere se la carne coltivata sia o possa diventare in futuro un prodotto sostenibile, è necessario considerare sia gli studi sul suo LCA (cioè “l’analisi del ciclo di vita”) sia analisi tecnico-economiche.

Partiamo da uno studio di LCA recente, pubblicato a inizio 2023 sul “International Journal of Life Cycle Assessment” e condotto secondo la metodologia “ex ante”. Siccome la carne coltivata non è ancora prodotta e consumata su larga scala, non possiamo paragonare il suo impatto attuale a quello della carne proveniente da allevamento: si possono però costruire degli scenari, più o meno conservativi o ottimistici, per immaginare il suo impatto quando sarà presente in modo significativo sul mercato (in questo studio, gli scenari descritti dagli autori si riferiscono al 2030).

La criticità più evidente della sua produzione è il suo essere particolarmente energivora: i principali costi energetici sono dovuti al mantenimento dei bioreattori a una temperatura di 37 °C e alla produzione delle proteine e dei fattori di crescita presenti nel terreno di coltura. Entrambi sono necessari alla crescita delle cellule e sono rispettivamente responsabili del 70% e del 25% circa dell’energia totale richiesta per ottenere la carne coltivata, che aumenta del 60% rispetto al manzo e del 700% rispetto al pollo (se consideriamo tutti i tipi di carne prodotti nel modo più efficiente possibile). Per far sì che la carne coltivata possa essere sostenibile, l’energia dovrà provenire da fonti a basse emissioni di CO2.

Se questa criticità dovesse essere risolta, i benefici dal punto di vista ambientale potrebbero diventare rilevanti. Alla carne coltivata è associato un consumo di suolo più basso: gli animali, in particolare i bovini, convertono le calorie assunte grazie al mangime in massa edibile per l’essere umano in modo molto più inefficiente rispetto alle cellule in crescita nei bioreattori; hanno bisogno perciò di più cibo, che necessariamente occupa più terreno. La soluzione ottimale consisterebbe nell’ottenere le sostanze nutritive per le cellule senza provocare deforestazione, o potendo sfruttare scarti e prodotti secondari dell’industria alimentare. Anche l’inquinamento dell’aria causato dalla produzione di carne potrebbe essere ridotto, così come il consumo di acqua, nel caso in cui le linee produttive venissero efficientate per riciclarla.

Dal punto di vista economico, i costi sono per ora molto elevati, sebbene siano costantemente in calo: in questo report tecnico-economico pubblicato nel 2021 si legge che “i costi attuali per la produzione di carne coltivata sono tra le 100 e le 10’000 volte maggiori rispetto a quelli della carne da allevamento tradizionale”. Processi produttivi di questo tipo sono ad alta intensità di capitale a causa delle strutture necessarie, dell’elevata richiesta di energia dell’assenza di una produzione su scala industriale delle proteine e dei fattori di crescita per la coltivazione delle cellule.

Lo sviluppo di questa tecnologia non ha ancora raggiunto la grande scala: se questa produzione verrà realizzata in futuro seguendo le indicazioni dei migliori scenari possibili, potrebbe però diventare un’alternativa vantaggiosa rispetto ai tipi di carne più impattanti.

 

< Torna indietro
Ambiente, società e tecnologia

Neuralink: avanguardia della tecnologia(?)

Neuralink è un’azienda di neuroscienze, fondata nel 2016 da Elon Musk e un gruppo di ingegneri e biologi che ha come obiettivo a lungo termine lo sviluppo di una piattaforma I/O (Input/Output) che usi come fulcro il nostro cervello. L’azienda a partire dal 2016 ha sviluppato il prototipo di un dispositivo, chiamato N1 Link, che collega la mente al mondo digitale.

Il 2 dicembre 2022 in California, si è tenuta una conferenza di fine anno, dove sono stati mostrati tutti i progressi finora ottenuti sul dispositivo. Durante l’evento, Elon Musk ha annunciato: “Nel giro di sei mesi, dovremmo essere in grado di provare Neuralink in un essere umano, per la prima volta”; notizia che ha fatto scalpore, dato che fino ad allora gli esperimenti erano stati effettuati su particolari strumenti o sugli animali.

Ma esattamente come funziona L’N1 LINK?

L’N1 come per un qualsiasi dispositivo elettronico si basa su tre fasi, cioè l’input (acquisizione delle informazioni), l’elaborazione dei dati e l’output (l’invio dei dati). La prima fase viene resa possibile dalle caratteristiche dell’attività neuronale; infatti i neuroni inviano e ricevono informazioni sotto forma di segnali elettrici. Tutti i neurotici hanno in comune: un dendroide (che riceve segnali), un corpo cellulare detto soma (elabora) e un axon, cioè una fibra nervosa (invio dei segnali). Questi comunicano tra di loro in siti di contatto funzionale, chiamati sinapsi, che collegano i due soma.

 

Nel momento in cui si forma il “canale”, N1 Link posiziona degli elettrodi (conduttori) vicino la sinapsi in modo che possa rilevare l’azione potenziale, anche detto PDA (e quindi i segnali).

I conduttori vengono istallati mediante una delicata operazione chirurgica con una durata di circa 45 minuti.

https://www.focus.it/

Come mostrato nell’immagine sopra, l’operazione si svolge in sei fasi:

  1. Viene rimossa la pelle;
  2. perforato il cranio;
  3. rimossa la dura, ovvero una membrana costituita da tessuto connettivo denso ed irregolare;
  4. vengono collegati i fili metallici contenenti gli elettrodi;
  5. viene inserito nella fessura l’N1 Link;
  6. la pelle viene suturata.

In modo da garantire una maggiore sicurezza all’individuo, il gruppo sta cercando un modo per istallare gli elettrodi senza rimuovere la dura, cosicché il cervello non entri mai in contatto diretto con l’esterno.

Inoltre per aumentare la precisione dei collegamenti e ottimizzare i tempi, l’azienda sta sviluppando un robot, chiamato R1, che possa svolgere interamente l’intervento con la massima sicurezza (durante la conferenza hanno mostrato il robot in azione, che ha completato l’operazione in circa 15 minuti).

 

https://neuralink.com/

Una volta istallato, l’N1 Link è in grado di rilevare migliaia di PDA dai neuroni. L’insieme dei dati raccolti permette la decodifica dell’informazione alla base della trasmissione neuronale.

L’informazione varia a seconda della zona del cervello selezionata, per esempio ci sono zone in cui è di tipo sensoriale (vista, tatto, etc.) oppure riguarda i pensieri del soggetto.

 

Prima di poter spedire tutti i dati ad un ente esterno, N1 Link attua una amplificazione dei segnali (cioè dell’informazione). Questa operazione è di fondamentale importanza, perché i segnali elettrici all’interno del cervello hanno una bassissima intensità, sono quindi facilmente modificabili da dei disturbi e inoltre sono impossibili da leggere per una piattaforma I/O.

 

Collegamento del dispositivo ad un simulatore di cervello. Fonte: https://neuralink.com/

 

In conclusione i dati vengono inviati all’esterno e ricevuti da un altro device che esegue quello che gli è stato richiesto di fare dall’N1. Diversi esperimenti con gli animali hanno dimostrato che sia possibile giocare e anche scrivere al computer senza alcun contatto fisico.

 

 

Le potenzialità del dispositivo sono notevoli e potrebbero essere un grande aiuto per molte persone. Infatti il gruppo sta sviluppando due applicazioni dell’N1 Link che possano svoltare la vita delle persone con disabilità visive e motorie.

Per gli ipovedenti, l’idea alla base è che l’N1 Link sostituisca gli occhi nella registrazione e nella proiezione delle immagini al cervello. Questo sarebbe possibile grazie all’uso di una telecamera che registra l’ambiente esterno e comunicando con N1 ricostruisce quell’ambiente nel cervello.

Mentre per i disabili che non riescono a muovere degli arti del corpo, l’N1 Link comanda un dispositivo, posizionato nella parte immobilizzata, che produce degli impulsi elettrici in modo da stimolare il movimento dell’arto.

https://neuralink.com/
https://neuralink.com/

 

Come cercheranno di migliorare il dispositvo

https://neuralink.com/

Come è mostrato nel piano cartesiano a tre dimensioni ogni elemento del congegno è stato progettato in modo che sia il più affidabile possibile: N1 Link è fornito di un rivestimento ermetico cosicché nessuna parte interna possa entrare in contatto con i liquidi e i sali del cervello, che in caso contrario lo danneggerebbero. Inoltre ogni parte del dispositivo è stata sperimentata più e più volte per dimostrare la sua sicurezza.

A questo scopo è fondamentale l’utilizzo di un simulatore di cervello e di un acceleratore di vita. Il primo ha permesso di sperimentare l’installazione del dispositivo rendendolo il più possibile affine alle caratteristiche dell’encefalo.

https://neuralink.com/

Il secondo è stato utilizzato per velocizzare ed accentuare la degradazione del dispositivo, così da verificarne la durabilità.

Ad esempio il grafico sovrastante mostra che all’aumentare dei mesi (asse X), l’umidità all’interno del N1 ha una crescita lineare. In bianco viene riportato l’andamento reale del dispositivo, mentre in blu è il risultato dell’acceleratore di vita. Dal grafico è evidente che diventa necessaria una sostituzione del N1 Link a partire dal sessantacinquesimo mese in poi.

Quello che l’azienda vuole fare è aumentare la vita dell’N1 Link, in modo che sia al più lungo utilizzabile.

L’efficacia del device è un altro aspetto molto importante per il gruppo. Per renderlo efficiente Neuralink ha iniziato degli esperimenti con gli animali, soprattutto scimmie, che hanno portato a molti miglioramenti riguardo la precisione e la velocità dell’N1. Inoltre dopo diversi mesi, l’organismo delle scimmie e degli altri animali coinvolti non ha mostrato delle reazioni negative. Proprio per questo Neuralink ha deciso che entro metà 2023, inizierà con i primi esperimenti sugli esseri umani.

 

Infine Neuralink ha costruito il prototipo fornendo una batteria, ricaricabile in modo wireless, con l’obiettivo di consentire l’utilizzo di N1 Link per tutta la giornata senza interruzioni. Nelle nuove generazioni, il gruppo cercherà di potenziare ulteriormente la batteria così da evitare qualsiasi problema di autonomia.

 

Al termine di tutte le verifiche il dispositivo si presenta così:

https://neuralink.com/

In conclusione l’N1 Link è ancora un prototipo in fase di sviluppo con molti aspetti da migliorare: velocità, efficienza, sicurezza. Perciò prima di poter avere un prodotto finito, la Neuralink Company ha ancora molto lavoro da fare.