< Torna indietro
Ambiente, società e tecnologia

Cemento e calcestruzzo green: soluzioni di uno dei materiale più usati (e inquinanti) sulla Terra

Cemento e poi cemento e poi cemento: all’apparenza un materiale molto semplice, che in realtà nasconde caratteristiche e subisce trasformazioni che non sono ancora state del tutto comprese. La quasi totalità di noi non se ne è mai minimamente interessato, ma basta guardarsi intorno per capire quanto è presente nelle nostre vite. Ecco perché è necessario capire cos’è e quanto impatta sull’ambiente.

Per prima cosa dobbiamo capire cosa è il cemento e come si produce. Si parte dal carbonato di calcio (CaCO3) e da argilla. Questi vengono prima sbriciolati, poi messi in un forno a circa 1450 °C e cotti fino ad ottenere il cosiddetto clinker, che successivamente viene di nuovo sbriciolato e mischiato a gesso, ceneri e altri elementi per ottenere la polvere di cemento. Quando questa viene mischiata ad acqua, ghiaia e sabbia quello che si ottiene è il calcestruzzo, il materiale più utilizzato al mondo e secondo solo all’acqua. Proprio a causa delle enormi quantità prodotte il cemento ha un impatto estremamente elevato sull’ambiente, dato che produce CO2 in due modi:

  • tramite la decomposizione del carbonato di calcio in calcare e CO2 (CaCO3 à CaO + CO2);
  • tramite l’utilizzo di combustibili fossili per alimentare i forni.

Secondo la review di Robbie M. Andrew, ricercatore per il CICERO (Center for International Climate Research) nel 2017 l’emissione di CO2 dovuta alla decomposizione del carbonato di calcio ha contribuito per il 5% delle emissioni totali mondiali, mentre aggiungendo le emissioni dovute ai combustibili fossili si passa all’8%. In tutto si stima una quantità di CO2 prodotta quell’anno dal cemento di circa 1.47 miliardi di tonnellate. Una cifra niente male. Nel seguente grafico possiamo vedere alcuni tra i paesi che più inquinano a causa del cemento:

Figure 1. https://ourworldindata.org/grapher/annual-co2-cement?time=1917..latest&country=CHN~USA~IND~SAU~ITA~Europe

Più si va avanti nel tempo e più cemento viene prodotto per soddisfare la domanda sia dei paesi del primo mondo (negli USA è aumentata di 2.5 milioni di tonnellate nel 2022) sia quelli dei paesi emergenti che, dato l’aumento di popolazione e ricchezza ha bisogno di costruire nuove abitazioni e infrastrutture.

 

Figure 2 https://www.sciencedirect.com/science/article/pii/S2212609013000071

 

Ci si aspetta infatti che nel 2030, la variante più utilizzata di cemento (la Portland) arriverà ad una produzione mondiale annuale di circa 5 miliardi di metri cubi e nel 2050 a quasi 6 miliardi. Data la quantità prodotta, rischiamo anche di consumare più risorse naturali di quello che possiamo permetterci.

Ma quindi cosa possiamo fare? Abbiamo la necessità di diminuire le emissioni e il consumo di materie prime, ma allo stesso tempo dobbiamo trovare modi per riassorbire la CO2 emessa e di utilizzare prodotti di scarto per diminuire la richiesta di risorse naturali. Inoltre abbiamo bisogno di qualcosa che non costi troppo, altrimenti i guadagni per le aziende scenderebbero, mentre il costo per i consumatori salirebbe moltissimo.

Ci sono diversi modi per approcciarsi al problema. Uno di questi è quello di utilizzare vari scarti industriali o urbani, come rifiuti urbani, fanghi di depurazione, farine animali, sottoprodotti di scarto e altro per alimentare i forni. I vantaggi sono diversi:

  • un bisogno ridotto di energia e una conseguente riduzione dei costi;
  • lo stato paga i produttori di cemento per smaltire i rifiuti, che altrimenti andrebbero in discarica.

Tutto bellissimo, se non fosse che in questo caso si aumenta la CO2 e si generano altri materiali dannosi come SO2 o altri composti di zolfo, composti organici volatili (VOCs), metalli come piombo o mercurio. Non è quindi la migliore soluzione per agire, a meno che tutti questi composti non vengano successivamente ricatturati e riutilizzati o smaltiti.

L’altro è quello di utilizzare il cemento green o calcestruzzo verde. Questi sono definiti come calcestruzzi e cementi che incorporano materiali di scarto come uno dei loro componenti e che viene prodotto in modo che non danneggi l’ambiente, oppure che ha prestazioni superiori e un ciclo di vita sostenibile. Ci sono molti esempi degni di nota.

Il primo esempio è quello di utilizzare le nanotecnologie. Queste dovrebbero servire per rendere il calcestruzzo più denso e forte, sostituendo il carbonato di calcio e emettendo quindi meno CO2. Le più promettenti sembrano essere i nanotubi di carbonio (fogli di grafene chiusi su sé stessi). Secondo alcuni ricercatori questi aumenterebbero la resistenza alla compressione. Altri addirittura hanno verificato una variazione di potenziale elettrico quando il calcestruzzo viene sottoposto a stress-test. Significa che il cemento potrebbe “automonitorarsi”, aumentando o diminuendo il potenziale elettrico a seconda dello stress applicato e andando a intervenire prima di un possibile cedimento.

Cambiare radicalmente la composizione potrebbe essere un altro passo verso la riduzione di CO2. Esistono altri tipi di cemento, come quelli geopolimerici, in cui vengono utilizzati polimeri inorganici nella miscela. Questo riduce di molto la CO2 emessa e le prestazioni dei calcestruzzi che ne derivano sembrano essere al pari di quelli tradizionali.

Ultimo ma non ultimo, i materiali utilizzati per produrre il cemento tradizionale potrebbero essere presi da scarti industriali. Alcuni esempi sono l’uso di ceneri volanti, prodotto di scarto della combustione del carbone, lo scarto della produzione di ghisa o anche da quella di vetri. In questo modo si riuscirebbe a riutilizzare materiali che altrimenti verrebbero eliminati ma evitando di produrre ulteriore anidride carbonica.

Come abbiamo visto i metodi per diminuire l’impatto del cemento sono tanti e quindi la vera domanda è: riusciremo a risolvere il problema nei tempi giusti? Se sì, forse riusciremo a cambiare le sorti del nostro pianeta, altrimenti sarà difficile fermare il cambiamento climatico.

< Torna indietro
Ambiente, società e tecnologia

“Destination Earth”: costruire una replica digitale della Terra per resistere meglio al cambiamento climatico

Eventi climatici estremi in grado di provocare danni socio-economici sempre più gravi: non si tratta di uno scenario futuro, ma di una conseguenza attuale del cambiamento climatico. Sebbene l’impegno per mitigarne gli effetti sia urgente, sono altrettanto indispensabili delle strategie di adattamento per poter limitare i danni causati da fenomeni inevitabili (come siccità, desertificazione e inondazioni), basate su dati e modelli attendibili. Uno degli strumenti con cui l’Unione Europea potrebbe riuscire a dare un contributo è il progetto “Destination Earth” (DestinE), il cui evento di lancio si è tenuto il 30 marzo 2022, che ha come obiettivo finale quello di creare un gemello digitale della Terra che aiuti nella previsione e nella gestione dei fenomeni legati al cambiamento climatico.

Che cos’è un gemello digitale e a cosa serve?

 

Nella sua accezione più generale, un gemello digitale è “la rappresentazione virtuale, continuamente aggiornata, di una risorsa reale in funzione”. Con il termine “risorsa” possono essere indicate entità su scale differenti e in diversi ambiti: si va da un componente specifico di un macchinario fino ad un’intera fabbrica, oppure a una città o a un organo umano. In ogni caso, l’oggetto reale è sempre il “gemello fisico”, legato al suo corrispettivo digitale da vari sensori che permettono l’acquisizione continua di dati e la loro elaborazione tramite algoritmi: così è possibile ottenere informazioni su come procederà il suo ciclo vitale e prevedere danni o malfunzionamenti futuri (a livello industriale questo viene definito “manutenzione predittiva”).

Un gemello digitale può essere costruito in modi differenti a seconda dell’esigenza a cui deve rispondere. Può funzionare grazie a un modello fisico integrato nell’algoritmo, che serve a descrivere l’oggetto reale e funge da base per l’elaborazione dei dati. Se da una parte questo approccio può portare a una maggiore precisione e a un’interpretazione più chiara delle cause sottostanti un fenomeno, dall’altra comporta anche calcoli molto più complessi e dispendiosi. Un gemello digitale può, in alternativa, essere data driven: in questo caso non ci si basa su modelli fisici, ma piuttosto su metodi numerici e statistici che permettono di allenare gli algoritmi partire dai dati stessi (se questi ultimi sono di buona qualità e disponibili in grandi quantità); inoltre, può essere un ibrido tra i due modelli di funzionamento.

Se è necessario un modello fisico, questo deve descrivere sufficientemente bene l’oggetto che si vuole replicare digitalmente, assieme alle sue possibili evoluzioni, indispensabili per ipotizzare scenari futuri. Definire questo modello diventa però più complesso all’aumentare delle variabili che governano il sistema stesso. Infatti, sebbene esistano già dei gemelli digitali di automobili o di infrastrutture energetiche, come delle turbine eoliche, non ne esiste ancora uno del pianeta Terra. Come viene spiegato dalla professoressa Karen Willcox in questa conferenza sul tema dei gemelli digitali, “siamo ancora molto lontani dall’essere in grado di creare modelli della scala necessaria per descrivere il clima a livello dell’intero pianeta da qui ai prossimi decenni”.

 

Come sarà realizzato il progetto DestinE?

 

Data la complessità della sfida che DestinE dovrà affrontare, il progetto sarà articolato in fasi successive. Entro la metà del 2024 è prevista la realizzazione di due gemelli digitali che replichino e prevedano alcuni fenomeni (e quindi aiutino a prendere decisioni) in modo mirato, in particolare gli eventi climatici estremi e le strategie di adattamento al cambiamento climatico. Tutto questo sarà possibile e fruibile per i decisori politici grazie a un amplissimo “data lake”, un “luogo destinato all’archiviazione, all’analisi e alla correlazione di dati in formato nativo” (cioè non ancora elaborati), grazie a cui i gemelli digitali potranno operare, e una “core service platform” attraverso cui sarà possibile interfacciarsi. La raccolta di una così grande quantità e varietà di dati sarà possibile soprattutto grazie all’osservazione satellitare dallo spazio. Solo nell’ultima fase, che terminerà nel 2030, potrebbe essere disponibile un gemello digitale dell’intero pianeta: la sua completezza sarà determinata dal numero e dalla qualità dei gemelli digitali, dedicati alla replica di fenomeni terresti particolari che potranno essere integrati nel modello più grande.

Il progetto è ispirato ai concetti di “adattamento e resilienza” così come sono concepiti dalle Nazioni Unite: DestinE infatti si pone come obiettivo quello di essere un’importante strumento informativo e predittivo, di supporto per decisioni riguardanti la gestione di risorse che saranno scarse (come acqua, energia e cibo) e di eventi che avranno un grande impatto socio-economico, oltre che ambientale (come disastri naturali, migrazioni climatiche o condizioni climatiche estreme).

< Torna indietro
Ambiente, società e tecnologia

Come si racconta la scienza su TikTok?

Con 18 milioni di utenti attivi in Italia, TikTok è il terzo social più diffuso (escludendo le app di messaggistica). E se alcuni continuano a considerarlo “per i ragazzini che fanno i balletti”, i numeri smentiscono questo pregiudizio: 7 milioni di italiani con più di 35 anni lo utilizzano.

Dati alla mano, TikTok permette di raggiungere facilmente anche le persone che non seguono un determinato profilo, ma che hanno manifestato interesse per argomenti simili: un algoritmo molto favorevole per i creator che in poco tempo possono conquistare un’ampia e nuova platea. Quale posto migliore per sperimentare un nuovo linguaggio per parlare di scienza?

Su TikTok è possibile trovare divulgatori e divulgatrici per tutti i gusti. Se dovessimo trovare un trait d’union fra tutti i profili, potremmo parlare di competenza raccontata con un linguaggio quasi teatrale, personale a seconda delle inclinazioni dello scienziato o della scienziata che diventa creator.

Sono numerosi i casi di successo che ormai possiamo trovare su TikTok: noi di iWrite abbiamo selezionato per voi i nostri preferiti.

Marco Martinelli (aka @marcoilgiallino) unisce la scienza a un’interpretazione quasi attoriale: un connubio vincente che ha conquistato 342 mila follower. Dalla spiegazione del funzionamento della pentola a pressione alla riproduzione della polvere volante di Harry Potter, Martinelli sfrutta frequentemente gli esperimenti più scenografici per stupire il pubblico.

Se vi interessa la scienza dietro i cosmetici e perché i claim pubblicitari possano essere ingannevoli, il profilo per voi è @divagatrice. Beatrice Mautino dopo aver pubblicato diversi libri sul mondo della cosmesi, ha fatto qualche esperimento su TikTok con video veramente molto riusciti.

@dario.bressanini, l’amichevole chimico di quartiere, sfata la leggenda del professore noioso: racconta con un piglio ironico la chimica della vita di tutti i giorni. Che sia per le pulizie o in cucina, Bressanini circondato da fumetti e con (a volte) il camice bianco racconta in maniera efficace perché alcune cose funzionano e altre no, senza limitarsi agli imperativi ma, anzi, arricchendoli sempre con una spiegazione chiara.

 

Laureato in ingegneria aerospaziale, fondatore di una startup che sviluppa videogiochi, Matteo Albrizio con la sua @scienzaedintorni ci fa fare un viaggio tra dimostrazioni matematiche non ancora raggiunte, indovinelli e curiosità dell’informatica.

 

Se è la fisica il vostro “mostro nero” a scuola, Vincenzo Schettini è la soluzione: professore di fisica e diplomato al conservatorio, con la sua @lafisicachecipiace è diventato celebre per alcune dimostrazioni pratiche eseguite in classe per poter far capire quello che i libri spiegano, a volte con parole complicate.

 

La curiosità e la voglia di imparare hanno trovato uno spazio in continua evoluzione (per esempio uno dei trend della piattaforma è l’aumento della durata dei video): le prospettive per il futuro della divulgazione scientifica su TikTok sono rosee e non ci resta che continuare a seguire i nostri creator preferiti e scoprirne di nuovi. Avete altri profili da suggerire?

< Torna indietro
Ambiente, società e tecnologia

Come si sta cercando di “catturare” il carbonio (e fermare il riscaldamento globale)

In atmosfera, mentre scriviamo queste righe, si trovano all’incirca 419ppm(parti per milione) di CO2.
Il diossido di carbonio (CO2) (come il metano(CH4), l’ozono e l’ossido di azoto(N2O) ) è uno tra i gas a effetto serra presente in natura che contribuisce, trattenendo il calore, all’equilibrio del clima terrestre. Le concentrazioni di questo gas prodotte in larga parte dalle attività umane (estrazione e consumo di combustibili fossili) continuano ad aumentare. Ma perché questo sta diventando un problema? Sebbene questo gas sia fondamentale, per esempio, nella fotosintesi delle piante, la sua azione quando è in concentrazioni elevate è quella di accumularsi negli strati dell’atmosfera e di riscaldare come una coperta molto calda provocando l’innalzamento delle temperature globali.

Questa molecola non è poi così male e non ha solo aspetti negativi. Ad oggi, la CO2 la usiamo industrialmente nel trattamento delle acque, nella produzione di refrigeranti e in una tecnica di recupero del petrolio. Quindi perché non provare a prelevare e riutilizzare le grandi quantità che abbiamo a disposizione in atmosfera, cercando così di controllare il problema?
È nata così la tecnica nota come Carbon Capture and Storage -CCS, letteralmente Cattura e Stoccaggio del Carbonio. Un processo tecnologico che prevede diversi step:  la cattura, il trasporto e la conservazione ed eventualmente il suo riutilizzo. Vediamoli nel dettaglio.

 

1) La CO2 può essere catturata in diversi modi. In grandi impianti industriali si cerca di far assorbire la molecola prodotta da fumi di combustione in forma gassosa tramite solventi chimici (post-combustione) oppure separando l’anidride carbonica presente prima della reazione (pre-combustione). A questi poi si affiancano i naturali metodi di sequestro della CO2 come il rimboschimento, introduzione di tecniche agronomiche per aumentare l’assorbimento della stessa da parte delle colture agricole e infine la cattura per semplice filtrazione dell’aria (Direct Air Carbon Capture and Storage – DACCS) che ad oggi è tra le più complesse.

2) Il trasporto è la fase in cui, una volta che il gas viene compresso e trasformato in fase liquida può essere direzionato tramite appositi mezzi di trasporto alla sede dove sarà infine conservata.

3) Infine, lo stoccaggio è lo step in cui la CO2 in forma liquida viene poi iniettata e depositata in un sito di confinamento. Questi luoghi sono a tutti gli effetti trappole geologiche e tipicamente possono essere un vecchio giacimento di idrocarburi, falde acquifere saline ma anche sul fondo degli oceani. La CO2 in forma liquida, una volta iniettata in profondità rocciose andrà a formare con gli elementi presenti nelle strutture minerali, composti stabili come il carbonato di calcio utile per la produzione dei vetri. Mentre, ancora più interessante, può essere lo stoccaggio in depositi di carbone perché la reazione controllata di anidride carbonica, assommata al materiale, produce gas metano che potrebbe essere venduto per compensare i costi dell’operazione. L’alternativa al semplice conservare il carbonio è il suo riutilizzo: per esempio, introducendo la CO2 intrappolata nelle serre per incrementare la crescita delle piante.

 

Contributo delle attività umane alla CO2 in atmosfera e il suo sequestro.
Contributo delle attività umane alla CO2 in atmosfera e il suo sequestro.
Fonte: https://www.usgs.gov/science/science-explorer/climate/greenhouse-gases-and-carbon-storage

 

Ogni passaggio del processo di sequestro ha delle sfide e criticità a livello infrastrutturale oltre che tecnologico. A questi si aggiungono problemi di natura politica, con la difficoltà a legiferare sulla materia.

Le strutture sviluppate finora sono nella maggior parte dei casi in fase prototipale e nulla è disponibile su larga scala. Al 2021 gli impianti attivi o in costruzione erano circa 31 con una capacità di 40 milioni di tonnellate di CO2 all’anno catturate. Due anni dopo, diverse aziende come Microsoft investono in tecnologia CCS per raggiungere i propri obiettivi climatici. Non solo le aziende: i governi la vedono come un’alternativa da inserire nei programmi di mitigazione climatica. Per esempio, a Copenaghen il governo ha pensato di affiancare le tecniche di Carbon Capture & Storage nella sua strategia contro il cambiamento climatico, realizzando un impianto di cattura nei suoi sistemi di smaltimento rifiuti per cercare di abbattere le emissioni di quel comparto. Nel mondo emergono comunque progetti di più ampio respiro come quello in Norvegia, dove lo Sleipner CO2 Storage Site riesce a raggiungere una capacità di 10 tonnellate di CO2 iniettata in acquiferi salini e che viene monitorato da particolari metodi geofisici.

Alla luce di questi progressi, le infrastrutture CCS possono essere la soluzione? Dal rapporto del Global CCS institute, emerge che per arrivare agli obiettivi dell’Accordo di Parigi(2015) in merito al clima entro il 2050 dovremmo dare un’accelerata alla costruzione di questi impianti (dovremmo costruirne circa 100 ogni dodici mesi) e ottenere una capacità di cattura di circa 1.7 miliardi di tonnellate/anno.

Tuttavia, c’è molto scetticismo sulla potenziale efficacia di questo metodo, per via di una serie di questioni ancora aperte: costi elevati di costruzione degli impianti, ricerca e sviluppo sull’accessibilità e sicurezza dei siti per l’iniezione, rischi di fuoriuscite accidentali dai giacimenti oltre che la possibile alterazione della struttura del sottosuolo e possibilità di conseguenze sismiche vicino ai luoghi di stoccaggio. A questo si aggiunge una questione ancora molto dibattuta e non sviscerata adeguatamente ovvero la reale sostenibilità economica e ambientale di questa tecnologia. Questi impianti andrebbero in molti casi a produrre più emissioni della loro stessa capacità di cattura (considerando tutto il processo di costruzione e gestione) e rendere vani investimenti pubblici e privati.

Insomma, a oggi per combattere il Global Warming la cosa più efficace da fare rimane consumare meno.

< Torna indietro
Ambiente, società e tecnologia

La carne del futuro sarà coltivata?

“Fonti proteiche alternative alla carne cercasi”: negli ultimi anni le risposte a questo ipotetico annuncio sono aumentate, supportate da istanze sia etiche sia ambientali. Tra le alternative plant-based e gli alimenti a base di insetti, emerge un’altra opzione: la carne “coltivata” in laboratorio a partire da cellule animali. Soprattutto alcuni tipi di carne, come quelle di bovino e di agnello, hanno un’impronta di carbonio significativamente più alta rispetto ad altri alimenti considerati come fonti proteiche: l’indicazione condivisa è quella di ridurne, anche drasticamente, il consumo. È possibile però trovare delle soluzioni affiancabili a quest’ultima? Soprattutto, la carne coltivata potrebbe essere una delle opzioni future per consumare carne senza un forte impatto sull’ambiente e sul benessere animale?

Come può essere coltivata la carne in laboratorio?

I tessuti animali che compongono la carne che normalmente mangiamo sono formati da più tipi di cellule, come quelle muscolari e adipose: per la produzione di carne coltivata si parte da cellule staminali, che hanno la caratteristica di potersi differenziare in fase di crescita. Queste si ottengono ad oggi tramite una biopsia, cioè un piccolo prelievo di tessuto da un animale in vivo, oppure tramite macellazione. Le cellule staminali possono in seguito moltiplicarsi e differenziarsi all’interno di bioreattori che possano contenere migliaia di litri di materiale (che potete vedere qui) e al cui interno deve essere mantenuto un ambiente ottimale: temperatura, pH, flusso di gas e agitazione meccanica devono essere strettamente controllati. Per dare forma a un prodotto simile a un taglio di carne, le cellule hanno bisogno di una struttura tridimensionale porosa su cui potersi organizzare per riprodurlo: una tra quelle utilizzate attualmente è fatta di proteine vegetali (ed è quindi edibile).

Le cellule non crescono da sole, ma hanno bisogno di un terreno di coltura ricco di nutrienti e sostanze che ne favoriscano lo sviluppo. Una delle criticità maggiori risiede proprio in uno dei componenti del terreno di coltura ad oggi ritenuto ottimale: si tratta del siero fetale bovino (generalmente abbreviato con “FBS”), ricavato dal sangue del feto bovino ed estremamente difficile e costoso da replicare in laboratorio. Attualmente sono in studio o in fase pilota soluzioni alternative, per far sì che la futura industria della carne coltivata possa dipendere sempre meno dall’allevamento tradizionale e dalla macellazione del bestiame.

Ma è possibile ricreare in questo modo il gusto della carne tradizionale? Sicuramente sì, almeno per alcuni tipi di preparazione, come nuggets di pollo o hamburger. Risulta più complesso, anche se possibile, riprodurre fedelmente la consistenza e la struttura di una bistecca.

La carne coltivata è (o diventerà) un prodotto sostenibile?

Sappiamo che il concetto di sostenibilità non è univoco, ma deve essere declinato dal punto di vista ambientale, economico e sociale. Perciò, per comprendere se la carne coltivata sia o possa diventare in futuro un prodotto sostenibile, è necessario considerare sia gli studi sul suo LCA (cioè “l’analisi del ciclo di vita”) sia analisi tecnico-economiche.

Partiamo da uno studio di LCA recente, pubblicato a inizio 2023 sul “International Journal of Life Cycle Assessment” e condotto secondo la metodologia “ex ante”. Siccome la carne coltivata non è ancora prodotta e consumata su larga scala, non possiamo paragonare il suo impatto attuale a quello della carne proveniente da allevamento: si possono però costruire degli scenari, più o meno conservativi o ottimistici, per immaginare il suo impatto quando sarà presente in modo significativo sul mercato (in questo studio, gli scenari descritti dagli autori si riferiscono al 2030).

La criticità più evidente della sua produzione è il suo essere particolarmente energivora: i principali costi energetici sono dovuti al mantenimento dei bioreattori a una temperatura di 37 °C e alla produzione delle proteine e dei fattori di crescita presenti nel terreno di coltura. Entrambi sono necessari alla crescita delle cellule e sono rispettivamente responsabili del 70% e del 25% circa dell’energia totale richiesta per ottenere la carne coltivata, che aumenta del 60% rispetto al manzo e del 700% rispetto al pollo (se consideriamo tutti i tipi di carne prodotti nel modo più efficiente possibile). Per far sì che la carne coltivata possa essere sostenibile, l’energia dovrà provenire da fonti a basse emissioni di CO2.

Se questa criticità dovesse essere risolta, i benefici dal punto di vista ambientale potrebbero diventare rilevanti. Alla carne coltivata è associato un consumo di suolo più basso: gli animali, in particolare i bovini, convertono le calorie assunte grazie al mangime in massa edibile per l’essere umano in modo molto più inefficiente rispetto alle cellule in crescita nei bioreattori; hanno bisogno perciò di più cibo, che necessariamente occupa più terreno. La soluzione ottimale consisterebbe nell’ottenere le sostanze nutritive per le cellule senza provocare deforestazione, o potendo sfruttare scarti e prodotti secondari dell’industria alimentare. Anche l’inquinamento dell’aria causato dalla produzione di carne potrebbe essere ridotto, così come il consumo di acqua, nel caso in cui le linee produttive venissero efficientate per riciclarla.

Dal punto di vista economico, i costi sono per ora molto elevati, sebbene siano costantemente in calo: in questo report tecnico-economico pubblicato nel 2021 si legge che “i costi attuali per la produzione di carne coltivata sono tra le 100 e le 10’000 volte maggiori rispetto a quelli della carne da allevamento tradizionale”. Processi produttivi di questo tipo sono ad alta intensità di capitale a causa delle strutture necessarie, dell’elevata richiesta di energia dell’assenza di una produzione su scala industriale delle proteine e dei fattori di crescita per la coltivazione delle cellule.

Lo sviluppo di questa tecnologia non ha ancora raggiunto la grande scala: se questa produzione verrà realizzata in futuro seguendo le indicazioni dei migliori scenari possibili, potrebbe però diventare un’alternativa vantaggiosa rispetto ai tipi di carne più impattanti.

 

< Torna indietro
Ambiente, società e tecnologia

Neuralink: avanguardia della tecnologia(?)

Neuralink è un’azienda di neuroscienze, fondata nel 2016 da Elon Musk e un gruppo di ingegneri e biologi che ha come obiettivo a lungo termine lo sviluppo di una piattaforma I/O (Input/Output) che usi come fulcro il nostro cervello. L’azienda a partire dal 2016 ha sviluppato il prototipo di un dispositivo, chiamato N1 Link, che collega la mente al mondo digitale.

Il 2 dicembre 2022 in California, si è tenuta una conferenza di fine anno, dove sono stati mostrati tutti i progressi finora ottenuti sul dispositivo. Durante l’evento, Elon Musk ha annunciato: “Nel giro di sei mesi, dovremmo essere in grado di provare Neuralink in un essere umano, per la prima volta”; notizia che ha fatto scalpore, dato che fino ad allora gli esperimenti erano stati effettuati su particolari strumenti o sugli animali.

Ma esattamente come funziona L’N1 LINK?

L’N1 come per un qualsiasi dispositivo elettronico si basa su tre fasi, cioè l’input (acquisizione delle informazioni), l’elaborazione dei dati e l’output (l’invio dei dati). La prima fase viene resa possibile dalle caratteristiche dell’attività neuronale; infatti i neuroni inviano e ricevono informazioni sotto forma di segnali elettrici. Tutti i neurotici hanno in comune: un dendroide (che riceve segnali), un corpo cellulare detto soma (elabora) e un axon, cioè una fibra nervosa (invio dei segnali). Questi comunicano tra di loro in siti di contatto funzionale, chiamati sinapsi, che collegano i due soma.

 

Nel momento in cui si forma il “canale”, N1 Link posiziona degli elettrodi (conduttori) vicino la sinapsi in modo che possa rilevare l’azione potenziale, anche detto PDA (e quindi i segnali).

I conduttori vengono istallati mediante una delicata operazione chirurgica con una durata di circa 45 minuti.

https://www.focus.it/

Come mostrato nell’immagine sopra, l’operazione si svolge in sei fasi:

  1. Viene rimossa la pelle;
  2. perforato il cranio;
  3. rimossa la dura, ovvero una membrana costituita da tessuto connettivo denso ed irregolare;
  4. vengono collegati i fili metallici contenenti gli elettrodi;
  5. viene inserito nella fessura l’N1 Link;
  6. la pelle viene suturata.

In modo da garantire una maggiore sicurezza all’individuo, il gruppo sta cercando un modo per istallare gli elettrodi senza rimuovere la dura, cosicché il cervello non entri mai in contatto diretto con l’esterno.

Inoltre per aumentare la precisione dei collegamenti e ottimizzare i tempi, l’azienda sta sviluppando un robot, chiamato R1, che possa svolgere interamente l’intervento con la massima sicurezza (durante la conferenza hanno mostrato il robot in azione, che ha completato l’operazione in circa 15 minuti).

 

https://neuralink.com/

Una volta istallato, l’N1 Link è in grado di rilevare migliaia di PDA dai neuroni. L’insieme dei dati raccolti permette la decodifica dell’informazione alla base della trasmissione neuronale.

L’informazione varia a seconda della zona del cervello selezionata, per esempio ci sono zone in cui è di tipo sensoriale (vista, tatto, etc.) oppure riguarda i pensieri del soggetto.

 

Prima di poter spedire tutti i dati ad un ente esterno, N1 Link attua una amplificazione dei segnali (cioè dell’informazione). Questa operazione è di fondamentale importanza, perché i segnali elettrici all’interno del cervello hanno una bassissima intensità, sono quindi facilmente modificabili da dei disturbi e inoltre sono impossibili da leggere per una piattaforma I/O.

 

Collegamento del dispositivo ad un simulatore di cervello. Fonte: https://neuralink.com/

 

In conclusione i dati vengono inviati all’esterno e ricevuti da un altro device che esegue quello che gli è stato richiesto di fare dall’N1. Diversi esperimenti con gli animali hanno dimostrato che sia possibile giocare e anche scrivere al computer senza alcun contatto fisico.

 

 

Le potenzialità del dispositivo sono notevoli e potrebbero essere un grande aiuto per molte persone. Infatti il gruppo sta sviluppando due applicazioni dell’N1 Link che possano svoltare la vita delle persone con disabilità visive e motorie.

Per gli ipovedenti, l’idea alla base è che l’N1 Link sostituisca gli occhi nella registrazione e nella proiezione delle immagini al cervello. Questo sarebbe possibile grazie all’uso di una telecamera che registra l’ambiente esterno e comunicando con N1 ricostruisce quell’ambiente nel cervello.

Mentre per i disabili che non riescono a muovere degli arti del corpo, l’N1 Link comanda un dispositivo, posizionato nella parte immobilizzata, che produce degli impulsi elettrici in modo da stimolare il movimento dell’arto.

https://neuralink.com/
https://neuralink.com/

 

Come cercheranno di migliorare il dispositvo

https://neuralink.com/

Come è mostrato nel piano cartesiano a tre dimensioni ogni elemento del congegno è stato progettato in modo che sia il più affidabile possibile: N1 Link è fornito di un rivestimento ermetico cosicché nessuna parte interna possa entrare in contatto con i liquidi e i sali del cervello, che in caso contrario lo danneggerebbero. Inoltre ogni parte del dispositivo è stata sperimentata più e più volte per dimostrare la sua sicurezza.

A questo scopo è fondamentale l’utilizzo di un simulatore di cervello e di un acceleratore di vita. Il primo ha permesso di sperimentare l’installazione del dispositivo rendendolo il più possibile affine alle caratteristiche dell’encefalo.

https://neuralink.com/

Il secondo è stato utilizzato per velocizzare ed accentuare la degradazione del dispositivo, così da verificarne la durabilità.

Ad esempio il grafico sovrastante mostra che all’aumentare dei mesi (asse X), l’umidità all’interno del N1 ha una crescita lineare. In bianco viene riportato l’andamento reale del dispositivo, mentre in blu è il risultato dell’acceleratore di vita. Dal grafico è evidente che diventa necessaria una sostituzione del N1 Link a partire dal sessantacinquesimo mese in poi.

Quello che l’azienda vuole fare è aumentare la vita dell’N1 Link, in modo che sia al più lungo utilizzabile.

L’efficacia del device è un altro aspetto molto importante per il gruppo. Per renderlo efficiente Neuralink ha iniziato degli esperimenti con gli animali, soprattutto scimmie, che hanno portato a molti miglioramenti riguardo la precisione e la velocità dell’N1. Inoltre dopo diversi mesi, l’organismo delle scimmie e degli altri animali coinvolti non ha mostrato delle reazioni negative. Proprio per questo Neuralink ha deciso che entro metà 2023, inizierà con i primi esperimenti sugli esseri umani.

 

Infine Neuralink ha costruito il prototipo fornendo una batteria, ricaricabile in modo wireless, con l’obiettivo di consentire l’utilizzo di N1 Link per tutta la giornata senza interruzioni. Nelle nuove generazioni, il gruppo cercherà di potenziare ulteriormente la batteria così da evitare qualsiasi problema di autonomia.

 

Al termine di tutte le verifiche il dispositivo si presenta così:

https://neuralink.com/

In conclusione l’N1 Link è ancora un prototipo in fase di sviluppo con molti aspetti da migliorare: velocità, efficienza, sicurezza. Perciò prima di poter avere un prodotto finito, la Neuralink Company ha ancora molto lavoro da fare.


Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254
< Torna indietro
Ambiente, società e tecnologia

Natworking: come si può lavorare dai piccoli borghi italiani

“Poca voglia di ritornare al lavoro, a guardare il muro con il rumore del traffico in sottofondo?”

“Lavorare al Nord restando al Sud: in Randstad spazio alle candidature per il South Working.”

“La natura fa bene anche al lavoro. In Finlandia lo smart working ora si fa nei boschi.”

 

Ci si imbatte sempre più spesso, oggi, quando si leggono notizie riguardanti il mondo del lavoro, in titoli o post come quelli riportati sopra. Parliamo di nuove tipologie lavorative, che meglio si adattano con il worklife balance, “l’equilibrio tra la vita privata e lavoro per far convivere in maniera pacifica la sfera professionale e quella privata”, ormai centrale nelle scelte organizzative aziendali e nelle politiche di sviluppo territoriale: enti pubblici e privati, infatti, anche a seguito della pandemia da Covid 19, considerano la flessibilità lavorativa e il lavoro da remoto un’opportunità di rigenerazione per paesi e comunità delle aree extra urbane italiane, condizionati da decenni di abbandono e spopolamento abitativo.

 

È il caso del progetto Natworking, associazione di promozione sociale nata nel novembre del 2019 e formata da un gruppo di giovani rigeneratori urbani, che si pone l’obiettivo di contribuire allo sviluppo locale e al turismo lento, sfruttando i cambiamenti nel mondo del lavoro. Il gruppo offre servizi di progettazione alle piccole comunità come il recupero e il riutilizzo di immobili abbandonati o sottoutilizzati da convertire in spazi di coworking e la progettazione e comunicazione di attività legate al turismo esperienziale. Il progetto, vincitore della call for ideas Mind Club 2020, vede già coinvolti diversi piccoli borghi in Piemonte, Liguria e Valle d’Aosta che, offrendo servizi di pernottamento e/o il noleggio di una scrivania singola o in condivisione, accolgono chiunque voglia lavorare o studiare immerso nella natura e lontano dal caos cittadino, con la possibilità durante le pause lavorative di partecipare ad attività culturali e sociali: escursioni di trekking o bike touring, laboratori esperienziali artigianali ed enogastronomici e visite guidate alla scoperta delle ricchezze paesaggistiche e storiche del territorio.

Il progetto Natworking, tuttavia, non rappresenta un caso isolato nel contesto nazionale. Simile nelle modalità e negli obiettivi è la piattaforma di business travel EveryWhere Tew che vuole favorire l’incontro tra luoghi inesplorati e viaggiatori-nomadi digitali, offrendo ai territori le condizioni necessarie per il lavoro in smart working. Un’iniziativa analoga, che lega anch’essa il mercato del lavoro al turismo e alla valorizzazione territoriale, è South Working, che intende “colmare il divario economico, sociale e territoriale tra Nord e Sud Italia” creando condizioni favorevoli affinché dipendenti e lavoratori delle imprese settentrionali possano vivere e lavorare al Sud o nei territori marginalizzati della penisola. Non mancano, infine, movimenti individuali come quello di Davide Fiz, lavoratore free-lance ideatore del progetto Smart Walking, che da marzo a ottobre 2022 ha percorso 20 cammini italiani, spostandosi la mattina e lavorando nel pomeriggio da posti sempre diversi, comunicando la propria esperienza sui social con l’obiettivo di sensibilizzare al remote working alla mentalità smart come fattore importante sia per un corretto work life balance che per la riscoperta di borghi e cammini attraverso il turismo lento e fuori dai circuiti mainstream.

Grazie a iniziative come queste, dunque, può essere incentivata l’accoglienza da parte dei piccoli borghi delle aree interne, offrendo una possibilità a chiunque voglia lavorare o studiare a contatto con la natura, di realizzare il proprio desiderio e di vivere un’esperienza sociale e culturale alla scoperta delle bellezze del nostro Paese.

< Torna indietro
Ambiente, società e tecnologia

Teli geotessili possono davvero essere la soluzione alla fusione dei ghiacciai?

I teli geotessili sono tessuti prodotti da un intreccio di fibre in materiale polimerico principalmente polipropilene e poliestere, tipicamente usati in applicazioni di edilizia o nel campo dell’ingegneria civile per le proprietà di drenaggio, filtrazione e controllo dell’erosione dei suoli. Recentemente se ne sente parlare in relazione al loro impiego nella copertura dei ghiacciai per ridurne lo scioglimento, uno degli effetti causati dell’aumento delle temperature dovuti all’emergenza climatica.

Sono una soluzione alla fusione dei ghiacciai?

L’utilizzo di teli geotessili di colore bianco sui ghiacciai riesce a garantire una maggiore riflessione della luce solare e andrebbe a ridurre quasi del 60% la fusione del ghiacciaio. L’azione di copertura e il rallentamento del fenomeno da un lato aiuta a garantire l’esistenza di piste da sci e dall’altro risparmiare su piani di innevamento durante la stagione invernale e quindi in modo diretto sostiene le attività turistiche favorendo lo sviluppo delle comunità locali. Quindi sono un’ottima soluzione? Dal punto di vista fisico riducono il fenomeno ma per quanto lodevole, l’intento di coprire i ghiacciai con teli plastici ha diversi limiti di natura logistica, economica e ancor di più ambientale ed ecologica. Questi teli hanno un costo in termini di CO2 che deriva dalla loro produzione e anche dalla loro gestione legata agli spostamenti per installarli e smantellarli. Si stimano quasi 40 giorni per il posizionamento e altrettanti per la rimozione. Inoltre, nella maggior parte dei casi riciclarli ne abbassa l’efficacia contro lo scioglimento e una volta a fine vita risulta difficile sottoporli a processi di riciclo o riutilizzo.

Le condizioni atmosferiche degradano le fibre, l’azione del sole, del vento e delle temperature degradano i teli frantumandoli e lasciando un paesaggio non piacevole alla vista oltre che, minaccia più importante aumentare l’introduzione in ambiente di micro e nano plastiche che si aggiungono a quelle migliaia già trovate e analizzate dai glaciologi. Il costo aumenta ulteriormente se si dovesse considerare la possibilità di applicare questa soluzione a tutti i ghiacciai che sono in situazioni critiche. Oltretutto ci sono problematiche logistiche legate al fatto che non risulterebbe possibile come soluzione in tutti quei luoghi impervi in cui non è agibile arrivare con mezzi operativi ingombranti tipicamente coinvolti come il gatto delle nevi. Inoltre, è bene considerare il problema ecologico che questa pratica comporta su un ecosistema, quello montano molto fragile e in continuo e veloce cambiamento. La superficie di un ghiacciaio e così il suo ambiente intorno non è inerte e sterile ma vivo e dinamico. È riportato dalla letteratura che i cambiamenti climatici stanno agendo su uno spostamento sempre più a nord di specie animali e vegetali e la copertura con teli di plastica non può che isolare le comunità biologiche presenti e limitarne i processi. La conseguenza è quella di impoverire e rendere i ghiacciai cubi asettici, separati dal loro contesto ambientale.

Pensare che risolvere il problema delle importanti perdite di ghiaccio, del continuo e inarrestabile ritiro dei più grandi ghiacciai dell’arco Alpino con teli non può essere una soluzione e una soluzione definita sostenibile come affermato dalla comunità scientifica. Con una lettera 39 scienziate e scienziati esperti di ghiacciai e clima hanno fatto un appello, supportati da diversi enti italiani facenti parte del World Glacier Monitoring Service, per far riflettere sull’ambiguità di nascenti start-up e iniziative di raccolte finanziarie emerse negli ultimi mesi, che hanno come attività principale la copertura di ghiacciai con teli geotessili.

Il caso del ghiacciaio del Presena: l’iniziativa di Glac-UP

Un primo esempio di applicazione di teli geotessili sui ghiacciai è stato a sud del passo del Tonale in val Presena. Il ghiacciaio del Presena fa parte del gruppo dei Ghiacciai della Presenella nella regione del Trentino-Alto Adige e porta con sé una grande storia umana e climatologica. Ad oggi è uno dei luoghi di ritrovo degli appassionati di sci e il suo sfruttamento per realizzazione di impianti sciistici è iniziato negli anni Sessanta del Novecento. Dal 2007 a seguito di diversi monitoraggi emerse che il ritmo di fusione sarebbe notevolmente accelerato con conseguenze sulla stabilità del ghiacciaio oltre che per le attività sciistiche. Per questo, la società Carosello Presena S.p.a con il supporto dell’Università di Trento e aziende come Glac-UP ha iniziato le attività di copertura del ghiacciaio con lunghe strisce di teli geotessili. L’azienda Glac-UP nasce da un gruppo di quattro ragazzi della Bocconi con l’intento di proporre una soluzione al problema del veloce ritiro dei ghiacciai partendo proprio con un progetto pilota nella Val Presena. L’obiettivo è quello di sostenere e finanziare l’acquisto dei teli e la copertura del ghiacciaio del Presena partendo da una superficie di 1000 metri quadri ed espandersi a 120.000metri quadri attraverso una raccolta fondi proponendo l’adozione(un acquisto online su sito web dell’azienda) di parti del ghiacciaio. L’azienda si rivolge a privati ed enti pubblici mostrando l’intervento come finalizzato al contrasto al cambiamento climatico per la salvaguardia dei ghiacciai e delle nostre montagne coinvolgendo i cittadini e i più sensibili al tema. Ma oggi la comunità scientifica rimane in netto contrasto con la comunicazione ambigua di queste iniziative che sembrano orientate solo a sostenere attività economiche in quanto a livello scientifico non sono definite come strategie di adattamento e mitigazione per i cambiamenti climatici.

< Torna indietro
Ambiente, società e tecnologia

Cheesecake meccanica: la rivoluzione 3d in cucina

Fonte immagine: http://www.jonathanblutinger.com/

Immaginate di arrivare a casa, stanchi dal lavoro e soprattutto affamati. Sentite un buon profumo provenire dalla cucina. Non avete un compagno o una compagna ma avete un sistema che automaticamente stampa per voi del cibo, con i giusti valori nutrizionali e contenente tutti i micro e macronutrienti di cui avete bisogno, magari anche con un bellissimo impiattamento degno di uno chef stellato. Avete letto bene: “stampa”, perché si, esistono le stampanti 3D per il cibo e potrebbero in un futuro rivoluzionare il modo in cui pensiamo alla cucina.

Il 3DFP (3D food printing o stampa alimentare in 3 dimensioni) è un metodo che consente di creare un prodotto alimentare tridimensionale mediante la sovrapposizione di strati sulla base di un progetto generato al computer. Funziona esattamente, almeno per ora, come una stampante 3D: abbiamo bisogno di uno strumento che stampa e di un progetto 3D fatto con dei software specifici, ad esempio con autoCAD.

In termini di principio non cambia nulla rispetto ad una stampante 3D classica, ma stampare del cibo porta con sé delle difficoltà non indifferenti, che rendono la tecnologia esistente (sia hardware che software) non esattamente adatta e adattabile agli alimenti. I cibi, infatti, hanno proprietà estremamente diverse dalla plastica: presentano densità particolari, sono sensibili al calore, possono essere formati da più componenti (magari solidi e liquidi), possono avere una fluidità differente a seconda del contenuto di acqua. A differenza della plastica, che se scaldata fluisce ma se raffreddata sotto una specifica temperatura rimane immobile, solo alcuni alimenti come il cioccolato riescono a resistere alla gravità in modo controllabile e utile per quello che si vuole fare. Gli altri non possono essere raffreddati o riscaldati a piacimento, meno la perdita di consistenza, tanto importante quanto il gusto. Inoltre, per far sì che questa tecnologia riesca ad affermarsi, cuochi e amatori devono essere in grado di scaricare da dei database ricette e design (i cosiddetti “blueprint”) già fatti, e non passare delle ore o dei giorni a progettarle.

Essendo però una tecnologia nuova abbiamo davanti una quantità indescrivibile di possibilità. Come già accennato prima potremmo voler controllare la quantità di micro e macronutrienti all’interno del cibo, perché magari stiamo facendo una dieta o perché abbiamo la glicemia alta. In America la si vuole utilizzare per produrre delle barrette da dare ai soldati con contenuto di caffeina o grassi o altri specifici ingredienti per ogni situazione. Rimanendo però su un piano domestico, a scopi pacifici si potrebbe impiegare per presentare dei piatti molto elaborati con design impossibili da replicare a mano. Tutto il potenziale però si potrà esprimere quando si riuscirà ad avere un sistema che può 1) stampare più ingredienti 2) cucinare in linea (e quindi mentre stampa) 3) controllare e personalizzare il design del pasto, in tutte le sue declinazioni. È qui che entra in gioco l’esperimento di Hod Lipson e i suoi collaboratori. La prima cosa che sono stati in grado di fare è stato costruire una stampante 3D che potesse stampare e gestire fino a sette ingredienti. L’altra cosa è stata quella di montare due tipi di laser nel loro strumento, in modo tale da cucinare più in profondità o più in superficie, ma contemporaneamente allo stampaggio. Secondo il loro preprint[1], grazie a questo macchinario sono riusciti per la prima volta a stampare una cheesecake formata da sette strati diversi.

 

Figura 1 Cheesecake formata da sette ingredienti. a: cheesecake cotta, b: sezione della cheesecake, c: design computerizzato della cheesecake, d: sezione della cheesecake, che mostra l’ingrediente di ogni strato. Abbiamo: 1- pasta di cracker, 2- burro di arachidi, 3- gelatina, 4- nutella, 5- crema di banana, 6- glassa, 7- marmellata alla ciliegia. Per approfondire: https://www.researchsquare.com/article/rs-424078/v1

 

Ma ecco che entrano in gioco delle sfide ingegneristiche non indifferenti. Chi, almeno per una volta, ha fatto o ha visto fare una torta o una pizza, sa che si devono necessariamente considerare due tipi di elementi:

  • quelli strutturali, ovvero quelli che tengono in piedi la struttura senza farla crollare. Una torta se messa nel piatto non si deforma, ma ha una certa resistenza meccanica;
  • il condimento. Questo può essere fatto di liquidi, gelatine, solidi o creme, ma che comunque non hanno alcun ruolo strutturale: sono lì per arricchire il piatto e dargli un gusto e una consistenza diversa e particolare.

Nonostante questo sia per certi versi ovvio, è stato necessario reiterare il processo ben sette volte prima di riuscire a stampare una fetta di torta stabile.

Gli ingredienti utilizzati sono stati:

  • pasta di cracker, come materiale strutturale;
  • burro di arachidi;
  • gelatina;
  • Nutella;
  • crema di banana;
  • glassa;
  • marmellata alla ciliegia.

Inizialmente le prove del gruppo di ricerca si sono concentrate sul simulare il più possibile una torta reale, costruendo la torta con il 33% del totale fatto di pasta di cracker, il 16% con creme mentre il resto tra il 4 e l’1%. Come detto prima, le gelatine e le creme non hanno proprietà strutturali. Alla fine, la quantità necessaria di pasta di cracker per tenere in piedi la struttura si aggira intorno al 70%.

Nonostante questa cheesecake possa sembrare disgustosa ai più, è comunque una pietra miliare della nuova era della cucina. Chissà cosa ci aspetterà in futuro, se mai questa tecnologia entrerà nelle nostre case come è stato per il microonde.

 

[1] Un preprint è un articolo scientifico che non ha ancora ricevuto una peer-review (una revisione tra pari) fondamentale per essere pubblicato in riviste scientificamente rilevanti. Per questo da questo documento sono state prese solo le informazioni necessarie per capire il procedimento, gli strumenti utilizzati e le sfide affrontate per fare la cheesecake.

< Torna indietro
Ambiente, società e tecnologia

Tutte le innovazioni della Football Industry viste nel Mondiale in Qatar

Il 20 novembre 2022, con il fischio d’avvio dato dall’arbitro italiano Daniele Orsato al match Qatar – Ecuador, è cominciato il Mondiale di calcio più discusso e criticato della storia, l’edizione 2022 che si sta giocando nell’emirato.

Oltre alle critiche di stampo etico e sociale, quello in Qatar è considerato il Mondiale più high-tech di sempre: questo per l’introduzione di nuove tecnologie all’interno degli stadi e soprattutto all’interno del campo da gioco.

Negli ultimi anni la FIFA ha introdotto una serie di nuove tecnologie che stanno rivoluzionando il mondo del calcio. Uno dei precedenti più eclatanti è stato l’introduzione della VAR (Virtual Assistant Referee): una moviola in campo a disposizione della terna arbitrale che fornisce un grande aiuto nelle decisioni di gara.

 

Nel Mondiale stiamo assistendo ad un’altra grande novità che ha come scopo un ulteriore riduzione degli errori arbitrali su una particolare azione di gioco, il  fuorigioco (un calciatore è in posizione di fuorigioco quando una qualsiasi parte del suo corpo si trova nella metà avversaria del terreno di gioco ed è più vicina alla linea di porta avversaria sia rispetto al pallone sia rispetto al penultimo giocatore difendente avversario). Il sistema ideato è chiamato Semi Fuorigioco: si tratta di una vera e propria rivoluzione, perché per la prima volta nella storia un’ Intelligenza Artificiale (o AI, in inglese artificial intelligence) ha un ruolo decisionale sulle sorti della partita, dato che il sistema è in grado di rilevare e valutare la potenziale infrazione. Ma come funziona tutto questo?

Di base l’AI è caratterizzata dalla comunicazione tra due sottosistemi: il pallone, chiamato Al Rihla, e dodici telecamere di localizzazione.

L’Al Rihla presenta al suo interno un sensore in grado di raccogliere molti dati sui movimenti e oscillazioni del pallone, circa 500 informazioni al secondo, come ad esempio lo spin rate (velocità di rotazione), la velocità istantanea e può anche misurare la forza con cui viene impattata la palla.

Tutti i dati vengono poi inviati via wireless ad un’applicazione che li memorizza.

Uno degli effetti causati dal sensore è stato l’annullamento del gol al giocatore portoghese Cristiano Ronaldo. Questo è stato fatto perché il sensore non aveva registrato alcun impatto con il calciatore ex-Manchester United e quindi il gol, comunque convalidato, è stato assegnato al compagno di squadra autore del cross.

L’altro sottosistema è costituito da dodici telecamere di localizzazione, posizionate in modo da visualizzare tutto il campo da gioco, registrando tutti i movimenti dei giocatori con una frequenza di 50 volte al secondo.

 

L’insieme dei dati raccolti dalle telecamere e dall’Al Rihla vengono utilizzati da un programma nella creazione di un modello virtuale d’azione. L’azione di gara, a partire dal momento del passaggio, viene ricreata in formato digitale e grazie a delle linee tracciate in automatico viene valutata la posizione di fuorigioco. L’unico problema del fuorigioco semi-automatico è che non è in grado di valutare se il fuorigioco è diretto o indiretto, cioè se il passaggio è intenzionale (diretto) o se è il risultato di una serie di deviazioni dell’avversario. Il problema è significativo perché nel primo caso il fuorigioco viene sanzionato, mentre nel secondo no. Questo spiega il perché l’arbitro ha ancora l’ultima parola su tutto e il motivo per cui il sistema è chiamato Semi Fuorigioco.

La scelta di introdurre la tecnologia è dovuta al fatto che con l’utilizzo della VAR il tempo perso era troppo elevato: per prendere una decisione poteva volerci anche più di un minuto. Con il Semi Fuorigioco i tempi si sono ridotti: entro 20 secondi dal momento in cui avviene l’azione la valutazione viene fatta.

 

Fonte: https://techprincess.it/fuorigioco-semi-automatico-mondiali-qatar/

 

Non solo campo, però. Molte altre nuove tecnologie hanno cambiato l’esperienza degli spettatori, impattando sull’architettura e sul design degli stadi. Gli impianti realizzati in Qatar sono infatti fra i più all’avanguardia del mondo. Tra le novità più rilevanti trovano spazio il tanto criticato sistema di raffreddamento automatico e il Bonocle.

Per quanto riguarda i sistemi di raffreddamento sono assolutamente necessari: in quella zona dell’Asia minore la temperatura media percepita in inverno è infatti di circa 30°gradi Celsius. Chiaramente giocare in queste condizioni non è fattibile per nessun essere umano, così Tamim Bin Hamad Aj Than, l’emiro del paese, ha affidato la risoluzione del problema all’ingegnere qatariota Saud Abdul Ghani. Quest’ultimo ha progettato un sistema complesso, che rileva le temperature all’interno e all’esterno dello stadio tramite dei sensori e poi attraverso gas freddi riesce a creare una bolla d’aria all’interno della costruzione. La bolla di aria fredda respinge quella calda proveniente dall’esterno e questo permette di ridurre di molto il caldo; è stato sperimentato che con una temperatura esterna di 40° gradi circa, all’interno se ne registrano appena 23°.

Oltre al clima, negli stadi del Mondiale è stato approntato un sistema utile anche per supportare gli spettatori con disabilità. Bonocle è una start-up qatariota che ha sviluppato un dispositivo, il Braille Entertainment Platform (o BEP), ideato per permettere alle persone non vedenti di assistere alle partite. Il BEP è stato progettato in modo tale da simulare una linea di Braille infinita. Il tutto avviene attraverso un layer, dove sono presenti degli spuntoni che alzandosi e abbassandosi modificano la superficie dove l’ipovedente può leggere attraverso il Braille, parole o intere frasi lettera per lettera. Il BEP si connette in wireless ad un’applicazione fornita all’acquisto del dispositivo, che si connette all’ente di trasmissione della partita e così vengono riportate le parole del telecronista. Inoltre il Braille Entertainment Platform può essere usato in molte altre attività come la lettura di un libro, il gaming (giocare ai videogiochi), lo studio e più in generale il lavoro.

Fonte:   https://at.mada.org.qa/technology/bonocle/

In conclusione è chiaro che questo Mondiale è considerato dalla football industry una rampa di lancio per le nuove tecnologie, con l’idea finale di utilizzarle in tutte le competizioni di rilievo.

L’evoluzione tecnologica di questo sport è però solo una piccola parte di ciò che possiamo osservare in Qatar, infatti i sistemi di raffreddamento sono inseriti nelle strutture degli otto nuovi stadi, ottenuti con lo sfruttamento di migliaia di lavoratori; che in seguito dovranno vedere uno di questi stadi essere completamente smontato e inviato in Uruguay, che è diventato di fatto il primo compratore di stadi “ricondizionati” di sempre. Gli stessi sistemi di raffreddamento sprecano quantità immense di acqua e sono per questo un oltraggio al pianeta. Inoltre fanno discutere le decisioni etiche prese dal paese nell’accogliere la competizione e le culture delle altre nazioni, ad esempio l’iniziale divieto nel bere alcolici (poi limitato nelle zone pubbliche) e il divieto per i capitani delle squadre di indossare la fascia con i colori dell’arcobaleno (da tempo i colori simbolo per la community LGBT).  Dunque sono molti i punti da approfondire e tutti diversi tra di loro, ma ognuno ha un comune denominatore: una decisione perlomeno discussa presa dalla FIFA.

< Torna indietro
Ambiente, società e tecnologia

Dal litio alla sabbia: un nuovo metodo per conservare l’energia

https://polarnightenergy.fi

Quando parliamo del riscaldamento globale siamo abituati a pensare secondo un’associazione quasi automatica alle energie rinnovabili e alle tecnologie che possano sostituire i combustili fossili.

Un buon proposito, indispensabile da perseguire, ma con un “ma”: le energie rinnovabili sono intermittenti e abbiamo bisogno di un modo per conservare quella in eccesso quando non serve.

Qual è la soluzione? Si potrebbe pensare alla cosa più ovvia: le batterie, e in particolare quelle al litio, essendo le più utilizzate.

Purtroppo, andremmo a risolvere un problema creandone uno di pari entità. Seppur non ci siano problemi di scarsità di litio, la sua estrazione è particolarmente inquinante. Inoltre, la richiesta delle batterie sta crescendo a dismisura sia in termini di prezzo che in termini di consumo. Secondo un report della Roland Berger , il costo del litio nel mercato cinese è aumentato del 743% in un solo anno ( gennaio 2021/2022) e secondo la Benchmark Minerals, la domanda nei prossimi anni sarà così grande che la sua estrazione non potrà tenere il passo della domanda.

Fonte immagine: https://www.rolandberger.com/en/

 

Fonte immagine: https://www.benchmarkminerals.com/wp-content/uploads/20200608-Vivas-Kumar-Carnegie-Mellon-Battery-Seminar-V1.pdf

 

Anche in questo caso, fortunatamente, la scienza è sempre un passo avanti. Sono tanti gli studi per ovviare a questo problema: quello che pare garantire più successo è l’impiego dei TES, ossia Thermal Energy Storage (accumulatori di energia termica).

Voi direte: “Non saranno mica dei termosifoni?” e per citare un famoso meme “Well yes, but actually no”

In effetti i TES lo sono, ma non lo sono: ora vi spieghiamo il perché.

Secondo gli scienziati Gang Li e Xuefei Zhengc, i Thermal Energy Storage sono sistemi che riescono a trattenere una grande quantità di calore al loro interno per diversi giorni/settimane/mesi, per poi rilasciarla quando necessario.

Il calore viene prodotto trasformando l’elettricità in eccesso delle fonti rinnovabili, che viene convertita in energia termica tramite ad esempio delle resistenze, o sfruttando dei processi chimici e accumulata da alcuni materiali.

Questi dispositivi possono successivamente riscaldare gli ambienti come case e uffici, o alimentare i forni ad alta temperatura usati in negli impianti produttivi.

Lo stesso principio può essere usato per raffreddare, usando l’elettricità delle fonti rinnovabili per abbassare la temperatura dei materiali invece che alzarla.

L’energia al loro interno può essere accumulata in tre modi diversi:

  • Sensible heat storage: si scalda/raffredda un liquido o un solido.
  • Latent heat storage: si sfrutta il cambiamento di fase di un materiale.
  • Thermo-chemical storage: si usano delle reazioni chimiche per trattenere o rilasciare calore.

Il metodo più adottato è il primo, e il funzionamento è abbastanza semplice: si prende un materiale (ad esempio acqua, o come vedremo anche sabbia), e lo si scalda usando delle resistenze: proprio come fa ad esempio un tostapane. Il materiale viene conservato in un contenitore molto isolato cosicché il calore non possa disperdersi.

Prendiamo quello che si sta facendo in Germania, dove si sta già costruendo un TES che potrà contenere 56 milioni di litri di acqua (l’equivalente di 350 mila vasche da bagno) da scaldare a 98 gradi e che svilupperà una potenza massima di 200MW, con un’energia massima rilasciata di 2600 MWh.

Non male, no?

Eppure, rimane un problema: l’acqua può essere scaldata al massimo a 100 gradi. È a questo punto che entra in gioco la sabbia. Un gruppo di ragazzi finlandesi, grazie alla loro start-up “Polar Night Energy”, hanno messo in pratica lo stesso principio che sta alla base dei TES ma usando la sabbia di scarto impiegata nelle costruzioni. Dopo aver costruito il primo prototipo funzionante che ha liberato un’energia di 3MWh, si sono concentrati sulla costruzione di una vera e propria “batteria” di sabbia, riuscendo ad ottenere fino ad 8MWh di energia.

Il vantaggio di questo materiale sta nella possibilità di accumulare molto più calore, e quindi avere una densità di energia molto più alta di quella dell’acqua. Le temperature che possono essere raggiunte si aggirano intorno ai 600 gradi (ma potenzialmente si potrebbe andare anche oltre): a parità di volumi quindi si potrebbe avere tre volte la stessa energia. I vantaggi però non si fermano qua: la struttura esterna del TES “a sabbia” è completamente in acciaio, e secondo gli ideatori potrebbe essere costruita in qualsiasi officina. Inoltre, la sabbia non è particolarmente raffinata o trattata e si potrebbero usare altri tipi di sabbie, riducendo il costo sia di trasporto che di trattamento.

L’energia può quindi essere utilizzata così com’è sotto forma di calore, immettendo nei tubi di uscita dell’aria fredda e controllando così la temperatura finale. Ci sarebbe anche la possibilità di produrre dell’energia elettrica anche per alimentare delle turbine. Queste di solito vengono alimentate a metano, ma usando l’energia accumulata potremmo potenzialmente erogare calore ed elettricità tutto il giorno anche durante i picchi. Il problema in questo caso sarebbe la drastica diminuzione dell’efficienza, che andrebbe dal 95% al 25%.

Un’iniziativa che sembra risolvere almeno parzialmente molto dei problemi d’accumulo, anche se rimane una domanda da porci: possono queste “batterie” sostituire le batterie? Sì e no, tutto dipende dall’applicazione. Data la loro grandezza e al costo iniziale di costruzione è impossibile pensare ad un uso domestico. Data però la loro capacità di accumulare grandi quantità di energia, questi sistemi sembrano in grado di prestarsi ad un uso in larga scala per fornire energia ad un vasto numero di edifici.

Sfortunatamente, per poter impiegare a questo scopo la tecnologia dei TES c’è bisogno di una rete di teleriscaldamento, cosa che in Italia non è così diffusa. Ma questa è un’altra storia.

< Torna indietro
Ambiente, società e tecnologia

Twitter secondo Elon Musk: la cronistoria

Come sono andati i primi giorni del multimiliardario sudafricano alla guida del social network.

Dopo mesi di conferme e smentite, il 28 ottobre Elon Musk, CEO di Tesla e SpaceX, ha acquistato Twitter con un accordo da 44 miliardi di dollari. Sono così iniziate due settimane di tweet controversi, licenziamenti a sorpresa e retromarce pittoresche che stanno raccontando molto di cosa abbia in testa il nuovo proprietario. Ripercorriamo insieme le tappe principali della vicenda, considerato che giorno dopo giorno i fatti si accumulano e gli orizzonti son sempre meno chiari.

I primi giorni

Il primo atto è andato in scena il 27 ottobre, e gli ingredienti sono stati la spettacolarizzazione e la comunicazione non intermediata, ovviamente via social: Musk si è presentato teatralmente presso la sede di Twitter con un lavandino (https://twitter.com/elonmusk/status/1585341984679469056), giocando in un tweet con l’espressione “let the sink in” (letteralmente “lascia entrare il lavandino”, ma che significa anche “digerisci la notizia”). Per l’annuncio dell’acquisizione ufficiale l’imprenditore di origine sudafricane ha poi pubblicato un post molto chiaro: “The bird is freed” (l’uccellino è stato liberato”), cambiando anche la propria biografia sul social network in “Chief Twit”.

Sin dai primi giorni il terreno di discussione (o faremmo meglio a dire “scontro”) su cui Musk si è mosso riguardavano due topic che affliggono da sempre il social network finanziato da Jack Dorsey: le precarie condizioni economiche in cui si trovava la società, sempre più evidenti negli ultimi anni, e la moderazione dei contenuti, ritenuta dal nuovo proprietario eccessiva e d’ostacolo alla libera espressione. Per segnare un cambio di passo e probabilmente dare un messaggio al mercato, Elon Musk ha scelto di inaugurare il nuovo corso con una serie di licenziamenti eccellenti, che hanno coinvolto fra gli altri Ned Segal, direttore finanziario, e Vijaya Gadde, avvocata a capo della squadra legale di Twitter e della divisione trust and safety che si occupa della moderazione, ma soprattutto Parag Agrawal, il CEO. La cosa curiosa è come siano andati i licenziamenti: i dirigenti allontanati, pur ricevendo una cospicua liquidazione, sono stati addirittura scortati fuori dalla sede come impiegati qualsiasi.

Metodi spicci ma che hanno subito dato l’imprinting a una governance che sembra promettere più pugno di ferro che morbida comprensione.

 

La questione delle spunte blu

Come accade su diversi social network, Twitter è in grado di verificare l’identità di persone e aziende di interesse pubblico per evitare il fenomeno dei fake account.  Per distinguerli viene assegnata una spunta blu: un modo per riconoscerli come affidabili.

Una spunta blu veniva riconosciuta anche a chi decideva di avvalersi del servizio premium “Twitter Blue”, disponibile dal 2021 negli Stati Uniti, Canada, Australia e Nuova Zelanda. Oltre al badge “verified”, la versione premium di Twitter permetteva di postare video di maggior durata, visualizzare meno pubblicità e apparire per primi nei risultati di ricerca.

È su questa particolare feature che nel disegno di Musk si poteva sviluppare una nuova linea di revenue: l’idea del multimiliardario era far diventare le spunte blu solo a pagamento. In effetti, il 31 ottobre viene annunciato questo passaggio, ma non mancano i momenti “pittoreschi” in un’iniziativa che apparentemente non sembra poggiarsi su alcun tipo di riflessione. Parlando della cosa su Twitter, il founder di Tesla si è trovato a gestire una sorta di contrattazione con lo scrittore Stephen King (https://twitter.com/StephenKing/status/1587042605627490304), di fatto abbassando il prezzo di partenza da 20 dollari mensili a 8.

Una policy di pricing perlomeno curiosa, considerato che parliamo di un social network da più di 300 milioni di persone.

La nuova era

I colpi di scena però non finiscono qui.

Il primo novembre Musk ha sciolto il consiglio di amministrazione e ha nominato sé stesso come unico membro identificandosi come CEO.

Giovedì 3 novembre tutti i dipendenti di Twitter hanno ricevuto una mail in cui si comunicava che dal giorno successivo sarebbe iniziato un processo di “riduzione della forza lavoro”: se avessero ricevuto la comunicazione nella casella personale sarebbero stati fra gli esuberi, se invece fosse arrivata all’indirizzo aziendale il posto sarebbe stato salvo.

Potrebbe sembrare uno scherzo, ma il giorno successivo, venerdì 4 novembre, effettivamente circa metà dei 7500 dipendenti è stata licenziata. Una tempestività non solo difficile da comprendere dal punto di vista umano, ma anche legislativo: non sono stati nascosti i malumori sia del governo della California (le leggi dello stato prevedono in questi casi un periodo di preavviso di almeno 60 giorni) sia degli inserzionisti, visto il trattamento decisamente poco comprensivo. Non sono mancati poi problemi nell’organizzazione interna, dato che molte delle risorse allontanate erano operative in attività indispensabili per la quotidianità di Twitter. Si parla di intere divisioni praticamente azzerate, tra cui quella che si occupava della moderazione dei contenuti.

Una scelta avventata, sconfessata pochi giorni dopo dalla stessa nuova leadership di Twitter: alcuni dipendenti, licenziati appena tre giorni prima, sono stati richiamati in servizio. All’origine del contrordine ci sarebbe stata una verifica sui criteri di valutazione da parte dell’azienda, che solo dopo aver dato il via ai licenziamenti avrebbe evidenziato la necessità di disporre di alcune specifiche competenze. Inoltre, erano stati evidenziati errori formali: alcune persone sarebbero state licenziate per errore.

Lo scenario sembrerebbe essere disastroso.

In effetti, per cercare di arrestare l’emorragia di malumore, mercoledì 9 novembre, durante una diretta su Spaces (le “stanze” dove discutere di Twitter), Musk ha provato a tranquillizzare gli investitori assicurando che verranno introdotte nuove funzionalità che miglioreranno la qualità dell’esperienza utente: a suo avviso, la richiesta di pagamento per ottenere la spunta blu porterebbe da una parte all’aumento degli introiti dell’azienda, e dall’altra scoraggerebbe la creazione di account fittizi.

Una spiegazione che però non ha contribuito a prendere decisioni perlomeno curiose. Nella sua prima mail ufficiale ai dipendenti, l’imprenditore ha comunicato a tutti i dipendenti sarebbero dovuti tornare in ufficio dal giorno successivo, concludendo l’opportunità di lavorare da casa che, nell’ultimo contratto sottoscritto dall’azienda, era stata definita come condizione permanente. Il giorno seguente, giovedì 10 novembre, Musk ha poi convocato una riunione con il personale con una sola ora di anticipo per annunciare che Twitter perderà nel futuro diversi miliardi di dollari e per ribadire la necessità di tornare in ufficio “a meno che sia fisicamente impossibile”.

I problemi però, al netto dello smart working abolito, non sembrano esser scomparsi. Alcuni possessori di Twitter Blue hanno finto di essere qualcun altro: per citare un solo esempio, un account premium si è finto l’azienda farmacologica Eli Lilly e ha annunciato che “l’insulina sarà gratuita”, con conseguenze reali in borsa.

L’imprenditore ha twittato che “Twitter farà molte cose stupide (traduzione letterale ndr) nei prossimi mesi. Manterremo ciò che funziona e cambieremo ciò che non funziona” (Please note that Twitter will do lots of dumb things in coming months. We will keep what works & change what doesn’t), andando così a delineare quello che pare essere la direzione di Elon Musk: sperimentare e cambiare continuamente.
Così è accaduto alla spunta grigia con dicitura “Ufficiale” che doveva aiutare a riconoscere i profili verificati da quelli premium: è stata lanciata e ritirata in meno di ventiquattro ore.

Tutto questo è capitato in meno di un mese. Se c’è una cosa che è sicura, è che Twitter sotto la gestione di Elon Musk non sarà noioso!