< Torna indietro
Ambiente, società e tecnologia

Dal litio alla sabbia: un nuovo metodo per conservare l’energia

https://polarnightenergy.fi

Quando parliamo del riscaldamento globale siamo abituati a pensare secondo un’associazione quasi automatica alle energie rinnovabili e alle tecnologie che possano sostituire i combustili fossili.

Un buon proposito, indispensabile da perseguire, ma con un “ma”: le energie rinnovabili sono intermittenti e abbiamo bisogno di un modo per conservare quella in eccesso quando non serve.

Qual è la soluzione? Si potrebbe pensare alla cosa più ovvia: le batterie, e in particolare quelle al litio, essendo le più utilizzate.

Purtroppo, andremmo a risolvere un problema creandone uno di pari entità. Seppur non ci siano problemi di scarsità di litio, la sua estrazione è particolarmente inquinante. Inoltre, la richiesta delle batterie sta crescendo a dismisura sia in termini di prezzo che in termini di consumo. Secondo un report della Roland Berger , il costo del litio nel mercato cinese è aumentato del 743% in un solo anno ( gennaio 2021/2022) e secondo la Benchmark Minerals, la domanda nei prossimi anni sarà così grande che la sua estrazione non potrà tenere il passo della domanda.

Fonte immagine: https://content.rolandberger.com/hubfs/07_presse/Roland%20Berger_The%20Lithium-Ion%20Battery%20Market%20and%20Supply%20Chain_2022_final.pdf

 

Fonte immagine: https://www.benchmarkminerals.com/wp-content/uploads/20200608-Vivas-Kumar-Carnegie-Mellon-Battery-Seminar-V1.pdf

 

Anche in questo caso, fortunatamente, la scienza è sempre un passo avanti. Sono tanti gli studi per ovviare a questo problema: quello che pare garantire più successo è l’impiego dei TES, ossia Thermal Energy Storage (accumulatori di energia termica).

Voi direte: “Non saranno mica dei termosifoni?” e per citare un famoso meme “Well yes, but actually no”

In effetti i TES lo sono, ma non lo sono: ora vi spieghiamo il perché.

Secondo gli scienziati Gang Li e Xuefei Zhengc, i Thermal Energy Storage sono sistemi che riescono a trattenere una grande quantità di calore al loro interno per diversi giorni/settimane/mesi, per poi rilasciarla quando necessario.

Il calore viene prodotto trasformando l’elettricità in eccesso delle fonti rinnovabili, che viene convertita in energia termica tramite ad esempio delle resistenze, o sfruttando dei processi chimici e accumulata da alcuni materiali.

Questi dispositivi possono successivamente riscaldare gli ambienti come case e uffici, o alimentare i forni ad alta temperatura usati in negli impianti produttivi.

Lo stesso principio può essere usato per raffreddare, usando l’elettricità delle fonti rinnovabili per abbassare la temperatura dei materiali invece che alzarla.

L’energia al loro interno può essere accumulata in tre modi diversi:

  • Sensible heat storage à si scalda/raffredda un liquido o un solido.
  • Latent heat storage à si sfrutta il cambiamento di fase di un materiale.
  • Thermo-chemical storage àsi usano delle reazioni chimiche per trattenere o rilasciare calore.

Il metodo più adottato è il primo, e il funzionamento è abbastanza semplice: si prende un materiale (ad esempio acqua, o come vedremo anche sabbia), e lo si scalda usando delle resistenze: proprio come fa ad esempio un tostapane. Il materiale viene conservato in un contenitore molto isolato cosicché il calore non possa disperdersi.

Prendiamo quello che si sta facendo in Germania, dove si sta già costruendo un TES che potrà contenere 56 milioni di litri di acqua (l’equivalente di 350 mila vasche da bagno) da scaldare a 98 gradi e che svilupperà una potenza massima di 200MW, con un’energia massima rilasciata di 2600 MWh.

Non male, no?

Eppure, rimane un problema: l’acqua può essere scaldata al massimo a 100 gradi. È a questo punto che entra in gioco la sabbia. Un gruppo di ragazzi finlandesi, grazie alla loro start-up “Polar Night Energy”, hanno messo in pratica lo stesso principio che sta alla base dei TES ma usando la sabbia di scarto impiegata nelle costruzioni. Dopo aver costruito il primo prototipo funzionante che ha liberato un’energia di 3MWh, si sono concentrati sulla costruzione di una vera e propria “batteria” di sabbia, riuscendo ad ottenere fino ad 8MWh di energia.

Il vantaggio di questo materiale sta nella possibilità di accumulare molto più calore, e quindi avere una densità di energia molto più alta di quella dell’acqua. Le temperature che possono essere raggiunte si aggirano intorno ai 600 gradi (ma potenzialmente si potrebbe andare anche oltre): a parità di volumi quindi si potrebbe avere tre volte la stessa energia. I vantaggi però non si fermano qua: la struttura esterna del TES “a sabbia” è completamente in acciaio, e secondo gli ideatori potrebbe essere costruita in qualsiasi officina. Inoltre, la sabbia non è particolarmente raffinata o trattata e si potrebbero usare altri tipi di sabbie, riducendo il costo sia di trasporto che di trattamento.

L’energia può quindi essere utilizzata così com’è sotto forma di calore, immettendo nei tubi di uscita dell’aria fredda e controllando così la temperatura finale. Ci sarebbe anche la possibilità di produrre dell’energia elettrica anche per alimentare delle turbine. Queste di solito vengono alimentate a metano, ma usando l’energia accumulata potremmo potenzialmente erogare calore ed elettricità tutto il giorno anche durante i picchi. Il problema in questo caso sarebbe la drastica diminuzione dell’efficienza, che andrebbe dal 95% al 25%.

Un’iniziativa che sembra risolvere almeno parzialmente molto dei problemi d’accumulo, anche se rimane una domanda da porci: possono queste “batterie” sostituire le batterie? Sì e no, tutto dipende dall’applicazione. Data la loro grandezza e al costo iniziale di costruzione è impossibile pensare ad un uso domestico. Data però la loro capacità di accumulare grandi quantità di energia, questi sistemi sembrano in grado di prestarsi ad un uso in larga scala per fornire energia ad un vasto numero di edifici.

Sfortunatamente, per poter impiegare a questo scopo la tecnologia dei TES c’è bisogno di una rete di teleriscaldamento, cosa che in Italia non è così diffusa. Ma questa è un’altra storia.

< Torna indietro
Ambiente, società e tecnologia

Twitter secondo Elon Musk: la cronistoria

Come sono andati i primi giorni del multimiliardario sudafricano alla guida del social network.

Dopo mesi di conferme e smentite, il 28 ottobre Elon Musk, CEO di Tesla e SpaceX, ha acquistato Twitter con un accordo da 44 miliardi di dollari. Sono così iniziate due settimane di tweet controversi, licenziamenti a sorpresa e retromarce pittoresche che stanno raccontando molto di cosa abbia in testa il nuovo proprietario. Ripercorriamo insieme le tappe principali della vicenda, considerato che giorno dopo giorno i fatti si accumulano e gli orizzonti son sempre meno chiari.

I primi giorni

Il primo atto è andato in scena il 27 ottobre, e gli ingredienti sono stati la spettacolarizzazione e la comunicazione non intermediata, ovviamente via social: Musk si è presentato teatralmente presso la sede di Twitter con un lavandino (https://twitter.com/elonmusk/status/1585341984679469056), giocando in un tweet con l’espressione “let the sink in” (letteralmente “lascia entrare il lavandino”, ma che significa anche “digerisci la notizia”). Per l’annuncio dell’acquisizione ufficiale l’imprenditore di origine sudafricane ha poi pubblicato un post molto chiaro: “The bird is freed” (l’uccellino è stato liberato”), cambiando anche la propria biografia sul social network in “Chief Twit”.

Sin dai primi giorni il terreno di discussione (o faremmo meglio a dire “scontro”) su cui Musk si è mosso riguardavano due topic che affliggono da sempre il social network finanziato da Jack Dorsey: le precarie condizioni economiche in cui si trovava la società, sempre più evidenti negli ultimi anni, e la moderazione dei contenuti, ritenuta dal nuovo proprietario eccessiva e d’ostacolo alla libera espressione. Per segnare un cambio di passo e probabilmente dare un messaggio al mercato, Elon Musk ha scelto di inaugurare il nuovo corso con una serie di licenziamenti eccellenti, che hanno coinvolto fra gli altri Ned Segal, direttore finanziario, e Vijaya Gadde, avvocata a capo della squadra legale di Twitter e della divisione trust and safety che si occupa della moderazione, ma soprattutto Parag Agrawal, il CEO. La cosa curiosa è come siano andati i licenziamenti: i dirigenti allontanati, pur ricevendo una cospicua liquidazione, sono stati addirittura scortati fuori dalla sede come impiegati qualsiasi.

Metodi spicci ma che hanno subito dato l’imprinting a una governance che sembra promettere più pugno di ferro che morbida comprensione.

 

La questione delle spunte blu

Come accade su diversi social network, Twitter è in grado di verificare l’identità di persone e aziende di interesse pubblico per evitare il fenomeno dei fake account.  Per distinguerli viene assegnata una spunta blu: un modo per riconoscerli come affidabili.

Una spunta blu veniva riconosciuta anche a chi decideva di avvalersi del servizio premium “Twitter Blue”, disponibile dal 2021 negli Stati Uniti, Canada, Australia e Nuova Zelanda. Oltre al badge “verified”, la versione premium di Twitter permetteva di postare video di maggior durata, visualizzare meno pubblicità e apparire per primi nei risultati di ricerca.

È su questa particolare feature che nel disegno di Musk si poteva sviluppare una nuova linea di revenue: l’idea del multimiliardario era far diventare le spunte blu solo a pagamento. In effetti, il 31 ottobre viene annunciato questo passaggio, ma non mancano i momenti “pittoreschi” in un’iniziativa che apparentemente non sembra poggiarsi su alcun tipo di riflessione. Parlando della cosa su Twitter, il founder di Tesla si è trovato a gestire una sorta di contrattazione con lo scrittore Stephen King (https://twitter.com/StephenKing/status/1587042605627490304), di fatto abbassando il prezzo di partenza da 20 dollari mensili a 8.

Una policy di pricing perlomeno curiosa, considerato che parliamo di un social network da più di 300 milioni di persone.

La nuova era

I colpi di scena però non finiscono qui.

Il primo novembre Musk ha sciolto il consiglio di amministrazione e ha nominato sé stesso come unico membro identificandosi come CEO.

Giovedì 3 novembre tutti i dipendenti di Twitter hanno ricevuto una mail in cui si comunicava che dal giorno successivo sarebbe iniziato un processo di “riduzione della forza lavoro”: se avessero ricevuto la comunicazione nella casella personale sarebbero stati fra gli esuberi, se invece fosse arrivata all’indirizzo aziendale il posto sarebbe stato salvo.

Potrebbe sembrare uno scherzo, ma il giorno successivo, venerdì 4 novembre, effettivamente circa metà dei 7500 dipendenti è stata licenziata. Una tempestività non solo difficile da comprendere dal punto di vista umano, ma anche legislativo: non sono stati nascosti i malumori sia del governo della California (le leggi dello stato prevedono in questi casi un periodo di preavviso di almeno 60 giorni) sia degli inserzionisti, visto il trattamento decisamente poco comprensivo. Non sono mancati poi problemi nell’organizzazione interna, dato che molte delle risorse allontanate erano operative in attività indispensabili per la quotidianità di Twitter. Si parla di intere divisioni praticamente azzerate, tra cui quella che si occupava della moderazione dei contenuti.

Una scelta avventata, sconfessata pochi giorni dopo dalla stessa nuova leadership di Twitter: alcuni dipendenti, licenziati appena tre giorni prima, sono stati richiamati in servizio. All’origine del contrordine ci sarebbe stata una verifica sui criteri di valutazione da parte dell’azienda, che solo dopo aver dato il via ai licenziamenti avrebbe evidenziato la necessità di disporre di alcune specifiche competenze. Inoltre, erano stati evidenziati errori formali: alcune persone sarebbero state licenziate per errore.

Lo scenario sembrerebbe essere disastroso.

In effetti, per cercare di arrestare l’emorragia di malumore, mercoledì 9 novembre, durante una diretta su Spaces (le “stanze” dove discutere di Twitter), Musk ha provato a tranquillizzare gli investitori assicurando che verranno introdotte nuove funzionalità che miglioreranno la qualità dell’esperienza utente: a suo avviso, la richiesta di pagamento per ottenere la spunta blu porterebbe da una parte all’aumento degli introiti dell’azienda, e dall’altra scoraggerebbe la creazione di account fittizi.

Una spiegazione che però non ha contribuito a prendere decisioni perlomeno curiose. Nella sua prima mail ufficiale ai dipendenti, l’imprenditore ha comunicato a tutti i dipendenti sarebbero dovuti tornare in ufficio dal giorno successivo, concludendo l’opportunità di lavorare da casa che, nell’ultimo contratto sottoscritto dall’azienda, era stata definita come condizione permanente. Il giorno seguente, giovedì 10 novembre, Musk ha poi convocato una riunione con il personale con una sola ora di anticipo per annunciare che Twitter perderà nel futuro diversi miliardi di dollari e per ribadire la necessità di tornare in ufficio “a meno che sia fisicamente impossibile”.

I problemi però, al netto dello smart working abolito, non sembrano esser scomparsi. Alcuni possessori di Twitter Blue hanno finto di essere qualcun altro: per citare un solo esempio, un account premium si è finto l’azienda farmacologica Eli Lilly e ha annunciato che “l’insulina sarà gratuita”, con conseguenze reali in borsa.

L’imprenditore ha twittato che “Twitter farà molte cose stupide (traduzione letterale ndr) nei prossimi mesi. Manterremo ciò che funziona e cambieremo ciò che non funziona” (Please note that Twitter will do lots of dumb things in coming months. We will keep what works & change what doesn’t), andando così a delineare quello che pare essere la direzione di Elon Musk: sperimentare e cambiare continuamente.
Così è accaduto alla spunta grigia con dicitura “Ufficiale” che doveva aiutare a riconoscere i profili verificati da quelli premium: è stata lanciata e ritirata in meno di ventiquattro ore.

Tutto questo è capitato in meno di un mese. Se c’è una cosa che è sicura, è che Twitter sotto la gestione di Elon Musk non sarà noioso!

< Torna indietro
Ambiente, società e tecnologia

I social come mezzo per raggiungere l’accessibilità dei contenuti digitali: Intervista a Rosa Coscia

Quanto sono determinanti i social network per distribuire i propri contenuti con l’obiettivo di abbattere le barriere imposte dalla disabilità?
Ovviamente molto: oggi anzi possono essere il vero valore aggiunto in un sistema distributivo che permetta di raggiungere pubblici sempre più ampi e bisogno di aiuto specifico, talvolta anche con costi relativamente contenuti.
Certo, bisogna capire quanto e come calibrare l’attività di distribuzione, lavorando su format che siano in grado di sfruttare al meglio i canali: non è un caso che molti network si stiano dotando di reparti in grado di rispondere a questa necessità.
Per approfondire il tema iWrite ha intervistato Rosa Coscia, esperta di Accessibilità web e social all’interno della Direzione Pubblica Utilità in Rai, che opera nel team del broadcaster di stato che si occupa proprio di questo specifico tema.

 

Come avete capito che anche i social posso contribuire all’obiettivo che ha Rai di rendere ogni prodotto accessibile?

 

La Rai è la più grande azienda di Comunicazione del nostro Paese, concessionaria del Servizio Pubblico radiotelevisivo. Fa parte della sua Mission raggiungere tutto il pubblico italiano, compreso quello delle persone con disabilità sensoriali che ha bisogno di supporti specifici (audiodescrizione per le persone cieche, sottotitoli e/o traduzione LIS per le persone sorde) per poter “accedere” ai contenuti audiovisivi trasmessi in tv, ai contenuti web erogati sui siti Rai e, ovviamente, anche ai contenuti veicolati sui social network, piattaforme che hanno ormai un ruolo centrale nel panorama della Comunicazione. In questo senso non potevamo più rimandare la sfida di approdare all’universo dei social e di farlo in maniera accessibile. L’abbiamo colta ufficialmente proprio a poca distanza dall’inizio del primo lockdown, nell’aprile 2020, aprendo il profilo Facebook @RaiAccessibilità per poter stare accanto alla nostra utenza che rischiava di rimanere ancor più isolata a causa delle difficoltà nel recepimento delle comunicazioni, se non rese accessibili.

 

Facebook è il vostro social di punta per avvicinarvi a chi ha disabilità? Se sì perché? 

 

Facebook è stata la scelta più naturale in quanto è un social in cui, accanto ai contenuti multimediali (che pubblichiamo sempre dotati dei supporti di accessibilità come audiodescrizione e/o sottotitoli e/o LIS, oppure il testo alternativo per le immagini), ha un certo spazio la parte testuale nei post. Avevamo bisogno di poter parlare al nostro pubblico, raccontarci, raccontare quello che la Rai fa per le persone con disabilità sensoriali e dialogare con loro. Inoltre, Facebook è un social che può raccogliere in egual misura le persone con disabilità visive e uditive, non essendo basato esclusivamente su una componente visiva. Ci consente di fare anche dirette live dagli eventi in cui siamo presenti a parlare di inclusione o a portare l’accessibilità. Infine, il pubblico a cui avevamo bisogno di fornire il maggior supporto era proprio quello degli adulti (e dei loro figli) e degli anziani che sono rimasti gli utenti più fedeli a Facebook. I teenager approdati direttamente a Instagram o Tik Tok hanno già strumenti e competenze digitali che li rendono meno svantaggiati nel compito della ricerca di informazioni, sebbene vadano ovviamente indirizzati ed educati a saper distinguere le fake news dalla realtà, compito di cui la Rai pure si incarica.

 

Su Twitter viene utilizzato da Rai per il Sociale, ora Rai per la Sostenibilità,l’#RaiEasyWeb. Come mai é stato creato questo hashtag? 

 

La presenza su Twitter di notizie riguardanti il palinsesto di Rai Easy Web, il sito Rai dedicato alle persone con disabilità sensoriali gestito dalla nostra struttura Rai Accessibilità, risale già al 2016 grazie alla collaborazione con la Direzione aziendale che si occupa di fare da punto di raccordo per tutte le iniziative e gli spazi che la Rai dedica alle tematiche della Sostenibilità, tra cui quella Sociale. In questo contesto, informare brevemente e rapidamente l’utenza dei disabili sensoriali e le loro famiglie sui contenuti informatici, culturali o di intrattenimento di cui possono fruire gratuitamente e in formato accessibile per loro rientra pienamente negli obiettivi del servizio.

 

Pensi che altri social come Instagram e TikTok possano servire a promuovere i servizi offerti tramite il vostro sito Rai EasyWeb e l’account di Facebook? 

 

Si tratta di piattaforme sempre più diffuse tra i giovani e non solo, dunque sarebbe importante per noi dare al pubblico dei disabili sensoriali di tutte le età, alle loro famiglie, ma anche alla società tutta – che deve accorgersi dell’importanza di considerare tutte le esigenze comunicative –, la possibilità di rimanere informati sulle nostre attività se la piattaforma social prediletta e maggiormente frequentata sia una di queste.

 

In una piattaforma come Tiktok basata principalmente sull’utilizzo della musica e della componente visiva pensi che sia possibile integrare l’audiodescrizione oppure i tempi di questo social sono troppo veloci per l’accessibilità? 

 

Magari un frammento di audiodescrizione particolarmente suggestivo o perfino divertente potrà diventare esso stesso una “colonna sonora” per qualche Tik Tok, chissa! Basti pensare che un video pubblicato sul nostro account Facebook con l’audiodescrizione dei momenti della proclamazione dei Maneskin come vincitori dell’Eurovision Song Contest 2021 ha superato i 4 milioni di visualizzazioni e molte persone si sono interrogate su cosa fosse quella voce che commentava le immagini in una maniera che risultava “strana” alle loro orecchie. É evidente che è un servizio ancora poco conosciuto al vasto pubblico e strumenti che possano raggiungere grandi numeri di persone come Tik Tok possono aiutarci in un’operazione di sensibilizzazione e di diffusione della cultura dell’inclusione e dell’accessibilità.

 

In futuro pensi che sia possibile approcciarvi ad altri social in modo accessibile oltre a Facebook? Se sì, hai già in mente quali potrebbero essere gli accorgimenti per tenere conto dell’accessibilità audiovisiva? 

 

Senza dubbio approderemo su Twitter con un account direttamente legato a Rai Accessibilità e poi Instagram e Tik Tok rappresentano la prossima sfida che vorremmo intraprendere. Probabilmente lo faremo a breve. Entrambi questi social nascono concependo la parte visiva come fondamentale, per cui la vera scommessa sarà capire se la nostra presenza riuscirà ad intercettare anche il pubblico delle persone con disabilità visive. Certamente il nostro approccio continuerà ad essere quello di pubblicare contenuti accessibili a tutti, quindi dotando i video di audiodescrizione/sottotitoli/LIS quando necessario, inserendo per le immagini un testo alternativo che non sia automaticamente generato ma frutto di una competenza descrittiva umana, continuando a prediligere la qualità della comunicazione rispetto a una produzione “mordi e fuggi” dei contenuti che mal si sposa con l’esigenza di dover concepire, produrre e finalizzare multimedia completamente accessibili.

 

Ringraziamo Rosa per la sua disponibilità e ci auguriamo di vedere più presente l’utilizzo dei social improntato all’accessibilità dei contenuti proposti.

< Torna indietro
Ambiente, società e tecnologia

Quale sarà il destino degli sport invernali: sopravvivenza o estinzione?

È di pochi giorni fa la notizia dell’annullamento di alcune gare di Coppa del Mondo di sci programmate in Austria ed in Italia a causa della pressocchè totale assenza di manto nevoso e delle alte temperature che non permetterebbero agli atleti di gareggiare in sicurezza. Questa circostanza porta a chiederci che futuro possa esistere per gli sport invernali, caratteristicamente influenzati dalle condizioni climatiche che, se non ottimali, necessitano di essere fronteggiate con ingenti investimenti.

Vediamo più da vicino il problema esaminando qualche concetto base.

I calendari degli eventi sportivi su neve negli ultimi anni sono stati stilati intorno alla fine del mese di ottobre e come da tradizione la prima meta prescelta è Sölden, una località situata nel Tirolo austriaco, di cui fa parte il ghiacciaio Rettembach che ospita proprio la Coppa del Mondo. Eppure, da una veloce ricerca sul web, possiamo ricordare che nel 2020 le competizioni di Sölden si erano regolarmente svolte e con condizioni metereologiche eccellenti. Da quanto detto fino ad ora evinciamo due fatti: 1) ogni annata è diversa dall’altra; 2) il Climate Change rimane comunque una realtà. Tant’è che anche altre località sciistiche come Zermatt e Cervinia hanno visto cancellare le gare del 29-31 ottobre scorso per gli stessi motivi.

Nel domandarsi quale futuro possa esistere per questo tipo di attività sportive alcuni ex campioni di discipline invernali si sono espressi a favore di una organizzazione più sostenibile, fondata cioè su gare più ravvicinate e concentrate nella stagione invernale ed effettuate solo quando le condizioni naturali lo permettono. Basti pensare che secondo dati EURAC tra qualche anno potrebbe non essere più soddisfatta la copertura nevosa minima per l’attivazione di una stagione invernale nelle più comuni località sciistiche a bassa e media quota (<1800 m sul livello del mare) e per questo motivo sarà necessario spostarsi sempre più in vetta.

Più in grande, anche la OMM (Organizzazione Metereologica Mondiale) ha presentato il suo rapporto sullo  “Stato dei servizi climatici 2022” ponendo l’accento sulla questione “sport invernali” e rilevando che una delle nostre più famose e patinate località sciistiche dolomitiche, Cortina (BL), è seriamente a rischio per la possibilità di avere neve bagnata non idonea alle attività sciistiche, e ciò in conseguenza del fatto che in questa area vi è un consumo energetico elevato derivante (in parte ma non solo) dalla necessità già presente di utilizzare sistemi di innevazione artificiale, anch’essi particolarmente energivori.

Del resto, anche il rapporto Nevediversa 2022 redatto da Legambiente sottolinea come proteggere il territorio sia indispensabile per cercare di arrestare la deriva climatica e sponsorizza per questo motivo un nuovo tipo di turismo invernale sostenibile, che promuova attività che si possono praticare anche in condizioni climatiche variabili e che non necessitano di importanti infrastrutture come ad esempio il tutto nell’ottica di creare alternative meno inquinanti per vaste zone montane che vedono nello sci e in tutto ciò che gli gira intorno l’unica o la principale fonte di reddito. Inoltre, lo stesso rapporto, si esprime in maniera sfavorevole su alcuni progetti che riguardano l’ampliamento di comprensori sciistici esistenti o la costruzione di impianti sportivi altamente impattanti sul territorio, come la pista di BOB che dovrebbe essere creata in occasione delle olimpiadi invernali 2026.

Insomma, se da un lato molte implicazioni economiche portano gli stakeholder dell’economia montana a criticare posizioni dure in merito alla sostenibilità dello sci alpino, dall’altro il ritiro dei ghiacciai e tragedie come quella del distacco di parte della Marmolada lo scorso luglio sono sotto gli occhi di tutti e non possono essere ignorate. E ad ulteriore riprova di quanto già detto arriva anche il recentissimo rapporto UNESCO “World Heritage Glaciers” che, oltre a confermare la scomparsa dei ghiacciai dolomitici entro il 2050, aggiunge alla lista anche altri importanti siti a quote elevate, come quelli nel parco di Yellowstone o sulla vetta del Kilimanjaro.

La permacrisis che sta vivendo il nostro pianeta è evidente al punto da aver generato un nuovo disturbo d’ansia chiamato appunto “ecoansia”, diffuso principalmente nei giovani tra i 15 ed i 25 anni d’età, cioè quelle generazioni che hanno più coscienza del problema e che guarda caso sono protagoniste di eclatanti atti di dissenso (vedi i recenti tentativi di imbrattamento di alcune opere d’arte per richiamare l’attenzione sul problema). Alla vigilia dei mondiali in Qatar, evento che proprio dal punto di vista della gestione energetica e dell’impatto ambientale è stato ed è molto criticato, c’è da chiedersi quindi se siamo disposti a sacrificare l’intrattenimento invernale o più in generale sportivo per proteggere il nostro fragile pianeta.

< Torna indietro
Ambiente, società e tecnologia

Non solo estetica: dei biosensori simili a tatuaggi potrebbero essere utili per la salute

E se un tatuaggio potesse non avere una funzione estetica, ma essere uno strumento utile a un paziente diabetico per monitorare il proprio stato di salute? Alcuni ricercatori della Jiaotong University School of Life Science and Technology si sono posti questa domanda e hanno cercato di rispondervi: uno degli studi più recenti sul tema, intitolato “A Colorimetric Dermal Tattoo Biosensor” e pubblicato nel 2021, ha mostrato i risultati ottenuti dalla ricerca su dei biosensori iniettabili sottopelle e in grado di cambiare colore a seconda di alcuni parametri biologici. Sono ancora nelle prime fasi di ricerca e non si sono ancora evoluti in un prodotto vero e proprio: dalle immagini divulgate nel documento sembrano piccoli tatuaggi colorati dalle forme molto semplici, come figure geometriche o disegni stilizzati, ma il loro scopo è del tutto differente.

Come funzionano?

Questi biosensori sono molecole con una particolare proprietà: la loro struttura viene modificata a causa dell’interazione con specifiche sostanze che si desidera quantificare, come il glucosio nel caso dei pazienti diabetici. Questa modifica è la causa del cambiamento di colore osservato, che è a sua volta legato alla concentrazione delle sostanze rilevate all’interno del fluido interstiziale (cioè “la soluzione acquosa che circonda le cellule di un tessuto”). Sono stati sperimentati metodi diversi per iniettare i biosensori nel modo più efficace, a partire da strumenti molto simili a quelli usati dai tatuatori fino a dei cerotti muniti di aghi molto piccoli (e in grado di ottenere un risultato migliore). Fino ad ora, le sperimentazioni sono state condotte principalmente ex vivo (su un tessuto proveniente da un organismo) su pelle di maiale, oppure in vivo (quindi su un organismo vivente) su dei conigli.

Se questa tecnologia fosse sviluppata fino a diventare parte di un percorso terapeutico, permetterebbe al paziente di accorgersi di un problema in modo rapido e intuitivo grazie al proprio smartphone. Una volta inquadrata con la fotocamera la zona della pelle in cui sono presenti i biosensori colorati, un’applicazione sarebbe in grado di associare a una tonalità diversa una quantità precisa del parametro che si vuole tenere sotto controllo e riconoscere una situazione potenzialmente pericolosa. Oltre al glucosio, con questa tecnologia si possono determinare anche il pH, l’albumina, la concentrazione dei minerali etc.

Quali sono i limiti di questa tecnologia?

Sebbene i biosensori si siano mostrati funzionali e non pericolosi nelle prime fasi della ricerca, non sono ancora stati eseguiti degli esperimenti consistenti su pelle umana o su tessuti progettati per replicarla. La pelle di maiale è considerata, tra quelle animali, un primo modello abbastanza affidabile, ma non è sufficiente per dichiarare il successo di questa tecnologia (così come lo studio su pelle di coniglio, seppur realizzato in vivo). Infatti, fino a che non si potrà disporre di risultati ottenuti tramite trial clinici, non si potrà essere ragionevolmente certi della loro non tossicità.

Inoltre il colore assunto potrebbe variare a seconda del colore della pelle del paziente: per ottenere una legenda completa servirebbero ulteriori studi su supporti che coprano una gamma di tonalità quanto più larga possibile.

< Torna indietro
Ambiente, società e tecnologia

A che punto siamo con la lotta agli sprechi alimentari?

Quante volte sarà capitato di acquistare un prodotto e lasciarlo in frigo oltre la data di scadenza per poi essere costretti a gettarlo nella spazzatura? Oppure di ritrovarsi, a pranzo e a cena, una grande quantità di cibo avanzato destinata a finire tra i rifiuti?

Comportamenti e situazioni purtroppo culturalmente accettati, soprattutto nei paesi occidentali, che si riconducono al fenomeno negativo dello spreco alimentare.

 

Che cosa si intende, dunque, per spreco alimentare?

Secondo la definizione data dalla FAO: “il termine spreco alimentare si riferisce invece allo scarto intenzionale di prodotti commestibili, soprattutto da parte di dettaglianti e consumatori, ed è dovuto al comportamento di aziende e privati.”

Un fenomeno, quindi, che non riguarda soltanto le cattive abitudini dei cittadini, ma anche commercianti e rivenditori di generi alimentari.

Lo spreco alimentare (food waste), tuttavia, non dev’essere confuso con la perdita alimentare (food loss) che, invece, sempre secondo la FAO, identifica la: “riduzione non intenzionale del cibo destinato al consumo umano che deriva da inefficienze nella catena di approvvigionamento: infrastrutture e logistica carenti, mancanza di tecnologia, competenze, conoscenze e capacità gestionali insufficienti.  Avviene soprattutto nella fase di produzione, di post raccolto e di lavorazione dei prodotti, per esempio quando il cibo non viene raccolto o è danneggiato durante la lavorazione, lo stoccaggio o il trasporto e viene smaltito.”

 

Bisogna chiedersi, di conseguenza, quanto si spreca in Italia e nel mondo?

I dati forniti dall’indagine World Food Waste, prodotta dall’Osservatorio Waste Watcher e dall’Università di Bologna, hanno evidenziato come nel mese di agosto siano stati sprecati dai cittadini italiani 674 grammi di cibo pro capite a settimana; stima minore rispetto allo stesso periodo dell’anno precedente, ma in aumento rispetto alla rilevazione fatta dallo stesso osservatorio a febbraio del 2022, in occasione della “Giornata Nazionale contro lo spreco alimentare.” Tra le cause principali dello spreco alimentare vi sono la scarsa o assente pianificazione della spesa, il cucinare in eccesso e la cattiva conservazione di frutta e verdura nei supermercati. Cattive abitudini che costano annualmente agli italiani circa 9 miliardi di euro.

Anche considerando lo scenario globale i dati non sono incoraggianti. La FAO, per la “Giornata Internazionale di sensibilizzazione su perdite e sprechi alimentari”, celebrata lo scorso 29 settembre, ha evidenziato come più di un terzo della produzione alimentare mondiale venga persa e sprecata. Infatti, è del 17% la percentuale di cibo che viene sprecato di cui l’11% in casa, il 5% nel settore dei servizi alimentari e il 2% nel commercio al dettaglio.

Numeri e cifre di un fenomeno negativo, sia da un punto di vista economico, ma anche eticamente riprovevole se pensiamo a quante persone ancora oggi soffrano la fame o alle implicazioni negative sul clima e sull’ambiente che questi fenomeni comportano. Il rapporto UNEP Food Waste Index, di fatto, riporta che circa l’8-10% dell’emissioni di gas serra a livello globale sono causate dal cibo prodotto e non consumato.

 

Come invertire questa tendenza negativa e combattere lo spreco?

Tema ormai prioritario nelle discussioni politiche di numerosi paesi, la lotta allo spreco alimentare è tra gli obiettivi dell’Agenda 2030 delle Nazioni Unite che, al punto 12.3, mira a dimezzare la quantità pro capite di cibo sprecato a livello globale. Orientata al raggiungimento di questo risultato è la strategia FarmToFork dell’Unione Europea, che vede tra le ultime misure introdotte: la definizione entro il 2023 di obiettivi giuridicamente vincolanti per tutti gli stati membri dell’UE in materia di spreco alimentare e una decisiva revisione delle norme europee che regolano la marcatura sulla data di scadenza e di conservazione minima riportata sui prodotti, spesso confusionaria per rivenditori e consumatori. Inoltre, tante sono le città che adottano politiche urbane alimentari ovvero una serie di iniziative incentrate sulla valorizzazione dell’agricoltura locale e della filiera corta, sul riuso solidale dell’invenduto e su campagne di sensibilizzazione scolastica che, in un’ottica di Smart Food Community, si pongono l’obiettivo di ridurre gli sprechi.

A questi programmi politici, si affiancano le azioni di operatori e aziende private. Come già riportato nell’articolo “La lotta contro lo spreco diventa di buon gusto” sono, infatti, diverse le piattaforme che si prefiggono lo scopo di salvare il cibo invenduto e non consumato. Proprio da una di queste, la startup To Good To go, è nato il Patto contro lo spreco alimentare: “un intesa tra enti, aziende e supermercati con l’intento di ridurre gli sprechi nell’intera filiera e portare il dibattito nelle importanti sedi pubbliche e private.” Hanno già aderito al patto importanti soggetti economici del settore agroalimentare come Bolton Group (Rio Mare e Simmenthal), Kellogg’s, Nestlè e Carrefour.

La lotta allo spreco, in ogni caso, passa anche e soprattutto dalla sensibilizzazione e dal cambio di abitudini dei consumatori. Sono presenti in rete numerosi consigli e validi vademecum per aiutare a gestire correttamente acquisti, conservazione e consumo degli alimenti, favorendo, in questo modo, la riduzione degli sprechi tra le mura domestiche e contribuendo, così, a vincere una sfida fondamentale per la salute umana e dell’intero pianeta.

< Torna indietro
Ambiente, società e tecnologia

DALL-E: l’intelligenza artificiale che “disegna” ciò che vuoi tu

Generare immagini con solo le parole o meglio, attraverso una descrizione testuale dell’utente: è ciò che è in grado di fare il sistema di intelligenza artificiale DALL-E, che da mercoledì 28 settembre è stato reso disponibile a tutti, senza più liste di attesa.

Ma che cosa è esattamente DALL-E e come funziona?

Rilasciato nel gennaio 2021 nella sua prima release, DALL-E è un sistema di intelligenza artificiale immaginato e realizzato da OpenAI, l’organizzazione no profit fondata nel 2015 da Elon Musk e Sam Altman, il cui obiettivo è di assicurare un’intelligenza artificiale che porti benefici all’umanità. Il suo scopo è generare sia immagini da zero che modificare parti di immagini già esistenti attraverso una descrizione. Come si può leggere dal post in cui si annuncia la sua nascita, DALL E è stato sviluppato come estensione di un altro sistema di intelligenza artificiale: si tratta di GPT, pensato per generare testi human-like.

A gennaio di quest’anno è stata annunciata una nuova versione di DALL-E, DALL-E 2, migliorata sulle capacità di generazione delle immagini, più accurate e realistiche e con una loro risoluzione quattro volte maggiore. Da aprile il sistema è stato reso disponibile a sempre più persone e questo ha permesso di migliorare non solo lo strumento ma anche stabilire delle regole della community per garantirne la sicurezza: sul blog di OpenAI infatti si legge che l’accesso controllato dei mesi scorsi è stato necessario per comprenderne a pieno i possibili utilizzi (anche quelli meno indicati). Oggi non si possono generare immagini che incitino all’odio e alla violenza o contenuti per adulti; inoltre, è stata autorizzata solo di recente la possibilità di modificare e realizzare immagini con soggetti umani.

Ad agosto è stato introdotto Outpainting, una funzionalità che permette di estendere un’immagine esistente, aggiungendo elementi nello stesso stile dell’immagine originale.

 

Come funziona DALL-E 2

 

Usare DALL-E 2 è molto semplice. Dopo essersi iscritti sul sito è possibile cominciare subito a generare le immagini a partire da una descrizione accurata di ciò che si vuole ottenere. Infatti, come recita DALL-E stessa, una descrizione più lunga e specifica permetterà di realizzare delle immagini più precise e fedeli a ciò che si immagina.

La cosa bella di DALL-E 2 è che puoi parlarle come se stessi parlando con una persona: non è necessario quindi impiegare un linguaggio troppo complesso, lei riuscirà a comprendere. Inoltre, la sua competenza linguistica non è limitata solo all’inglese, ma DALL-E 2 è in grado di comprendere anche altre lingue (come l’italiano).

Sulla home di DALL-E 2 si trovano molti esempi di immagini create e/o modificate dagli utenti e sul web basta una breve ricerca per trovare centinaia di esempi. Anche noi della redazione di iWrite l’abbiamo provata e questi sono i risultati.

 



DALL-E 2 è uno strumento interessante per curiosi e artisti ma può anche trovare utilizzi in ambiti diversi dalla semplice realizzazione di immagini per svago, come ad esempio aiutare a visualizzare l’arredamento di una stanza vuota.

DALL-E 2 può essere guardata con sospetto, per paura che possa prendere il nostro posto nell’arte e nella creatività ma in realtà, come si augura la stessa OpenAI, potrebbe porsi come uno strumento molto utile e di supporto a creativi e artisti professionisti, per la realizzazione di immagini digitali e dipinti su tela.

< Torna indietro
Ambiente, società e tecnologia

Quale futuro per la Digital Health? Intervista a Eugenio Santoro

Da qualche anno è diventato sempre più diffuso nella nostra vita l’uso di tecnologie che rientrano nella Digital Health. Smartwatch che promettono di monitorare il nostro battito cardiaco, la cosiddetta “ricetta dematerializzata” per acquistare i farmaci, video consulti con il medico oppure la possibilità di visualizzare in pochi minuti una radiografia di cinque anni fa: la tecnologia permea sempre più il settore sanitario.

Queste tecnologie non sono però fra loro sovrapponibili: sono nati nuovi settori, ognuno con la propria specificità e con nuove necessità di regolamentazione.

Secondo Eugenio Santoro, responsabile del Laboratorio di Informatica Medica all’Istituto di Ricerche Farmacologiche Mario Negri IRCCS: “Le terapie digitali fanno parte della medicina digitale, un settore particolarmente specifico della digital health. Si tratta di software (applicazioni, giochi, realtà virtuale) che costituiscono essi stessi la terapia.” È questo il caso, per esempio, di applicazioni progettate per aiutare il paziente a modificare le abitudini e lo stile di vita: studi clinici randomizzati che hanno studiato una particolare applicazione “hanno dimostrato che i pazienti affetti da diabete che la utilizzano riportano una maggiore diminuzione dei valori di emoglobina glicata (un parametro che permette di valutare l’andamento della glicemia negli ultimi tre mesi, ndr) rispetto a chi segue una guida tradizionale”.

Durante l’ultimo Web Marketing Festival, Santoro ha fatto un intervento proprio su questi temi. Lo abbiamo intervistato cercando di scoprire qualcosa in più.

 

Buongiorno, Eugenio Santoro, e benvenuto su iWrite. Di cosa parliamo quando parliamo di “medicina digitale”?

La medicina digitale è un supporto alla cura: è costituita, per esempio, da reminder e da strumenti che permettono al paziente di segnalare le reazioni avverse da casa. È relativamente comune per i pazienti oncologici l’uso di un’applicazione che segnala se la reazione avversa deve essere risolta immediatamente o può aspettare l’intervento del medico. Oppure da strumenti digitali o sensori che raccolgono dati fisiologici dei pazienti sui quali il medico prende delle decisioni. Tutti questi strumenti devono essere validati da studi clinici, spesso randomizzati.”.

 

A che punto è lo sviluppo del mondo dietro la digital Health e quali sono le prospettive?

Per quanto riguarda il panorama attuale, in alcuni stati (come USA, Germania, UK e Giappone) le terapie digitali sviluppate e sperimentate con studi clinici randomizzati possono essere prescritte e spesso rimborsate dallo stato o dalle assicurazioni.

L’istituto Mario Negri ha svolto una revisione degli studi sulle terapie digitali, identificando le aree mediche dove sono più presenti: al primo posto abbiamo il campo della salute mentale (ansia, depressione…) con il 40%, segue poi quello delle malattie croniche (come il diabete) e da dipendenze (come quella da fumo di sigarette).

Per il futuro c’è ottimismo: soprattutto in alcuni ambiti, sono strumenti che possono competere con i farmaci. Potrebbero costituire un primo tentativo prima di ricorrere alla terapia farmacologica e saranno sempre più utilizzati anche in associazione ai farmaci. La speranza è che la loro regolamentazione consenta di muoverci velocemente.

 

Dottor Santoro, nel suo intervento ha parlato del fatto che i pazienti sono pronti all’utilizzo di questi nuovi strumenti, forse più dei medici. Quale può essere il ruolo delle università?

In questo momento numerose indagini, anche fatte da noi tra pazienti oncologici, indicano che stanno utilizzando gli strumenti digitali per informarsi o raccogliere dati. Si osserva invece un uso limitato da parte dei medici, per diverse ragioni:

  1. Formazione: i medici sono ancora a digiuno di quanto il digitale possa cambiare il loro modo di lavorare, forse non spaventati, ma proprio non consapevoli. Con il Covid c’è stato un avvicinamento, come per esempio nel monitoraggio dei pazienti. Strumenti più avanzati come le applicazioni sono ancora poco diffuse perché poco conosciute, inoltre i medici non sono sufficientemente digitalizzati. All’università bisogna rinnovare i corsi inserendo la digital health. Possono avere un ruolo anche le società scientifiche, informando i loro associati riguardo le nuove tecnologie.
  2. Regolamentazione: i medici consigliano più facilmente queste “nuove tecnologie” se regolamentate e se possono essere inserite in un contesto assistenziale approvato.

 

Quali competenze dovrà avere il medico del futuro per governare l’evoluzione tecnologica, come da lei auspicato?

Sicuramente competenze tecnologiche, in modo da saperle valutare: essere in grado di capire quali strumenti utilizzare, seguendo le evidenze scientifiche, e quali no, diffidando di quelli che non hanno superato il vaglio scientifico. C’è un problema organizzativo evidente, non solo nell’inserimento di questi strumenti, ma anche nella loro integrazione nell’aspetto curativo della pratica clinica. Inoltre, i medici devono mantenere un livello di empatia sufficientemente elevato anche quando usano strumenti digitali. Diversi studi dimostrano che l’utilizzo di strumenti digitali porta a una diminuzione dell’empatia. Non si tratta di diventare dei tecnici, ma utilizzatori esperti e di inserirle nel contesto clinico in cui si lavora.

 

Ha accennato nel suo intervento dell’impatto dei social media, può raccontarci di più?

È un impatto importante, per esempio esistono evidenze che le community di pazienti costruite sui social media e gestite da medici sono efficaci per favorire la cessazione del fumo. Il moderatore lancia post che hanno lo scopo di modificare lo stile di vita dei membri e invita a pubblicare i miglioramenti o pubblica delle pillole informative, in particolare c’è un’ampia esperienza in ambito diabetologico. Gli studi hanno dimostrato che i partecipanti maggiormente attivi hanno migliori possibilità di smettere di fumare e ci sono molte esperienze anche sull’aumento del tempo dedicato all’attività fisica e conseguente riduzione del peso.

 

< Torna indietro
Ambiente, società e tecnologia

Facciamoli viaggiare bene! Le nuove raccomandazione EFSA per trasportare gli animali da reddito

L’EFSA ha pubblicato le nuove raccomandazioni per trasportare gli animali da reddito

E sembra che per bovini, ovini e pollame sarà un po’ più piacevole viaggiare

 

Vi sarà certo capitato durante un viaggio in autostrada di notare un veicolo, magari multipiano, che trasporta animali di varia specie. Vi siete mai chiesti se esistano delle regole su questo tipo di trasporto speciale che impattino sia sul benessere degli animali che su quello dell’uomo?

Ebbene, le regole esistono e come, tant’è che  giusto pochi giorni fa l’EFSA ( l’Agenzia Europea per la sicurezza alimentare) ha rilasciato un nuovo parere scientifico per il benessere degli animali durante il trasporto. Questo documento ha lo scopo di analizzare le particolarità legate al trasporto di alcune specie animali identificandone le criticità e di proporre nuovi spunti di ricerca sul tema. È organizzato in sezioni che esaminano i requisiti generali del bestiame idoneo e il management necessario per organizzare e gestire il trasporto, le raccomandazioni a cui attenersi in termini di intervalli di idratazione e alimentazione del bestiame, tempi di percorrenza, periodi di riposo e spazi necessari per il benessere delle specie trasportate.

Vediamo alcune particolarità più nel dettaglio.

Partiamo dagli equini, animali che possono essere trasportati per ragioni di diversa natura (dall’allevamento alle mostre o manifestazioni sportive) e che sebbene ritenuti socievoli, in realtà sono governati dall’istinto “flight or fight” (fuggi o combatti). Questo è proprio uno dei motivi per cui vengono trasportati in furgoni singoli: è mandatorio evitare lotte e conseguenti lesioni da morso tra animali troppo vicini l’uno all’altro. Inoltre, avendo un baricentro molto spostato in avanti, i cavalli portano buona parte del loro peso sulle zampe anteriori e questo li mette in difficoltà non solo nel mantenere la posizione in relazione alle accelerazioni e decelerazioni effettuate dal mezzo in cui vengono ospitati, ma li espone anche ad un alto rischio di infortuni durante viaggi molto lunghi. Le uniche eccezioni al viaggio singolo sono rappresentate dalle cavalle con i puledri o dai gruppi di pony abituati a vivere assieme, che tollerano la vicinanza in ambienti ristretti. Altra prescrizione importantissima riguarda la necessità di mantenere un buon ricambio d’aria all’interno dei furgoni soprattutto nella stagione estiva, visto che i cavalli termoregolano attraverso il sudore.

Per quanto riguarda i suini, recenti evidenze hanno dimostrato che a causa di una disproporzione tra massa cardiaca e massa corporea questi animali sono poco capaci di adattarsi allo stress: il loro trasporto deve tenerne conto. Le regole generali da seguire sono quindi: controllare che abbiano sufficiente spazio (in relazione ad età e dimensioni) per muoversi e sdraiarsi durante il trasporto diurno e non eccedere durante il trasporto notturno e quando le temperature sono basse, ad esempio durante i trasporti aerei (situazione in cui questi animali preferiscono rimanere accovacciati e vicini gli uni agli altri). Non è necessario invece mettere a disposizione dell’acqua durante il movimento del veicolo poiché i suini non amano abbeverarsi mentre sono in movimento; inoltre vanno nutriti prima del trasporto ed idratati durante le soste.

Gli ovini sono animali che hanno come peculiarità la ruminazione pressocché costante: è stato dimostrato che, durante un trasporto turbolento caratterizzato da eccessive accelerazioni e decelerazioni o da improvvisi cambi di marcia, manto stradale dissestato o curve strette, la ruminazione e il riposo di questi animali vengono pesantemente disturbati e aumenta il rischio di lesioni. Pertanto, viene prescritto di monitorare i percorsi degli autoveicoli con accelerometri dedicati soprattutto nei lunghi viaggi.

Il punto chiave del trasporto del pollame sembra invece essere legato al loro scarso adattamento alle alte temperature e all’elevata umidità che si viene a creare a causa della loro attività respiratoria, soprattutto se molti capi vengono trasportati contemporaneamente su veicoli commerciali. I sistemi di ventilazione passiva possono risultare insufficienti e pertanto viene raccomandato non solo di ridurre la densità di stoccaggio ma anche di mantenere una temperatura massima di 24-25°C con un tasso di umidità relativa intorno al 70% attraverso l’utilizzo di sistemi di ventilazione meccanica per ogni viaggio che superi la durata di 4 ore.

Un aspetto comune sottolineato più volte nel documento, per motivi differenti tra le varie categorie di animali, è la necessità di limitare il numero di capi che viaggiano nello stesso scomparto, sia per evitare che questi si feriscano in maniera più o meno volontaria (contatto o combattimento come nel caso di equini e suini) sia perché alcune specie regolano la vita di gruppo secondo ferree gerarchie sociali: inserire estranei rappresenta il primum movens per l’innesco di un comportamento agonistico (vedi le capre). Inoltre tutte le categorie di animali prese in esame soffrono lo stress termico, soprattutto i capi giovani, per cui per tutti la temperatura va controllata attentamente. Infine, alcune categorie di animali  (ad esempio le pecore) hanno una buona tolleranza ai lunghi viaggi (fino a 48h) e si dimostrano resistenti alla disidratazione a patto che le condizioni di trasporto siano ottimali (monitoraggio della temperatura). Tuttavia questa specie fatica a bere acqua da fonti non familiari e per questo motivo dovrebbe beneficiare di pause di almeno 24h.

Da non sottovalutare è il rischio di trasmissione di malattie infettive che risulta amplificato in relazione al trasporto di animali, soprattutto quando tutte le suddette norme non vengono rispettate.

L’attenzione verso questa specifica attività è un tema noto a livello istituzionale europeo già da molto tempo; in epoca recente assume un significato ancora più importante nell’ottica della strategia “One Health” che si propone di modificare l’approccio antropocentrico al concetto di salute identificando in un unico sistema globale l’uomo, l’ambiente e tutti gli altri esseri viventi che lo condividono.

In questo senso, appare chiaro come salvaguardare la salute animale sia indispensabile per proteggere e assicurare la salute dell’uomo.

< Torna indietro
Ambiente, società e tecnologia

Il futuro sarà “bidimensionale”? Prospettive e ostacoli della ricerca sul grafene

Chi sarebbe stato certo, prima della sua scoperta, che un sottilissimo strato di atomi di carbonio avrebbe generato un enorme interesse scientifico e tecnologico? Si tratta del grafene, un materiale che, grazie alle sue particolari proprietà, potrebbe innovare prodotti e processi industriali in molti settori diversi.

Il grafene è formato da un singolo reticolo bidimensionale di atomi di carbonio, uniti assieme a formare una struttura molto simile alle cellette esagonali di un alveare. Se immaginiamo di sovrapporre moltissimi reticoli di grafene, possiamo visualizzare la struttura tridimensionale della grafite. Sebbene già dalla prima metà del XX secolo alcuni scienziati avessero teorizzato l’esistenza del grafene come sostanza isolabile dalla grafite, solo più recentemente, nel 2004, gli scienziati Geim e Novoselov hanno avuto successo nell’impresa. A questa scoperta è stato assegnato il premio Nobel nel 2010 e da essa è scaturita una vasta produzione scientifica.

Le sue potenzialità sono ampiamente riconosciute: lo testimoniano anche eventi come la 17esima edizione della “Graphene Week. Dal 5 al 9 settembre 2022, la città di Monaco ha ospitato questa conferenza parte del “Graphene Flagship”, un progetto fondato nel 2013 dalla Commissione Europea (e finanziato con 1 miliardo di euro dall’UE) che ha l’obiettivo di sostenere la ricerca sul grafene e di trasferirne i risultati al mondo industriale. Ma cosa si può fare con il grafene?

Leggendo l’ultimo report prodotto dal “Graphene Flagship”, ci si può accorgere di come la ricerca sul grafene coinvolga la bioingegneria, la generazione e lo stoccaggio dell’energia, l’elettronica, la sintesi di materiali compositi e molti altri ambiti. L’ostacolo più importante, che emerge in quasi ogni campo coperto dal progetto, è il livello di maturità tecnologica. Per misurarlo è possibile fare affidamento su una scala numerica che permette di comprendere se una tecnologia è realmente pronta e affidabile, soprattutto in un’ottica di mercato. Il livello massimo della scala, 9, è assegnato ad una tecnologia per cui sia stata prodotta una “dimostrazione completa del sistema in un ambiente operativo reale”. Secondo quest’ultimo report, con poche eccezioni, la maggior parte delle applicazioni si colloca tra il livello 3 e il livello 6: ciò significa che, come è riportato dagli stessi autori del report, gli sforzi e i finanziamenti dei prossimi anni dovranno essere dedicati alla maturazione completa delle tecnologie che si sono rivelate valide a livello industriale, affinchè possano avere un impatto effettivo sul mercato. Tra gli altri fattori che sono di ostacolo a questo ulteriore sviluppo ci sono anche il costo dei processi che permettono di ottenere un prodotto di alta qualità e la loro diffusione su larga scala.

Come si può usare il grafene per raggiungere uno sviluppo sostenibile?

Le applicazioni del grafene, quando raggiungeranno la maturità tecnologica, potranno essere d’aiuto nel raggiungimento di alcuni degli obiettivi di sviluppo sostenibile descritti dalle Nazioni Unite: in particolare, potrebbero essere utili per garantire l’accesso all’acqua potabile e la generazione di energia da fonti sostenibili. Il grafene è il materiale più sottile, leggero e resistente scoperto fino ad ora: può essere per esempio usato, assieme ad altri materiali, per costruire delle membrane che siano utili per purificare e rendere potabile l’acqua. Grazie alla sovrapposizione di diversi strati di ossido di grafene (materiale simile a quello sopra descritto, ma con in più degli atomi di ossigeno nella sua struttura), oppure grazie al design di membrane di grafene con dei piccolissimi pori nella loro struttura (chiamati nanopori), si potrebbero creare dei sistemi più efficaci di quelli esistenti sul mercato. Un ulteriore vantaggio di queste membrane potrebbe essere quello di rendere meno dispendioso a livello energetico, e quindi a livello economico, i processi di desalinizzazione dell’acqua.

Il grafene è anche un eccellente conduttore elettrico e, per questo, può essere utilizzato nell’ambito dell’elettronica e dell’energia: come si legge dal report, può essere applicato al design di semiconduttori che integrino il grafene assieme al silicio, oppure essere usato per migliorare l’efficienza dei pannelli solari e delle batterie in cui è inserito. In particolare, lo sviluppo tecnologico futuro di queste ultime sarà indispensabile per riuscire a conservare l’energia proveniente da una fonte aleatoria (dato che non è sempre disponibile) come quella solare.

Tutte le applicazioni citate non hanno ancora raggiunto il massimo livello di maturità tecnologica: dato che le fasi della ricerca di base e della validazione della tecnologia in laboratorio sono già state superate, i progressi futuri dovranno puntare al raggiungimento della loro piena operatività e competitività sul mercato.

< Torna indietro
Ambiente, società e tecnologia

Non solo meteo: l’osservazione della Terra come strumento per le grandi sfide globali

L’osservazione della Terra non è una novità: sin dalla seconda metà del secolo scorso gli esseri umani hanno lanciato oggetti in orbita con successo. Perché quindi riportare l’attenzione su una tecnologia così consolidata? Possiamo distinguere almeno due principali motivi: da una parte, il progresso scientifico permette di avere apparecchiature sempre più piccole e di progettazione più rapida e l’avvento di tecnologie digitali sempre più avanzate consente oggi di studiare e sfruttare ancora meglio i dati che i satelliti artificiali raccolgono; dall’altra le urgenti sfide globali e gli obiettivi di sviluppo sostenibile possono essere meglio compresi e affrontati grazie all’osservazione della Terra dallo spazio.

I primi satelliti artificiali (e non solo)

Lo sviluppo dei satelliti artificiali non sarebbe stato possibile se non fosse stato preceduto da secoli di riflessioni teoriche e ricerca scientifica di base. Grazie ad esse e alla ricerca applicata si è arrivati nel 1957 al lancio in orbita del primo satellite artificiale (che fu anche il primo oggetto a trasmettere un segnale radio dallo spazio) lo Sputnik 1.  Questo ha rappresentato l’inizio di un’era di sperimentazioni sulle effettive possibilità di applicazione della tecnologia satellitare all’osservazione della Terra: Tiros-1, lanciato dalla NASA nell’aprile del 1960, è stato il primo di una serie di satelliti, legati all’omonimo programma, che hanno permesso per la prima volta di elaborare dati raccolti dallo spazio per ottenere previsioni del meteo corrette. Le tecnologie utili a questo scopo non si fermano ai satelliti: le informazioni raccolte dai droni, dalle stazioni di monitoraggio a terra e tramite tecniche di campionamento con sensori in situ (strumenti di rivelazione situati in prossimità del luogo di osservazione) sono integrate ai dati raccolti dallo spazio per ottenere una visione quanto più globale e accurata possibile dell’oggetto di studio.

Perché osservare la Terra oggi?

L’osservazione della Terra è fondamentale per monitorare molti altri parametri di rilevanza ambientale, sociale ed economica e per questo è ritenuta importante anche per raggiungere gli SDGs. I progetti ispirati dall’Agenda 2030 sono diversificati e numerosi: molti di essi sono volti al monitoraggio costante, all’interpretazione e alla previsione dei cambiamenti degli ecosistemi e mirano alla produzione di informazioni utili per il lavoro dei decisori politici. Un esempio è il progetto “Ocean Color Climate Change” di ESA (Agenzia Spaziale Europea): si basa sull’osservazione sperimentale del cambiamento di colore subito dagli oceani e sulla sua correlazione con la variazione della concentrazione della clorofilla nell’acqua, che a sua volta varia a causa dei cambiamenti nelle popolazioni di fitoplancton. Quest’ultimo è di vitale importanza per l’ecosistema marino, ma una sua crescita anomala o una sua drastica diminuzione danneggiano le altre specie: per questo si monitora attraverso i satelliti la variazione delle onde elettromagnetiche riflesse dalla superficie oceanica e si elaborano modelli che permettano di prevedere scenari futuri. Esistono moltissimi altri esempi di applicazione dell’osservazione tramite satelliti artificiali, integrata con misurazioni a terra o indagini statistiche locali, legati agli SDGs: è possibile misurare la concentrazione di inquinanti atmosferici, raccogliere di informazioni sulle zone del mondo in cui l’accesso a fonti di energia sicure ed affidabili non è garantito, prevedere i possibili disastri naturali ed elaborare strategie di prevenzione dei danni più gravi, in un’ottica di adattamento agli effetti del cambiamento climatico attuali e inevitabili. Anche per questo la previsione del meteo, una delle prime applicazioni della tecnologia satellitare, rimane indispensabile.

L’elaborazione dei dati satellitari

Lo sviluppo di tecnologie di intelligenza artificiale e machine learning ha permesso di rivoluzionare il mondo dell’osservazione delle Terra, consentendo l’elaborazione di un numero elevatissimo di dati in informazioni fruibili. Se prima i dati satellitari potevano essere interpretati solo dall’essere umano, oggi è possibile non solo decifrare i dati ed elaborare informazioni in tempi più brevi (sempre nel limite consentito dalle leggi fisiche) ma anche avere un’accuratezza migliore garantendo modelli di previsione più precisi.

Il numero maggiore di informazioni a disposizione e la necessità di agire su più fronti per rispondere ai problemi nel nostro secolo apre il mondo spaziale dell’osservazione terrestre a nuovi player. Sono infatti diversi i progetti attivi che raccolgono dati ed elaborano informazioni mettendoli a disposizione di tutti in modo da incentivare anche iniziative private. Tra questi, il programma di osservazione satellitare dell’Unione Europea Copernicus mette a disposizione dei suoi utenti i dati raccolti da una famiglia di satelliti dedicati e da sensori in situ. In questo modo possono nascere progetti come quello di Forestry Analyzer, che si prefigge l’obiettivo di elaborare algoritmi per il monitoraggio e la previsione dei pattern di deforestazione attraverso strumenti di intelligenza artificiale. Un’altra possibilità fornita dalle rilevazioni dei satelliti artificiali e con l’ausilio delle tecnologie di intelligenza artificiale è lo sviluppo di progetti nel settore dell’agricoltura. Con l’aumentare della temperatura sul Pianeta e con la sempre più scarsa disponibilità di acqua dolce è fondamentale mettere in atto misure per ottimizzare la quantità di acqua usata per le coltivazioni: attraverso la rivelazione da parte dei satelliti della radiazione infrarossa emessa delle piante e la sua successiva elaborazione è possibile ricavare informazioni sullo stato di stress idrico e fornire acqua nel momento più necessario.

Secondo le previsioni di Citigroup nel documento The Dawn of a New Age il valore del mercato della space economy è destinato a crescere: entro il 2040 potrebbe valere mille miliardi di dollari con un drastico calo dei costi di lancio fino a 30$/kg di carico. Sebbene le tecnologie sviluppate allo scopo di osservare la Terra siano nate molti decenni fa, non smettono di essere migliorate grazie alla ricerca scientifica e continuano a essere una risorsa importante per rispondere alle sfide contemporanee, fornendo grandi opportunità in un mercato ancora per la maggior parte inesplorato.

< Torna indietro
Ambiente, società e tecnologia

Dalla ricerca di base al trasferimento tecnologico: intervista a Fabrizio Tubertini

Siamo circondati dall’innovazione digitale: abbiamo potuto constatarlo ancora una volta al Web Marketing Festival, che si è tenuto dal 16 al 18 giugno presso la fiera di Rimini. Nonostante le spinte innovative non manchino, sorgono alcuni problemi: cosa succede se queste nuove soluzioni tecnologiche non vengono recepite dall’intero mondo dell’impresa? Cosa accade se all’interno di un paese come l’Italia manca la consapevolezza del ruolo che la ricerca di base dovrebbe avere?

Abbiamo posto queste ed altre domande sul tema del trasferimento tecnologico a Fabrizio Tubertini, professionista Head of Industrial Liaison dell’Istituto Italiano di Tecnologia (IIT).

 

Per iniziare, che cosa significa trasferimento tecnologico e come viene declinato dall’IIT?

Il trasferimento tecnologico è la traslazione dell’attività di ricerca, con diverse applicazioni, verso il mondo dell’industria. L’Istituto Italiano di Tecnologia ha due missioni istituzionali la ricerca di base e appunto il trasferimento tecnologico. Questo fa sì che noi siamo molto focalizzati sul trasferimento tecnologico: i nostri ricercatori riconoscono come punto fondamentale che la loro ricerca dovrebbe essere applicabile all’industria, pur mantenendo uno sguardo di lungo periodo e generando innovazione non sempre immediata.

 

Durante gli interventi del festival è emerso come la digitalizzazione debba diventare trasversale a tutte le scienze: a volte immaginiamo scienziati alle prese con provette e intenti a mescolare sostanze manualmente, ma sono stati fatti esempi che mostrano come le nuove metodologie stiano diventando fondamentali anche nelle discipline non prettamente informatiche o ingegneristiche. Che ruolo ha quindi la digitalizzazione?

Ci sono due livelli di cui si può discutere: il concetto di digitalizzazione più diffuso e legato al senso comune si traduce in una semplificazione dello scambio di informazioni a livello nazionale e internazionale tra laboratori diversi. Le collaborazioni scientifiche hanno sicuramente beneficiato di questo scambio di informazioni, ma la vera differenza nella digitalizzazione sarà poter disporre di un “motore” di intelligenza artificiale comune a tutte le discipline. Anche un chimico – ad esempio – oggi ha la possibilità, attraverso l’AI, di testare sinteticamente, tramite simulazioni, determinate reazioni di interesse; grazie alla capacità di calcolo che stiamo acquisendo possiamo arrivare a fare prove sperimentali o test clinici, in vitro o addirittura su animali o sull’essere umano, su un numero di campioni già selezionato, in maniera più efficiente e meno costosa. In realtà tutte le discipline oggi stanno traendo vantaggio dalle innovazioni emergenti nell’ambito del machine learning e i prossimi anni continueranno ad essere fortemente caratterizzati da questa attività.

 

Se da una parte le startup sono intrinsecamente propense a ricercare nuove soluzioni tecnologiche, come si può far arrivare l’innovazione alle piccole e medie imprese?

Questo è un argomento che meriterebbe un’enciclopedia di approfondimento! Se da una parte ci sono vari tipi e sfumature di innovazione, tra cui la ricerca e l’innovazione in azienda, la difficoltà normalmente è di natura economica. In Italia le aziende, che tendono a essere piccole e medie imprese, vedono le sfide tecnologiche dell’innovazione come investimenti di incerto ritorno. Questo le frena: quando poi incontrano l’innovazione giusta ci si pone il problema di portarle su mercati che sono sempre più globali, dove non basta essere più forte del competitor che sta dall’altra parte della strada o del paese, dato che ci si scontra subito con i colossi internazionali. Nel nostro lavoro, naturalmente, ci relazioniamo con ogni tipo di azienda e cerchiamo di cogliere tutte le occasioni, fornite da fondi pubblici sia domestici che UE a disposizione delle aziende, per agevolare la traslazione della ricerca verso l’industria.

A livello nazionale si potrebbe provare a rilanciare il tema dei distretti industriali, dato che in Italia ne esistono ancora più di 150 attivi: sono aree territoriali specializzate in determinate produzioni, che potrebbero essere già veicolo di innovazione verticale se si aggregassero nell’accesso all’innovazione, sostenendone i costi frazionati su molti soggetti e con un beneficio a favore di tutti gli attori coinvolti. Questo è un tema che non possiamo risolvere noi come come singoli promotori dell’innovazione, ma che riteniamo potrebbe essere un agente catalizzante per il processo

 

Quanto è diffusa la consapevolezza che la ricerca di base possa portare benefici anche economici alle imprese?

La consapevolezza purtroppo non è così diffusa, ma abbiamo dati importanti di una diretta correlazione tra quanto uno stato investe in innovazione ed il ritorno in termini economici e di impatto sociale. Come accennavamo durante l’intervento sul PNRR (il “Piano Nazionale Ripresa e Resilienza”) e sul Tech Transfer, anche il numero di dottorati che vengono completati in un determinato Paese è sintomo di quanto quella nazione investa in innovazione: il dottorato è un percorso di ricerca, ma – altresì – un modo, nel medio periodo, per portare conoscenza in azienda. Incentivare la ricerca dà un ritorno, solitamente di medio o lungo termine: le politiche di investimento nell’innovazione hanno bisogno di tempi adeguati per portare frutti ed il PNRR è un’occasione importante, per il nostro Paese e per l’Europa, di dare un forte impulso alla ricerca ed alla traslazione verso l’industria rilanciando la nostra competitività internazionale.

 

Quali altri elementi mancano per raggiungere l’obiettivo in Italia?

La formazione delle giovani leve del Paese è una delle chiavi di volta di lungo periodo: siamo già, per alcuni aspetti, in deficit di risorse umane specializzate per colmare la domanda crescente di profili con formazione STEM. Se pensiamo ai bambini e alle bambine delle elementari di oggi per prepararli efficacemente alle professioni del futuro dovremmo mettere inconto di insegnare inglese più metodicamente ed inserire materie come il coding: così facendo probabilmente, tra 15 anni avremmo persone neodiplomate con una formazione di base che include già degli argomenti che saranno basilari per i lavori di domani che oggi possiamo solo immaginare. Altro tema fondamentale è quello dell’educazione continua: oggi non si può più immaginare di svolgere una qualsiasi attività professionale senza che questa muti sensibilmente nel tempo – grazie all’impatto positivo delle nuove tecnologie ad esempio – senza mai aggiornarsi o, addirittura, reinventarsi, al contrario di quanto è stato per le generazioni che ci hanno preceduto. Il mondo non ci permetterà più di rimanere ancorati a dei cliché così rigidi e dovremo tutti evolverci in continuazione, con il beneficio che ci allontaneremo sempre di più dai lavori usuranti, pericolosi e noiosi, perché quei lavori saranno svolti, per noi o sotto il nostro controllo, da robot o macchine.

 

A proposito di questo, un altro tema che genera dibattito e talvolta preoccupazione è l’automazione del lavoro: ma è un timore fondato?

Mi permetto di dire che la generazione z vivrà un periodo, presumibilmente, di abbondanza di offerta lavorativa. La vera sfida sarà quanto saremo veloci tutti a convertirci sulle nuove esigenze ed eventualmente “reskillarci” e riposizionarci. Sarà possibile che vivremo anche un momento di “gap” tra le esigenze della domanda e quella dell’offerta di risorse specializzate, un tema che si sta già affacciando per affrontare le sfide del PNRR.

In conclusione, la pianificazione di lungo periodo sarà un elemento determinante per sfruttare al meglio tutte le risorse che verranno messe a disposizione del nostro Paese.