< Torna indietro
Ambiente, società e tecnologia

Natworking: come si può lavorare dai piccoli borghi italiani

“Poca voglia di ritornare al lavoro, a guardare il muro con il rumore del traffico in sottofondo?”

“Lavorare al Nord restando al Sud: in Randstad spazio alle candidature per il South Working.”

“La natura fa bene anche al lavoro. In Finlandia lo smart working ora si fa nei boschi.”

 

Ci si imbatte sempre più spesso, oggi, quando si leggono notizie riguardanti il mondo del lavoro, in titoli o post come quelli riportati sopra. Parliamo di nuove tipologie lavorative, che meglio si adattano con il worklife balance, “l’equilibrio tra la vita privata e lavoro per far convivere in maniera pacifica la sfera professionale e quella privata”, ormai centrale nelle scelte organizzative aziendali e nelle politiche di sviluppo territoriale: enti pubblici e privati, infatti, anche a seguito della pandemia da Covid 19, considerano la flessibilità lavorativa e il lavoro da remoto un’opportunità di rigenerazione per paesi e comunità delle aree extra urbane italiane, condizionati da decenni di abbandono e spopolamento abitativo.

 

È il caso del progetto Natworking, associazione di promozione sociale nata nel novembre del 2019 e formata da un gruppo di giovani rigeneratori urbani, che si pone l’obiettivo di contribuire allo sviluppo locale e al turismo lento, sfruttando i cambiamenti nel mondo del lavoro. Il gruppo offre servizi di progettazione alle piccole comunità come il recupero e il riutilizzo di immobili abbandonati o sottoutilizzati da convertire in spazi di coworking e la progettazione e comunicazione di attività legate al turismo esperienziale. Il progetto, vincitore della call for ideas Mind Club 2020, vede già coinvolti diversi piccoli borghi in Piemonte, Liguria e Valle d’Aosta che, offrendo servizi di pernottamento e/o il noleggio di una scrivania singola o in condivisione, accolgono chiunque voglia lavorare o studiare immerso nella natura e lontano dal caos cittadino, con la possibilità durante le pause lavorative di partecipare ad attività culturali e sociali: escursioni di trekking o bike touring, laboratori esperienziali artigianali ed enogastronomici e visite guidate alla scoperta delle ricchezze paesaggistiche e storiche del territorio.

Il progetto Natworking, tuttavia, non rappresenta un caso isolato nel contesto nazionale. Simile nelle modalità e negli obiettivi è la piattaforma di business travel EveryWhere Tew che vuole favorire l’incontro tra luoghi inesplorati e viaggiatori-nomadi digitali, offrendo ai territori le condizioni necessarie per il lavoro in smart working. Un’iniziativa analoga, che lega anch’essa il mercato del lavoro al turismo e alla valorizzazione territoriale, è South Working, che intende “colmare il divario economico, sociale e territoriale tra Nord e Sud Italia” creando condizioni favorevoli affinché dipendenti e lavoratori delle imprese settentrionali possano vivere e lavorare al Sud o nei territori marginalizzati della penisola. Non mancano, infine, movimenti individuali come quello di Davide Fiz, lavoratore free-lance ideatore del progetto Smart Walking, che da marzo a ottobre 2022 ha percorso 20 cammini italiani, spostandosi la mattina e lavorando nel pomeriggio da posti sempre diversi, comunicando la propria esperienza sui social con l’obiettivo di sensibilizzare al remote working alla mentalità smart come fattore importante sia per un corretto work life balance che per la riscoperta di borghi e cammini attraverso il turismo lento e fuori dai circuiti mainstream.

Grazie a iniziative come queste, dunque, può essere incentivata l’accoglienza da parte dei piccoli borghi delle aree interne, offrendo una possibilità a chiunque voglia lavorare o studiare a contatto con la natura, di realizzare il proprio desiderio e di vivere un’esperienza sociale e culturale alla scoperta delle bellezze del nostro Paese.

< Torna indietro
Ambiente, società e tecnologia

Teli geotessili possono davvero essere la soluzione alla fusione dei ghiacciai?

I teli geotessili sono tessuti prodotti da un intreccio di fibre in materiale polimerico principalmente polipropilene e poliestere, tipicamente usati in applicazioni di edilizia o nel campo dell’ingegneria civile per le proprietà di drenaggio, filtrazione e controllo dell’erosione dei suoli. Recentemente se ne sente parlare in relazione al loro impiego nella copertura dei ghiacciai per ridurne lo scioglimento, uno degli effetti causati dell’aumento delle temperature dovuti all’emergenza climatica.

Sono una soluzione alla fusione dei ghiacciai?

L’utilizzo di teli geotessili di colore bianco sui ghiacciai riesce a garantire una maggiore riflessione della luce solare e andrebbe a ridurre quasi del 60% la fusione del ghiacciaio. L’azione di copertura e il rallentamento del fenomeno da un lato aiuta a garantire l’esistenza di piste da sci e dall’altro risparmiare su piani di innevamento durante la stagione invernale e quindi in modo diretto sostiene le attività turistiche favorendo lo sviluppo delle comunità locali. Quindi sono un’ottima soluzione? Dal punto di vista fisico riducono il fenomeno ma per quanto lodevole, l’intento di coprire i ghiacciai con teli plastici ha diversi limiti di natura logistica, economica e ancor di più ambientale ed ecologica. Questi teli hanno un costo in termini di CO2 che deriva dalla loro produzione e anche dalla loro gestione legata agli spostamenti per installarli e smantellarli. Si stimano quasi 40 giorni per il posizionamento e altrettanti per la rimozione. Inoltre, nella maggior parte dei casi riciclarli ne abbassa l’efficacia contro lo scioglimento e una volta a fine vita risulta difficile sottoporli a processi di riciclo o riutilizzo.

Le condizioni atmosferiche degradano le fibre, l’azione del sole, del vento e delle temperature degradano i teli frantumandoli e lasciando un paesaggio non piacevole alla vista oltre che, minaccia più importante aumentare l’introduzione in ambiente di micro e nano plastiche che si aggiungono a quelle migliaia già trovate e analizzate dai glaciologi. Il costo aumenta ulteriormente se si dovesse considerare la possibilità di applicare questa soluzione a tutti i ghiacciai che sono in situazioni critiche. Oltretutto ci sono problematiche logistiche legate al fatto che non risulterebbe possibile come soluzione in tutti quei luoghi impervi in cui non è agibile arrivare con mezzi operativi ingombranti tipicamente coinvolti come il gatto delle nevi. Inoltre, è bene considerare il problema ecologico che questa pratica comporta su un ecosistema, quello montano molto fragile e in continuo e veloce cambiamento. La superficie di un ghiacciaio e così il suo ambiente intorno non è inerte e sterile ma vivo e dinamico. È riportato dalla letteratura che i cambiamenti climatici stanno agendo su uno spostamento sempre più a nord di specie animali e vegetali e la copertura con teli di plastica non può che isolare le comunità biologiche presenti e limitarne i processi. La conseguenza è quella di impoverire e rendere i ghiacciai cubi asettici, separati dal loro contesto ambientale.

Pensare che risolvere il problema delle importanti perdite di ghiaccio, del continuo e inarrestabile ritiro dei più grandi ghiacciai dell’arco Alpino con teli non può essere una soluzione e una soluzione definita sostenibile come affermato dalla comunità scientifica. Con una lettera 39 scienziate e scienziati esperti di ghiacciai e clima hanno fatto un appello, supportati da diversi enti italiani facenti parte del World Glacier Monitoring Service, per far riflettere sull’ambiguità di nascenti start-up e iniziative di raccolte finanziarie emerse negli ultimi mesi, che hanno come attività principale la copertura di ghiacciai con teli geotessili.

Il caso del ghiacciaio del Presena: l’iniziativa di Glac-UP

Un primo esempio di applicazione di teli geotessili sui ghiacciai è stato a sud del passo del Tonale in val Presena. Il ghiacciaio del Presena fa parte del gruppo dei Ghiacciai della Presenella nella regione del Trentino-Alto Adige e porta con sé una grande storia umana e climatologica. Ad oggi è uno dei luoghi di ritrovo degli appassionati di sci e il suo sfruttamento per realizzazione di impianti sciistici è iniziato negli anni Sessanta del Novecento. Dal 2007 a seguito di diversi monitoraggi emerse che il ritmo di fusione sarebbe notevolmente accelerato con conseguenze sulla stabilità del ghiacciaio oltre che per le attività sciistiche. Per questo, la società Carosello Presena S.p.a con il supporto dell’Università di Trento e aziende come Glac-UP ha iniziato le attività di copertura del ghiacciaio con lunghe strisce di teli geotessili. L’azienda Glac-UP nasce da un gruppo di quattro ragazzi della Bocconi con l’intento di proporre una soluzione al problema del veloce ritiro dei ghiacciai partendo proprio con un progetto pilota nella Val Presena. L’obiettivo è quello di sostenere e finanziare l’acquisto dei teli e la copertura del ghiacciaio del Presena partendo da una superficie di 1000 metri quadri ed espandersi a 120.000metri quadri attraverso una raccolta fondi proponendo l’adozione(un acquisto online su sito web dell’azienda) di parti del ghiacciaio. L’azienda si rivolge a privati ed enti pubblici mostrando l’intervento come finalizzato al contrasto al cambiamento climatico per la salvaguardia dei ghiacciai e delle nostre montagne coinvolgendo i cittadini e i più sensibili al tema. Ma oggi la comunità scientifica rimane in netto contrasto con la comunicazione ambigua di queste iniziative che sembrano orientate solo a sostenere attività economiche in quanto a livello scientifico non sono definite come strategie di adattamento e mitigazione per i cambiamenti climatici.

< Torna indietro
Ambiente, società e tecnologia

Cheesecake meccanica: la rivoluzione 3d in cucina

Fonte immagine: http://www.jonathanblutinger.com/

Immaginate di arrivare a casa, stanchi dal lavoro e soprattutto affamati. Sentite un buon profumo provenire dalla cucina. Non avete un compagno o una compagna ma avete un sistema che automaticamente stampa per voi del cibo, con i giusti valori nutrizionali e contenente tutti i micro e macronutrienti di cui avete bisogno, magari anche con un bellissimo impiattamento degno di uno chef stellato. Avete letto bene: “stampa”, perché si, esistono le stampanti 3D per il cibo e potrebbero in un futuro rivoluzionare il modo in cui pensiamo alla cucina.

Il 3DFP (3D food printing o stampa alimentare in 3 dimensioni) è un metodo che consente di creare un prodotto alimentare tridimensionale mediante la sovrapposizione di strati sulla base di un progetto generato al computer. Funziona esattamente, almeno per ora, come una stampante 3D: abbiamo bisogno di uno strumento che stampa e di un progetto 3D fatto con dei software specifici, ad esempio con autoCAD.

In termini di principio non cambia nulla rispetto ad una stampante 3D classica, ma stampare del cibo porta con sé delle difficoltà non indifferenti, che rendono la tecnologia esistente (sia hardware che software) non esattamente adatta e adattabile agli alimenti. I cibi, infatti, hanno proprietà estremamente diverse dalla plastica: presentano densità particolari, sono sensibili al calore, possono essere formati da più componenti (magari solidi e liquidi), possono avere una fluidità differente a seconda del contenuto di acqua. A differenza della plastica, che se scaldata fluisce ma se raffreddata sotto una specifica temperatura rimane immobile, solo alcuni alimenti come il cioccolato riescono a resistere alla gravità in modo controllabile e utile per quello che si vuole fare. Gli altri non possono essere raffreddati o riscaldati a piacimento, meno la perdita di consistenza, tanto importante quanto il gusto. Inoltre, per far sì che questa tecnologia riesca ad affermarsi, cuochi e amatori devono essere in grado di scaricare da dei database ricette e design (i cosiddetti “blueprint”) già fatti, e non passare delle ore o dei giorni a progettarle.

Essendo però una tecnologia nuova abbiamo davanti una quantità indescrivibile di possibilità. Come già accennato prima potremmo voler controllare la quantità di micro e macronutrienti all’interno del cibo, perché magari stiamo facendo una dieta o perché abbiamo la glicemia alta. In America la si vuole utilizzare per produrre delle barrette da dare ai soldati con contenuto di caffeina o grassi o altri specifici ingredienti per ogni situazione. Rimanendo però su un piano domestico, a scopi pacifici si potrebbe impiegare per presentare dei piatti molto elaborati con design impossibili da replicare a mano. Tutto il potenziale però si potrà esprimere quando si riuscirà ad avere un sistema che può 1) stampare più ingredienti 2) cucinare in linea (e quindi mentre stampa) 3) controllare e personalizzare il design del pasto, in tutte le sue declinazioni. È qui che entra in gioco l’esperimento di Hod Lipson e i suoi collaboratori. La prima cosa che sono stati in grado di fare è stato costruire una stampante 3D che potesse stampare e gestire fino a sette ingredienti. L’altra cosa è stata quella di montare due tipi di laser nel loro strumento, in modo tale da cucinare più in profondità o più in superficie, ma contemporaneamente allo stampaggio. Secondo il loro preprint[1], grazie a questo macchinario sono riusciti per la prima volta a stampare una cheesecake formata da sette strati diversi.

 

Figura 1 Cheesecake formata da sette ingredienti. a: cheesecake cotta, b: sezione della cheesecake, c: design computerizzato della cheesecake, d: sezione della cheesecake, che mostra l’ingrediente di ogni strato. Abbiamo: 1- pasta di cracker, 2- burro di arachidi, 3- gelatina, 4- nutella, 5- crema di banana, 6- glassa, 7- marmellata alla ciliegia. Per approfondire: https://www.researchsquare.com/article/rs-424078/v1

 

Ma ecco che entrano in gioco delle sfide ingegneristiche non indifferenti. Chi, almeno per una volta, ha fatto o ha visto fare una torta o una pizza, sa che si devono necessariamente considerare due tipi di elementi:

  • quelli strutturali, ovvero quelli che tengono in piedi la struttura senza farla crollare. Una torta se messa nel piatto non si deforma, ma ha una certa resistenza meccanica;
  • il condimento. Questo può essere fatto di liquidi, gelatine, solidi o creme, ma che comunque non hanno alcun ruolo strutturale: sono lì per arricchire il piatto e dargli un gusto e una consistenza diversa e particolare.

Nonostante questo sia per certi versi ovvio, è stato necessario reiterare il processo ben sette volte prima di riuscire a stampare una fetta di torta stabile.

Gli ingredienti utilizzati sono stati:

  • pasta di cracker, come materiale strutturale;
  • burro di arachidi;
  • gelatina;
  • Nutella;
  • crema di banana;
  • glassa;
  • marmellata alla ciliegia.

Inizialmente le prove del gruppo di ricerca si sono concentrate sul simulare il più possibile una torta reale, costruendo la torta con il 33% del totale fatto di pasta di cracker, il 16% con creme mentre il resto tra il 4 e l’1%. Come detto prima, le gelatine e le creme non hanno proprietà strutturali. Alla fine, la quantità necessaria di pasta di cracker per tenere in piedi la struttura si aggira intorno al 70%.

Nonostante questa cheesecake possa sembrare disgustosa ai più, è comunque una pietra miliare della nuova era della cucina. Chissà cosa ci aspetterà in futuro, se mai questa tecnologia entrerà nelle nostre case come è stato per il microonde.

 

[1] Un preprint è un articolo scientifico che non ha ancora ricevuto una peer-review (una revisione tra pari) fondamentale per essere pubblicato in riviste scientificamente rilevanti. Per questo da questo documento sono state prese solo le informazioni necessarie per capire il procedimento, gli strumenti utilizzati e le sfide affrontate per fare la cheesecake.

< Torna indietro
Ambiente, società e tecnologia

Tutte le innovazioni della Football Industry viste nel Mondiale in Qatar

Il 20 novembre 2022, con il fischio d’avvio dato dall’arbitro italiano Daniele Orsato al match Qatar – Ecuador, è cominciato il Mondiale di calcio più discusso e criticato della storia, l’edizione 2022 che si sta giocando nell’emirato.

Oltre alle critiche di stampo etico e sociale, quello in Qatar è considerato il Mondiale più high-tech di sempre: questo per l’introduzione di nuove tecnologie all’interno degli stadi e soprattutto all’interno del campo da gioco.

Negli ultimi anni la FIFA ha introdotto una serie di nuove tecnologie che stanno rivoluzionando il mondo del calcio. Uno dei precedenti più eclatanti è stato l’introduzione della VAR (Virtual Assistant Referee): una moviola in campo a disposizione della terna arbitrale che fornisce un grande aiuto nelle decisioni di gara.

 

Nel Mondiale stiamo assistendo ad un’altra grande novità che ha come scopo un ulteriore riduzione degli errori arbitrali su una particolare azione di gioco, il  fuorigioco (un calciatore è in posizione di fuorigioco quando una qualsiasi parte del suo corpo si trova nella metà avversaria del terreno di gioco ed è più vicina alla linea di porta avversaria sia rispetto al pallone sia rispetto al penultimo giocatore difendente avversario). Il sistema ideato è chiamato Semi Fuorigioco: si tratta di una vera e propria rivoluzione, perché per la prima volta nella storia un’ Intelligenza Artificiale (o AI, in inglese artificial intelligence) ha un ruolo decisionale sulle sorti della partita, dato che il sistema è in grado di rilevare e valutare la potenziale infrazione. Ma come funziona tutto questo?

Di base l’AI è caratterizzata dalla comunicazione tra due sottosistemi: il pallone, chiamato Al Rihla, e dodici telecamere di localizzazione.

L’Al Rihla presenta al suo interno un sensore in grado di raccogliere molti dati sui movimenti e oscillazioni del pallone, circa 500 informazioni al secondo, come ad esempio lo spin rate (velocità di rotazione), la velocità istantanea e può anche misurare la forza con cui viene impattata la palla.

Tutti i dati vengono poi inviati via wireless ad un’applicazione che li memorizza.

Uno degli effetti causati dal sensore è stato l’annullamento del gol al giocatore portoghese Cristiano Ronaldo. Questo è stato fatto perché il sensore non aveva registrato alcun impatto con il calciatore ex-Manchester United e quindi il gol, comunque convalidato, è stato assegnato al compagno di squadra autore del cross.

L’altro sottosistema è costituito da dodici telecamere di localizzazione, posizionate in modo da visualizzare tutto il campo da gioco, registrando tutti i movimenti dei giocatori con una frequenza di 50 volte al secondo.

 

L’insieme dei dati raccolti dalle telecamere e dall’Al Rihla vengono utilizzati da un programma nella creazione di un modello virtuale d’azione. L’azione di gara, a partire dal momento del passaggio, viene ricreata in formato digitale e grazie a delle linee tracciate in automatico viene valutata la posizione di fuorigioco. L’unico problema del fuorigioco semi-automatico è che non è in grado di valutare se il fuorigioco è diretto o indiretto, cioè se il passaggio è intenzionale (diretto) o se è il risultato di una serie di deviazioni dell’avversario. Il problema è significativo perché nel primo caso il fuorigioco viene sanzionato, mentre nel secondo no. Questo spiega il perché l’arbitro ha ancora l’ultima parola su tutto e il motivo per cui il sistema è chiamato Semi Fuorigioco.

La scelta di introdurre la tecnologia è dovuta al fatto che con l’utilizzo della VAR il tempo perso era troppo elevato: per prendere una decisione poteva volerci anche più di un minuto. Con il Semi Fuorigioco i tempi si sono ridotti: entro 20 secondi dal momento in cui avviene l’azione la valutazione viene fatta.

 

Fonte: https://techprincess.it/fuorigioco-semi-automatico-mondiali-qatar/

 

Non solo campo, però. Molte altre nuove tecnologie hanno cambiato l’esperienza degli spettatori, impattando sull’architettura e sul design degli stadi. Gli impianti realizzati in Qatar sono infatti fra i più all’avanguardia del mondo. Tra le novità più rilevanti trovano spazio il tanto criticato sistema di raffreddamento automatico e il Bonocle.

Per quanto riguarda i sistemi di raffreddamento sono assolutamente necessari: in quella zona dell’Asia minore la temperatura media percepita in inverno è infatti di circa 30°gradi Celsius. Chiaramente giocare in queste condizioni non è fattibile per nessun essere umano, così Tamim Bin Hamad Aj Than, l’emiro del paese, ha affidato la risoluzione del problema all’ingegnere qatariota Saud Abdul Ghani. Quest’ultimo ha progettato un sistema complesso, che rileva le temperature all’interno e all’esterno dello stadio tramite dei sensori e poi attraverso gas freddi riesce a creare una bolla d’aria all’interno della costruzione. La bolla di aria fredda respinge quella calda proveniente dall’esterno e questo permette di ridurre di molto il caldo; è stato sperimentato che con una temperatura esterna di 40° gradi circa, all’interno se ne registrano appena 23°.

Oltre al clima, negli stadi del Mondiale è stato approntato un sistema utile anche per supportare gli spettatori con disabilità. Bonocle è una start-up qatariota che ha sviluppato un dispositivo, il Braille Entertainment Platform (o BEP), ideato per permettere alle persone non vedenti di assistere alle partite. Il BEP è stato progettato in modo tale da simulare una linea di Braille infinita. Il tutto avviene attraverso un layer, dove sono presenti degli spuntoni che alzandosi e abbassandosi modificano la superficie dove l’ipovedente può leggere attraverso il Braille, parole o intere frasi lettera per lettera. Il BEP si connette in wireless ad un’applicazione fornita all’acquisto del dispositivo, che si connette all’ente di trasmissione della partita e così vengono riportate le parole del telecronista. Inoltre il Braille Entertainment Platform può essere usato in molte altre attività come la lettura di un libro, il gaming (giocare ai videogiochi), lo studio e più in generale il lavoro.

Fonte:   https://at.mada.org.qa/technology/bonocle/

In conclusione è chiaro che questo Mondiale è considerato dalla football industry una rampa di lancio per le nuove tecnologie, con l’idea finale di utilizzarle in tutte le competizioni di rilievo.

L’evoluzione tecnologica di questo sport è però solo una piccola parte di ciò che possiamo osservare in Qatar, infatti i sistemi di raffreddamento sono inseriti nelle strutture degli otto nuovi stadi, ottenuti con lo sfruttamento di migliaia di lavoratori; che in seguito dovranno vedere uno di questi stadi essere completamente smontato e inviato in Uruguay, che è diventato di fatto il primo compratore di stadi “ricondizionati” di sempre. Gli stessi sistemi di raffreddamento sprecano quantità immense di acqua e sono per questo un oltraggio al pianeta. Inoltre fanno discutere le decisioni etiche prese dal paese nell’accogliere la competizione e le culture delle altre nazioni, ad esempio l’iniziale divieto nel bere alcolici (poi limitato nelle zone pubbliche) e il divieto per i capitani delle squadre di indossare la fascia con i colori dell’arcobaleno (da tempo i colori simbolo per la community LGBT).  Dunque sono molti i punti da approfondire e tutti diversi tra di loro, ma ognuno ha un comune denominatore: una decisione perlomeno discussa presa dalla FIFA.

< Torna indietro
Ambiente, società e tecnologia

Dal litio alla sabbia: un nuovo metodo per conservare l’energia

https://polarnightenergy.fi

Quando parliamo del riscaldamento globale siamo abituati a pensare secondo un’associazione quasi automatica alle energie rinnovabili e alle tecnologie che possano sostituire i combustili fossili.

Un buon proposito, indispensabile da perseguire, ma con un “ma”: le energie rinnovabili sono intermittenti e abbiamo bisogno di un modo per conservare quella in eccesso quando non serve.

Qual è la soluzione? Si potrebbe pensare alla cosa più ovvia: le batterie, e in particolare quelle al litio, essendo le più utilizzate.

Purtroppo, andremmo a risolvere un problema creandone uno di pari entità. Seppur non ci siano problemi di scarsità di litio, la sua estrazione è particolarmente inquinante. Inoltre, la richiesta delle batterie sta crescendo a dismisura sia in termini di prezzo che in termini di consumo. Secondo un report della Roland Berger , il costo del litio nel mercato cinese è aumentato del 743% in un solo anno ( gennaio 2021/2022) e secondo la Benchmark Minerals, la domanda nei prossimi anni sarà così grande che la sua estrazione non potrà tenere il passo della domanda.

Fonte immagine: https://www.rolandberger.com/en/

 

Fonte immagine: https://www.benchmarkminerals.com/wp-content/uploads/20200608-Vivas-Kumar-Carnegie-Mellon-Battery-Seminar-V1.pdf

 

Anche in questo caso, fortunatamente, la scienza è sempre un passo avanti. Sono tanti gli studi per ovviare a questo problema: quello che pare garantire più successo è l’impiego dei TES, ossia Thermal Energy Storage (accumulatori di energia termica).

Voi direte: “Non saranno mica dei termosifoni?” e per citare un famoso meme “Well yes, but actually no”

In effetti i TES lo sono, ma non lo sono: ora vi spieghiamo il perché.

Secondo gli scienziati Gang Li e Xuefei Zhengc, i Thermal Energy Storage sono sistemi che riescono a trattenere una grande quantità di calore al loro interno per diversi giorni/settimane/mesi, per poi rilasciarla quando necessario.

Il calore viene prodotto trasformando l’elettricità in eccesso delle fonti rinnovabili, che viene convertita in energia termica tramite ad esempio delle resistenze, o sfruttando dei processi chimici e accumulata da alcuni materiali.

Questi dispositivi possono successivamente riscaldare gli ambienti come case e uffici, o alimentare i forni ad alta temperatura usati in negli impianti produttivi.

Lo stesso principio può essere usato per raffreddare, usando l’elettricità delle fonti rinnovabili per abbassare la temperatura dei materiali invece che alzarla.

L’energia al loro interno può essere accumulata in tre modi diversi:

  • Sensible heat storage: si scalda/raffredda un liquido o un solido.
  • Latent heat storage: si sfrutta il cambiamento di fase di un materiale.
  • Thermo-chemical storage: si usano delle reazioni chimiche per trattenere o rilasciare calore.

Il metodo più adottato è il primo, e il funzionamento è abbastanza semplice: si prende un materiale (ad esempio acqua, o come vedremo anche sabbia), e lo si scalda usando delle resistenze: proprio come fa ad esempio un tostapane. Il materiale viene conservato in un contenitore molto isolato cosicché il calore non possa disperdersi.

Prendiamo quello che si sta facendo in Germania, dove si sta già costruendo un TES che potrà contenere 56 milioni di litri di acqua (l’equivalente di 350 mila vasche da bagno) da scaldare a 98 gradi e che svilupperà una potenza massima di 200MW, con un’energia massima rilasciata di 2600 MWh.

Non male, no?

Eppure, rimane un problema: l’acqua può essere scaldata al massimo a 100 gradi. È a questo punto che entra in gioco la sabbia. Un gruppo di ragazzi finlandesi, grazie alla loro start-up “Polar Night Energy”, hanno messo in pratica lo stesso principio che sta alla base dei TES ma usando la sabbia di scarto impiegata nelle costruzioni. Dopo aver costruito il primo prototipo funzionante che ha liberato un’energia di 3MWh, si sono concentrati sulla costruzione di una vera e propria “batteria” di sabbia, riuscendo ad ottenere fino ad 8MWh di energia.

Il vantaggio di questo materiale sta nella possibilità di accumulare molto più calore, e quindi avere una densità di energia molto più alta di quella dell’acqua. Le temperature che possono essere raggiunte si aggirano intorno ai 600 gradi (ma potenzialmente si potrebbe andare anche oltre): a parità di volumi quindi si potrebbe avere tre volte la stessa energia. I vantaggi però non si fermano qua: la struttura esterna del TES “a sabbia” è completamente in acciaio, e secondo gli ideatori potrebbe essere costruita in qualsiasi officina. Inoltre, la sabbia non è particolarmente raffinata o trattata e si potrebbero usare altri tipi di sabbie, riducendo il costo sia di trasporto che di trattamento.

L’energia può quindi essere utilizzata così com’è sotto forma di calore, immettendo nei tubi di uscita dell’aria fredda e controllando così la temperatura finale. Ci sarebbe anche la possibilità di produrre dell’energia elettrica anche per alimentare delle turbine. Queste di solito vengono alimentate a metano, ma usando l’energia accumulata potremmo potenzialmente erogare calore ed elettricità tutto il giorno anche durante i picchi. Il problema in questo caso sarebbe la drastica diminuzione dell’efficienza, che andrebbe dal 95% al 25%.

Un’iniziativa che sembra risolvere almeno parzialmente molto dei problemi d’accumulo, anche se rimane una domanda da porci: possono queste “batterie” sostituire le batterie? Sì e no, tutto dipende dall’applicazione. Data la loro grandezza e al costo iniziale di costruzione è impossibile pensare ad un uso domestico. Data però la loro capacità di accumulare grandi quantità di energia, questi sistemi sembrano in grado di prestarsi ad un uso in larga scala per fornire energia ad un vasto numero di edifici.

Sfortunatamente, per poter impiegare a questo scopo la tecnologia dei TES c’è bisogno di una rete di teleriscaldamento, cosa che in Italia non è così diffusa. Ma questa è un’altra storia.

< Torna indietro
Ambiente, società e tecnologia

Twitter secondo Elon Musk: la cronistoria

Come sono andati i primi giorni del multimiliardario sudafricano alla guida del social network.

Dopo mesi di conferme e smentite, il 28 ottobre Elon Musk, CEO di Tesla e SpaceX, ha acquistato Twitter con un accordo da 44 miliardi di dollari. Sono così iniziate due settimane di tweet controversi, licenziamenti a sorpresa e retromarce pittoresche che stanno raccontando molto di cosa abbia in testa il nuovo proprietario. Ripercorriamo insieme le tappe principali della vicenda, considerato che giorno dopo giorno i fatti si accumulano e gli orizzonti son sempre meno chiari.

I primi giorni

Il primo atto è andato in scena il 27 ottobre, e gli ingredienti sono stati la spettacolarizzazione e la comunicazione non intermediata, ovviamente via social: Musk si è presentato teatralmente presso la sede di Twitter con un lavandino (https://twitter.com/elonmusk/status/1585341984679469056), giocando in un tweet con l’espressione “let the sink in” (letteralmente “lascia entrare il lavandino”, ma che significa anche “digerisci la notizia”). Per l’annuncio dell’acquisizione ufficiale l’imprenditore di origine sudafricane ha poi pubblicato un post molto chiaro: “The bird is freed” (l’uccellino è stato liberato”), cambiando anche la propria biografia sul social network in “Chief Twit”.

Sin dai primi giorni il terreno di discussione (o faremmo meglio a dire “scontro”) su cui Musk si è mosso riguardavano due topic che affliggono da sempre il social network finanziato da Jack Dorsey: le precarie condizioni economiche in cui si trovava la società, sempre più evidenti negli ultimi anni, e la moderazione dei contenuti, ritenuta dal nuovo proprietario eccessiva e d’ostacolo alla libera espressione. Per segnare un cambio di passo e probabilmente dare un messaggio al mercato, Elon Musk ha scelto di inaugurare il nuovo corso con una serie di licenziamenti eccellenti, che hanno coinvolto fra gli altri Ned Segal, direttore finanziario, e Vijaya Gadde, avvocata a capo della squadra legale di Twitter e della divisione trust and safety che si occupa della moderazione, ma soprattutto Parag Agrawal, il CEO. La cosa curiosa è come siano andati i licenziamenti: i dirigenti allontanati, pur ricevendo una cospicua liquidazione, sono stati addirittura scortati fuori dalla sede come impiegati qualsiasi.

Metodi spicci ma che hanno subito dato l’imprinting a una governance che sembra promettere più pugno di ferro che morbida comprensione.

 

La questione delle spunte blu

Come accade su diversi social network, Twitter è in grado di verificare l’identità di persone e aziende di interesse pubblico per evitare il fenomeno dei fake account.  Per distinguerli viene assegnata una spunta blu: un modo per riconoscerli come affidabili.

Una spunta blu veniva riconosciuta anche a chi decideva di avvalersi del servizio premium “Twitter Blue”, disponibile dal 2021 negli Stati Uniti, Canada, Australia e Nuova Zelanda. Oltre al badge “verified”, la versione premium di Twitter permetteva di postare video di maggior durata, visualizzare meno pubblicità e apparire per primi nei risultati di ricerca.

È su questa particolare feature che nel disegno di Musk si poteva sviluppare una nuova linea di revenue: l’idea del multimiliardario era far diventare le spunte blu solo a pagamento. In effetti, il 31 ottobre viene annunciato questo passaggio, ma non mancano i momenti “pittoreschi” in un’iniziativa che apparentemente non sembra poggiarsi su alcun tipo di riflessione. Parlando della cosa su Twitter, il founder di Tesla si è trovato a gestire una sorta di contrattazione con lo scrittore Stephen King (https://twitter.com/StephenKing/status/1587042605627490304), di fatto abbassando il prezzo di partenza da 20 dollari mensili a 8.

Una policy di pricing perlomeno curiosa, considerato che parliamo di un social network da più di 300 milioni di persone.

La nuova era

I colpi di scena però non finiscono qui.

Il primo novembre Musk ha sciolto il consiglio di amministrazione e ha nominato sé stesso come unico membro identificandosi come CEO.

Giovedì 3 novembre tutti i dipendenti di Twitter hanno ricevuto una mail in cui si comunicava che dal giorno successivo sarebbe iniziato un processo di “riduzione della forza lavoro”: se avessero ricevuto la comunicazione nella casella personale sarebbero stati fra gli esuberi, se invece fosse arrivata all’indirizzo aziendale il posto sarebbe stato salvo.

Potrebbe sembrare uno scherzo, ma il giorno successivo, venerdì 4 novembre, effettivamente circa metà dei 7500 dipendenti è stata licenziata. Una tempestività non solo difficile da comprendere dal punto di vista umano, ma anche legislativo: non sono stati nascosti i malumori sia del governo della California (le leggi dello stato prevedono in questi casi un periodo di preavviso di almeno 60 giorni) sia degli inserzionisti, visto il trattamento decisamente poco comprensivo. Non sono mancati poi problemi nell’organizzazione interna, dato che molte delle risorse allontanate erano operative in attività indispensabili per la quotidianità di Twitter. Si parla di intere divisioni praticamente azzerate, tra cui quella che si occupava della moderazione dei contenuti.

Una scelta avventata, sconfessata pochi giorni dopo dalla stessa nuova leadership di Twitter: alcuni dipendenti, licenziati appena tre giorni prima, sono stati richiamati in servizio. All’origine del contrordine ci sarebbe stata una verifica sui criteri di valutazione da parte dell’azienda, che solo dopo aver dato il via ai licenziamenti avrebbe evidenziato la necessità di disporre di alcune specifiche competenze. Inoltre, erano stati evidenziati errori formali: alcune persone sarebbero state licenziate per errore.

Lo scenario sembrerebbe essere disastroso.

In effetti, per cercare di arrestare l’emorragia di malumore, mercoledì 9 novembre, durante una diretta su Spaces (le “stanze” dove discutere di Twitter), Musk ha provato a tranquillizzare gli investitori assicurando che verranno introdotte nuove funzionalità che miglioreranno la qualità dell’esperienza utente: a suo avviso, la richiesta di pagamento per ottenere la spunta blu porterebbe da una parte all’aumento degli introiti dell’azienda, e dall’altra scoraggerebbe la creazione di account fittizi.

Una spiegazione che però non ha contribuito a prendere decisioni perlomeno curiose. Nella sua prima mail ufficiale ai dipendenti, l’imprenditore ha comunicato a tutti i dipendenti sarebbero dovuti tornare in ufficio dal giorno successivo, concludendo l’opportunità di lavorare da casa che, nell’ultimo contratto sottoscritto dall’azienda, era stata definita come condizione permanente. Il giorno seguente, giovedì 10 novembre, Musk ha poi convocato una riunione con il personale con una sola ora di anticipo per annunciare che Twitter perderà nel futuro diversi miliardi di dollari e per ribadire la necessità di tornare in ufficio “a meno che sia fisicamente impossibile”.

I problemi però, al netto dello smart working abolito, non sembrano esser scomparsi. Alcuni possessori di Twitter Blue hanno finto di essere qualcun altro: per citare un solo esempio, un account premium si è finto l’azienda farmacologica Eli Lilly e ha annunciato che “l’insulina sarà gratuita”, con conseguenze reali in borsa.

L’imprenditore ha twittato che “Twitter farà molte cose stupide (traduzione letterale ndr) nei prossimi mesi. Manterremo ciò che funziona e cambieremo ciò che non funziona” (Please note that Twitter will do lots of dumb things in coming months. We will keep what works & change what doesn’t), andando così a delineare quello che pare essere la direzione di Elon Musk: sperimentare e cambiare continuamente.
Così è accaduto alla spunta grigia con dicitura “Ufficiale” che doveva aiutare a riconoscere i profili verificati da quelli premium: è stata lanciata e ritirata in meno di ventiquattro ore.

Tutto questo è capitato in meno di un mese. Se c’è una cosa che è sicura, è che Twitter sotto la gestione di Elon Musk non sarà noioso!

< Torna indietro
Ambiente, società e tecnologia

I social come mezzo per raggiungere l’accessibilità dei contenuti digitali: Intervista a Rosa Coscia

Quanto sono determinanti i social network per distribuire i propri contenuti con l’obiettivo di abbattere le barriere imposte dalla disabilità?
Ovviamente molto: oggi anzi possono essere il vero valore aggiunto in un sistema distributivo che permetta di raggiungere pubblici sempre più ampi e bisogno di aiuto specifico, talvolta anche con costi relativamente contenuti.
Certo, bisogna capire quanto e come calibrare l’attività di distribuzione, lavorando su format che siano in grado di sfruttare al meglio i canali: non è un caso che molti network si stiano dotando di reparti in grado di rispondere a questa necessità.
Per approfondire il tema iWrite ha intervistato Rosa Coscia, esperta di Accessibilità web e social all’interno della Direzione Pubblica Utilità in Rai, che opera nel team del broadcaster di stato che si occupa proprio di questo specifico tema.

 

Come avete capito che anche i social posso contribuire all’obiettivo che ha Rai di rendere ogni prodotto accessibile?

 

La Rai è la più grande azienda di Comunicazione del nostro Paese, concessionaria del Servizio Pubblico radiotelevisivo. Fa parte della sua Mission raggiungere tutto il pubblico italiano, compreso quello delle persone con disabilità sensoriali che ha bisogno di supporti specifici (audiodescrizione per le persone cieche, sottotitoli e/o traduzione LIS per le persone sorde) per poter “accedere” ai contenuti audiovisivi trasmessi in tv, ai contenuti web erogati sui siti Rai e, ovviamente, anche ai contenuti veicolati sui social network, piattaforme che hanno ormai un ruolo centrale nel panorama della Comunicazione. In questo senso non potevamo più rimandare la sfida di approdare all’universo dei social e di farlo in maniera accessibile. L’abbiamo colta ufficialmente proprio a poca distanza dall’inizio del primo lockdown, nell’aprile 2020, aprendo il profilo Facebook @RaiAccessibilità per poter stare accanto alla nostra utenza che rischiava di rimanere ancor più isolata a causa delle difficoltà nel recepimento delle comunicazioni, se non rese accessibili.

 

Facebook è il vostro social di punta per avvicinarvi a chi ha disabilità? Se sì perché? 

 

Facebook è stata la scelta più naturale in quanto è un social in cui, accanto ai contenuti multimediali (che pubblichiamo sempre dotati dei supporti di accessibilità come audiodescrizione e/o sottotitoli e/o LIS, oppure il testo alternativo per le immagini), ha un certo spazio la parte testuale nei post. Avevamo bisogno di poter parlare al nostro pubblico, raccontarci, raccontare quello che la Rai fa per le persone con disabilità sensoriali e dialogare con loro. Inoltre, Facebook è un social che può raccogliere in egual misura le persone con disabilità visive e uditive, non essendo basato esclusivamente su una componente visiva. Ci consente di fare anche dirette live dagli eventi in cui siamo presenti a parlare di inclusione o a portare l’accessibilità. Infine, il pubblico a cui avevamo bisogno di fornire il maggior supporto era proprio quello degli adulti (e dei loro figli) e degli anziani che sono rimasti gli utenti più fedeli a Facebook. I teenager approdati direttamente a Instagram o Tik Tok hanno già strumenti e competenze digitali che li rendono meno svantaggiati nel compito della ricerca di informazioni, sebbene vadano ovviamente indirizzati ed educati a saper distinguere le fake news dalla realtà, compito di cui la Rai pure si incarica.

 

Su Twitter viene utilizzato da Rai per il Sociale, ora Rai per la Sostenibilità,l’#RaiEasyWeb. Come mai é stato creato questo hashtag? 

 

La presenza su Twitter di notizie riguardanti il palinsesto di Rai Easy Web, il sito Rai dedicato alle persone con disabilità sensoriali gestito dalla nostra struttura Rai Accessibilità, risale già al 2016 grazie alla collaborazione con la Direzione aziendale che si occupa di fare da punto di raccordo per tutte le iniziative e gli spazi che la Rai dedica alle tematiche della Sostenibilità, tra cui quella Sociale. In questo contesto, informare brevemente e rapidamente l’utenza dei disabili sensoriali e le loro famiglie sui contenuti informatici, culturali o di intrattenimento di cui possono fruire gratuitamente e in formato accessibile per loro rientra pienamente negli obiettivi del servizio.

 

Pensi che altri social come Instagram e TikTok possano servire a promuovere i servizi offerti tramite il vostro sito Rai EasyWeb e l’account di Facebook? 

 

Si tratta di piattaforme sempre più diffuse tra i giovani e non solo, dunque sarebbe importante per noi dare al pubblico dei disabili sensoriali di tutte le età, alle loro famiglie, ma anche alla società tutta – che deve accorgersi dell’importanza di considerare tutte le esigenze comunicative –, la possibilità di rimanere informati sulle nostre attività se la piattaforma social prediletta e maggiormente frequentata sia una di queste.

 

In una piattaforma come Tiktok basata principalmente sull’utilizzo della musica e della componente visiva pensi che sia possibile integrare l’audiodescrizione oppure i tempi di questo social sono troppo veloci per l’accessibilità? 

 

Magari un frammento di audiodescrizione particolarmente suggestivo o perfino divertente potrà diventare esso stesso una “colonna sonora” per qualche Tik Tok, chissa! Basti pensare che un video pubblicato sul nostro account Facebook con l’audiodescrizione dei momenti della proclamazione dei Maneskin come vincitori dell’Eurovision Song Contest 2021 ha superato i 4 milioni di visualizzazioni e molte persone si sono interrogate su cosa fosse quella voce che commentava le immagini in una maniera che risultava “strana” alle loro orecchie. É evidente che è un servizio ancora poco conosciuto al vasto pubblico e strumenti che possano raggiungere grandi numeri di persone come Tik Tok possono aiutarci in un’operazione di sensibilizzazione e di diffusione della cultura dell’inclusione e dell’accessibilità.

 

In futuro pensi che sia possibile approcciarvi ad altri social in modo accessibile oltre a Facebook? Se sì, hai già in mente quali potrebbero essere gli accorgimenti per tenere conto dell’accessibilità audiovisiva? 

 

Senza dubbio approderemo su Twitter con un account direttamente legato a Rai Accessibilità e poi Instagram e Tik Tok rappresentano la prossima sfida che vorremmo intraprendere. Probabilmente lo faremo a breve. Entrambi questi social nascono concependo la parte visiva come fondamentale, per cui la vera scommessa sarà capire se la nostra presenza riuscirà ad intercettare anche il pubblico delle persone con disabilità visive. Certamente il nostro approccio continuerà ad essere quello di pubblicare contenuti accessibili a tutti, quindi dotando i video di audiodescrizione/sottotitoli/LIS quando necessario, inserendo per le immagini un testo alternativo che non sia automaticamente generato ma frutto di una competenza descrittiva umana, continuando a prediligere la qualità della comunicazione rispetto a una produzione “mordi e fuggi” dei contenuti che mal si sposa con l’esigenza di dover concepire, produrre e finalizzare multimedia completamente accessibili.

 

Ringraziamo Rosa per la sua disponibilità e ci auguriamo di vedere più presente l’utilizzo dei social improntato all’accessibilità dei contenuti proposti.

< Torna indietro
Ambiente, società e tecnologia

Quale sarà il destino degli sport invernali: sopravvivenza o estinzione?

È di pochi giorni fa la notizia dell’annullamento di alcune gare di Coppa del Mondo di sci programmate in Austria ed in Italia a causa della pressocchè totale assenza di manto nevoso e delle alte temperature che non permetterebbero agli atleti di gareggiare in sicurezza. Questa circostanza porta a chiederci che futuro possa esistere per gli sport invernali, caratteristicamente influenzati dalle condizioni climatiche che, se non ottimali, necessitano di essere fronteggiate con ingenti investimenti.

Vediamo più da vicino il problema esaminando qualche concetto base.

I calendari degli eventi sportivi su neve negli ultimi anni sono stati stilati intorno alla fine del mese di ottobre e come da tradizione la prima meta prescelta è Sölden, una località situata nel Tirolo austriaco, di cui fa parte il ghiacciaio Rettembach che ospita proprio la Coppa del Mondo. Eppure, da una veloce ricerca sul web, possiamo ricordare che nel 2020 le competizioni di Sölden si erano regolarmente svolte e con condizioni metereologiche eccellenti. Da quanto detto fino ad ora evinciamo due fatti: 1) ogni annata è diversa dall’altra; 2) il Climate Change rimane comunque una realtà. Tant’è che anche altre località sciistiche come Zermatt e Cervinia hanno visto cancellare le gare del 29-31 ottobre scorso per gli stessi motivi.

Nel domandarsi quale futuro possa esistere per questo tipo di attività sportive alcuni ex campioni di discipline invernali si sono espressi a favore di una organizzazione più sostenibile, fondata cioè su gare più ravvicinate e concentrate nella stagione invernale ed effettuate solo quando le condizioni naturali lo permettono. Basti pensare che secondo dati EURAC tra qualche anno potrebbe non essere più soddisfatta la copertura nevosa minima per l’attivazione di una stagione invernale nelle più comuni località sciistiche a bassa e media quota (<1800 m sul livello del mare) e per questo motivo sarà necessario spostarsi sempre più in vetta.

Più in grande, anche la OMM (Organizzazione Metereologica Mondiale) ha presentato il suo rapporto sullo  “Stato dei servizi climatici 2022” ponendo l’accento sulla questione “sport invernali” e rilevando che una delle nostre più famose e patinate località sciistiche dolomitiche, Cortina (BL), è seriamente a rischio per la possibilità di avere neve bagnata non idonea alle attività sciistiche, e ciò in conseguenza del fatto che in questa area vi è un consumo energetico elevato derivante (in parte ma non solo) dalla necessità già presente di utilizzare sistemi di innevazione artificiale, anch’essi particolarmente energivori.

Del resto, anche il rapporto Nevediversa 2022 redatto da Legambiente sottolinea come proteggere il territorio sia indispensabile per cercare di arrestare la deriva climatica e sponsorizza per questo motivo un nuovo tipo di turismo invernale sostenibile, che promuova attività che si possono praticare anche in condizioni climatiche variabili e che non necessitano di importanti infrastrutture come ad esempio il tutto nell’ottica di creare alternative meno inquinanti per vaste zone montane che vedono nello sci e in tutto ciò che gli gira intorno l’unica o la principale fonte di reddito. Inoltre, lo stesso rapporto, si esprime in maniera sfavorevole su alcuni progetti che riguardano l’ampliamento di comprensori sciistici esistenti o la costruzione di impianti sportivi altamente impattanti sul territorio, come la pista di BOB che dovrebbe essere creata in occasione delle olimpiadi invernali 2026.

Insomma, se da un lato molte implicazioni economiche portano gli stakeholder dell’economia montana a criticare posizioni dure in merito alla sostenibilità dello sci alpino, dall’altro il ritiro dei ghiacciai e tragedie come quella del distacco di parte della Marmolada lo scorso luglio sono sotto gli occhi di tutti e non possono essere ignorate. E ad ulteriore riprova di quanto già detto arriva anche il recentissimo rapporto UNESCO “World Heritage Glaciers” che, oltre a confermare la scomparsa dei ghiacciai dolomitici entro il 2050, aggiunge alla lista anche altri importanti siti a quote elevate, come quelli nel parco di Yellowstone o sulla vetta del Kilimanjaro.

La permacrisis che sta vivendo il nostro pianeta è evidente al punto da aver generato un nuovo disturbo d’ansia chiamato appunto “ecoansia”, diffuso principalmente nei giovani tra i 15 ed i 25 anni d’età, cioè quelle generazioni che hanno più coscienza del problema e che guarda caso sono protagoniste di eclatanti atti di dissenso (vedi i recenti tentativi di imbrattamento di alcune opere d’arte per richiamare l’attenzione sul problema). Alla vigilia dei mondiali in Qatar, evento che proprio dal punto di vista della gestione energetica e dell’impatto ambientale è stato ed è molto criticato, c’è da chiedersi quindi se siamo disposti a sacrificare l’intrattenimento invernale o più in generale sportivo per proteggere il nostro fragile pianeta.

< Torna indietro
Ambiente, società e tecnologia

Non solo estetica: dei biosensori simili a tatuaggi potrebbero essere utili per la salute

E se un tatuaggio potesse non avere una funzione estetica, ma essere uno strumento utile a un paziente diabetico per monitorare il proprio stato di salute? Alcuni ricercatori della Jiaotong University School of Life Science and Technology si sono posti questa domanda e hanno cercato di rispondervi: uno degli studi più recenti sul tema, intitolato “A Colorimetric Dermal Tattoo Biosensor” e pubblicato nel 2021, ha mostrato i risultati ottenuti dalla ricerca su dei biosensori iniettabili sottopelle e in grado di cambiare colore a seconda di alcuni parametri biologici. Sono ancora nelle prime fasi di ricerca e non si sono ancora evoluti in un prodotto vero e proprio: dalle immagini divulgate nel documento sembrano piccoli tatuaggi colorati dalle forme molto semplici, come figure geometriche o disegni stilizzati, ma il loro scopo è del tutto differente.

Come funzionano?

Questi biosensori sono molecole con una particolare proprietà: la loro struttura viene modificata a causa dell’interazione con specifiche sostanze che si desidera quantificare, come il glucosio nel caso dei pazienti diabetici. Questa modifica è la causa del cambiamento di colore osservato, che è a sua volta legato alla concentrazione delle sostanze rilevate all’interno del fluido interstiziale (cioè “la soluzione acquosa che circonda le cellule di un tessuto”). Sono stati sperimentati metodi diversi per iniettare i biosensori nel modo più efficace, a partire da strumenti molto simili a quelli usati dai tatuatori fino a dei cerotti muniti di aghi molto piccoli (e in grado di ottenere un risultato migliore). Fino ad ora, le sperimentazioni sono state condotte principalmente ex vivo (su un tessuto proveniente da un organismo) su pelle di maiale, oppure in vivo (quindi su un organismo vivente) su dei conigli.

Se questa tecnologia fosse sviluppata fino a diventare parte di un percorso terapeutico, permetterebbe al paziente di accorgersi di un problema in modo rapido e intuitivo grazie al proprio smartphone. Una volta inquadrata con la fotocamera la zona della pelle in cui sono presenti i biosensori colorati, un’applicazione sarebbe in grado di associare a una tonalità diversa una quantità precisa del parametro che si vuole tenere sotto controllo e riconoscere una situazione potenzialmente pericolosa. Oltre al glucosio, con questa tecnologia si possono determinare anche il pH, l’albumina, la concentrazione dei minerali etc.

Quali sono i limiti di questa tecnologia?

Sebbene i biosensori si siano mostrati funzionali e non pericolosi nelle prime fasi della ricerca, non sono ancora stati eseguiti degli esperimenti consistenti su pelle umana o su tessuti progettati per replicarla. La pelle di maiale è considerata, tra quelle animali, un primo modello abbastanza affidabile, ma non è sufficiente per dichiarare il successo di questa tecnologia (così come lo studio su pelle di coniglio, seppur realizzato in vivo). Infatti, fino a che non si potrà disporre di risultati ottenuti tramite trial clinici, non si potrà essere ragionevolmente certi della loro non tossicità.

Inoltre il colore assunto potrebbe variare a seconda del colore della pelle del paziente: per ottenere una legenda completa servirebbero ulteriori studi su supporti che coprano una gamma di tonalità quanto più larga possibile.

< Torna indietro
Ambiente, società e tecnologia

A che punto siamo con la lotta agli sprechi alimentari?

Quante volte sarà capitato di acquistare un prodotto e lasciarlo in frigo oltre la data di scadenza per poi essere costretti a gettarlo nella spazzatura? Oppure di ritrovarsi, a pranzo e a cena, una grande quantità di cibo avanzato destinata a finire tra i rifiuti?

Comportamenti e situazioni purtroppo culturalmente accettati, soprattutto nei paesi occidentali, che si riconducono al fenomeno negativo dello spreco alimentare.

 

Che cosa si intende, dunque, per spreco alimentare?

Secondo la definizione data dalla FAO: “il termine spreco alimentare si riferisce invece allo scarto intenzionale di prodotti commestibili, soprattutto da parte di dettaglianti e consumatori, ed è dovuto al comportamento di aziende e privati.”

Un fenomeno, quindi, che non riguarda soltanto le cattive abitudini dei cittadini, ma anche commercianti e rivenditori di generi alimentari.

Lo spreco alimentare (food waste), tuttavia, non dev’essere confuso con la perdita alimentare (food loss) che, invece, sempre secondo la FAO, identifica la: “riduzione non intenzionale del cibo destinato al consumo umano che deriva da inefficienze nella catena di approvvigionamento: infrastrutture e logistica carenti, mancanza di tecnologia, competenze, conoscenze e capacità gestionali insufficienti.  Avviene soprattutto nella fase di produzione, di post raccolto e di lavorazione dei prodotti, per esempio quando il cibo non viene raccolto o è danneggiato durante la lavorazione, lo stoccaggio o il trasporto e viene smaltito.”

 

Bisogna chiedersi, di conseguenza, quanto si spreca in Italia e nel mondo?

I dati forniti dall’indagine World Food Waste, prodotta dall’Osservatorio Waste Watcher e dall’Università di Bologna, hanno evidenziato come nel mese di agosto siano stati sprecati dai cittadini italiani 674 grammi di cibo pro capite a settimana; stima minore rispetto allo stesso periodo dell’anno precedente, ma in aumento rispetto alla rilevazione fatta dallo stesso osservatorio a febbraio del 2022, in occasione della “Giornata Nazionale contro lo spreco alimentare.” Tra le cause principali dello spreco alimentare vi sono la scarsa o assente pianificazione della spesa, il cucinare in eccesso e la cattiva conservazione di frutta e verdura nei supermercati. Cattive abitudini che costano annualmente agli italiani circa 9 miliardi di euro.

Anche considerando lo scenario globale i dati non sono incoraggianti. La FAO, per la “Giornata Internazionale di sensibilizzazione su perdite e sprechi alimentari”, celebrata lo scorso 29 settembre, ha evidenziato come più di un terzo della produzione alimentare mondiale venga persa e sprecata. Infatti, è del 17% la percentuale di cibo che viene sprecato di cui l’11% in casa, il 5% nel settore dei servizi alimentari e il 2% nel commercio al dettaglio.

Numeri e cifre di un fenomeno negativo, sia da un punto di vista economico, ma anche eticamente riprovevole se pensiamo a quante persone ancora oggi soffrano la fame o alle implicazioni negative sul clima e sull’ambiente che questi fenomeni comportano. Il rapporto UNEP Food Waste Index, di fatto, riporta che circa l’8-10% dell’emissioni di gas serra a livello globale sono causate dal cibo prodotto e non consumato.

 

Come invertire questa tendenza negativa e combattere lo spreco?

Tema ormai prioritario nelle discussioni politiche di numerosi paesi, la lotta allo spreco alimentare è tra gli obiettivi dell’Agenda 2030 delle Nazioni Unite che, al punto 12.3, mira a dimezzare la quantità pro capite di cibo sprecato a livello globale. Orientata al raggiungimento di questo risultato è la strategia FarmToFork dell’Unione Europea, che vede tra le ultime misure introdotte: la definizione entro il 2023 di obiettivi giuridicamente vincolanti per tutti gli stati membri dell’UE in materia di spreco alimentare e una decisiva revisione delle norme europee che regolano la marcatura sulla data di scadenza e di conservazione minima riportata sui prodotti, spesso confusionaria per rivenditori e consumatori. Inoltre, tante sono le città che adottano politiche urbane alimentari ovvero una serie di iniziative incentrate sulla valorizzazione dell’agricoltura locale e della filiera corta, sul riuso solidale dell’invenduto e su campagne di sensibilizzazione scolastica che, in un’ottica di Smart Food Community, si pongono l’obiettivo di ridurre gli sprechi.

A questi programmi politici, si affiancano le azioni di operatori e aziende private. Come già riportato nell’articolo “La lotta contro lo spreco diventa di buon gusto” sono, infatti, diverse le piattaforme che si prefiggono lo scopo di salvare il cibo invenduto e non consumato. Proprio da una di queste, la startup To Good To go, è nato il Patto contro lo spreco alimentare: “un intesa tra enti, aziende e supermercati con l’intento di ridurre gli sprechi nell’intera filiera e portare il dibattito nelle importanti sedi pubbliche e private.” Hanno già aderito al patto importanti soggetti economici del settore agroalimentare come Bolton Group (Rio Mare e Simmenthal), Kellogg’s, Nestlè e Carrefour.

La lotta allo spreco, in ogni caso, passa anche e soprattutto dalla sensibilizzazione e dal cambio di abitudini dei consumatori. Sono presenti in rete numerosi consigli e validi vademecum per aiutare a gestire correttamente acquisti, conservazione e consumo degli alimenti, favorendo, in questo modo, la riduzione degli sprechi tra le mura domestiche e contribuendo, così, a vincere una sfida fondamentale per la salute umana e dell’intero pianeta.

< Torna indietro
Ambiente, società e tecnologia

DALL-E: l’intelligenza artificiale che “disegna” ciò che vuoi tu

Generare immagini con solo le parole o meglio, attraverso una descrizione testuale dell’utente: è ciò che è in grado di fare il sistema di intelligenza artificiale DALL-E, che da mercoledì 28 settembre è stato reso disponibile a tutti, senza più liste di attesa.

Ma che cosa è esattamente DALL-E e come funziona?

Rilasciato nel gennaio 2021 nella sua prima release, DALL-E è un sistema di intelligenza artificiale immaginato e realizzato da OpenAI, l’organizzazione no profit fondata nel 2015 da Elon Musk e Sam Altman, il cui obiettivo è di assicurare un’intelligenza artificiale che porti benefici all’umanità. Il suo scopo è generare sia immagini da zero che modificare parti di immagini già esistenti attraverso una descrizione. Come si può leggere dal post in cui si annuncia la sua nascita, DALL E è stato sviluppato come estensione di un altro sistema di intelligenza artificiale: si tratta di GPT, pensato per generare testi human-like.

A gennaio di quest’anno è stata annunciata una nuova versione di DALL-E, DALL-E 2, migliorata sulle capacità di generazione delle immagini, più accurate e realistiche e con una loro risoluzione quattro volte maggiore. Da aprile il sistema è stato reso disponibile a sempre più persone e questo ha permesso di migliorare non solo lo strumento ma anche stabilire delle regole della community per garantirne la sicurezza: sul blog di OpenAI infatti si legge che l’accesso controllato dei mesi scorsi è stato necessario per comprenderne a pieno i possibili utilizzi (anche quelli meno indicati). Oggi non si possono generare immagini che incitino all’odio e alla violenza o contenuti per adulti; inoltre, è stata autorizzata solo di recente la possibilità di modificare e realizzare immagini con soggetti umani.

Ad agosto è stato introdotto Outpainting, una funzionalità che permette di estendere un’immagine esistente, aggiungendo elementi nello stesso stile dell’immagine originale.

 

Come funziona DALL-E 2

 

Usare DALL-E 2 è molto semplice. Dopo essersi iscritti sul sito è possibile cominciare subito a generare le immagini a partire da una descrizione accurata di ciò che si vuole ottenere. Infatti, come recita DALL-E stessa, una descrizione più lunga e specifica permetterà di realizzare delle immagini più precise e fedeli a ciò che si immagina.

La cosa bella di DALL-E 2 è che puoi parlarle come se stessi parlando con una persona: non è necessario quindi impiegare un linguaggio troppo complesso, lei riuscirà a comprendere. Inoltre, la sua competenza linguistica non è limitata solo all’inglese, ma DALL-E 2 è in grado di comprendere anche altre lingue (come l’italiano).

Sulla home di DALL-E 2 si trovano molti esempi di immagini create e/o modificate dagli utenti e sul web basta una breve ricerca per trovare centinaia di esempi. Anche noi della redazione di iWrite l’abbiamo provata e questi sono i risultati.

 



DALL-E 2 è uno strumento interessante per curiosi e artisti ma può anche trovare utilizzi in ambiti diversi dalla semplice realizzazione di immagini per svago, come ad esempio aiutare a visualizzare l’arredamento di una stanza vuota.

DALL-E 2 può essere guardata con sospetto, per paura che possa prendere il nostro posto nell’arte e nella creatività ma in realtà, come si augura la stessa OpenAI, potrebbe porsi come uno strumento molto utile e di supporto a creativi e artisti professionisti, per la realizzazione di immagini digitali e dipinti su tela.

< Torna indietro
Ambiente, società e tecnologia

Quale futuro per la Digital Health? Intervista a Eugenio Santoro

Da qualche anno è diventato sempre più diffuso nella nostra vita l’uso di tecnologie che rientrano nella Digital Health. Smartwatch che promettono di monitorare il nostro battito cardiaco, la cosiddetta “ricetta dematerializzata” per acquistare i farmaci, video consulti con il medico oppure la possibilità di visualizzare in pochi minuti una radiografia di cinque anni fa: la tecnologia permea sempre più il settore sanitario.

Queste tecnologie non sono però fra loro sovrapponibili: sono nati nuovi settori, ognuno con la propria specificità e con nuove necessità di regolamentazione.

Secondo Eugenio Santoro, responsabile del Laboratorio di Informatica Medica all’Istituto di Ricerche Farmacologiche Mario Negri IRCCS: “Le terapie digitali fanno parte della medicina digitale, un settore particolarmente specifico della digital health. Si tratta di software (applicazioni, giochi, realtà virtuale) che costituiscono essi stessi la terapia.” È questo il caso, per esempio, di applicazioni progettate per aiutare il paziente a modificare le abitudini e lo stile di vita: studi clinici randomizzati che hanno studiato una particolare applicazione “hanno dimostrato che i pazienti affetti da diabete che la utilizzano riportano una maggiore diminuzione dei valori di emoglobina glicata (un parametro che permette di valutare l’andamento della glicemia negli ultimi tre mesi, ndr) rispetto a chi segue una guida tradizionale”.

Durante l’ultimo Web Marketing Festival, Santoro ha fatto un intervento proprio su questi temi. Lo abbiamo intervistato cercando di scoprire qualcosa in più.

 

Buongiorno, Eugenio Santoro, e benvenuto su iWrite. Di cosa parliamo quando parliamo di “medicina digitale”?

La medicina digitale è un supporto alla cura: è costituita, per esempio, da reminder e da strumenti che permettono al paziente di segnalare le reazioni avverse da casa. È relativamente comune per i pazienti oncologici l’uso di un’applicazione che segnala se la reazione avversa deve essere risolta immediatamente o può aspettare l’intervento del medico. Oppure da strumenti digitali o sensori che raccolgono dati fisiologici dei pazienti sui quali il medico prende delle decisioni. Tutti questi strumenti devono essere validati da studi clinici, spesso randomizzati.”.

 

A che punto è lo sviluppo del mondo dietro la digital Health e quali sono le prospettive?

Per quanto riguarda il panorama attuale, in alcuni stati (come USA, Germania, UK e Giappone) le terapie digitali sviluppate e sperimentate con studi clinici randomizzati possono essere prescritte e spesso rimborsate dallo stato o dalle assicurazioni.

L’istituto Mario Negri ha svolto una revisione degli studi sulle terapie digitali, identificando le aree mediche dove sono più presenti: al primo posto abbiamo il campo della salute mentale (ansia, depressione…) con il 40%, segue poi quello delle malattie croniche (come il diabete) e da dipendenze (come quella da fumo di sigarette).

Per il futuro c’è ottimismo: soprattutto in alcuni ambiti, sono strumenti che possono competere con i farmaci. Potrebbero costituire un primo tentativo prima di ricorrere alla terapia farmacologica e saranno sempre più utilizzati anche in associazione ai farmaci. La speranza è che la loro regolamentazione consenta di muoverci velocemente.

 

Dottor Santoro, nel suo intervento ha parlato del fatto che i pazienti sono pronti all’utilizzo di questi nuovi strumenti, forse più dei medici. Quale può essere il ruolo delle università?

In questo momento numerose indagini, anche fatte da noi tra pazienti oncologici, indicano che stanno utilizzando gli strumenti digitali per informarsi o raccogliere dati. Si osserva invece un uso limitato da parte dei medici, per diverse ragioni:

  1. Formazione: i medici sono ancora a digiuno di quanto il digitale possa cambiare il loro modo di lavorare, forse non spaventati, ma proprio non consapevoli. Con il Covid c’è stato un avvicinamento, come per esempio nel monitoraggio dei pazienti. Strumenti più avanzati come le applicazioni sono ancora poco diffuse perché poco conosciute, inoltre i medici non sono sufficientemente digitalizzati. All’università bisogna rinnovare i corsi inserendo la digital health. Possono avere un ruolo anche le società scientifiche, informando i loro associati riguardo le nuove tecnologie.
  2. Regolamentazione: i medici consigliano più facilmente queste “nuove tecnologie” se regolamentate e se possono essere inserite in un contesto assistenziale approvato.

 

Quali competenze dovrà avere il medico del futuro per governare l’evoluzione tecnologica, come da lei auspicato?

Sicuramente competenze tecnologiche, in modo da saperle valutare: essere in grado di capire quali strumenti utilizzare, seguendo le evidenze scientifiche, e quali no, diffidando di quelli che non hanno superato il vaglio scientifico. C’è un problema organizzativo evidente, non solo nell’inserimento di questi strumenti, ma anche nella loro integrazione nell’aspetto curativo della pratica clinica. Inoltre, i medici devono mantenere un livello di empatia sufficientemente elevato anche quando usano strumenti digitali. Diversi studi dimostrano che l’utilizzo di strumenti digitali porta a una diminuzione dell’empatia. Non si tratta di diventare dei tecnici, ma utilizzatori esperti e di inserirle nel contesto clinico in cui si lavora.

 

Ha accennato nel suo intervento dell’impatto dei social media, può raccontarci di più?

È un impatto importante, per esempio esistono evidenze che le community di pazienti costruite sui social media e gestite da medici sono efficaci per favorire la cessazione del fumo. Il moderatore lancia post che hanno lo scopo di modificare lo stile di vita dei membri e invita a pubblicare i miglioramenti o pubblica delle pillole informative, in particolare c’è un’ampia esperienza in ambito diabetologico. Gli studi hanno dimostrato che i partecipanti maggiormente attivi hanno migliori possibilità di smettere di fumare e ci sono molte esperienze anche sull’aumento del tempo dedicato all’attività fisica e conseguente riduzione del peso.