Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254
< Torna indietro
Ambiente, società e tecnologia

Il mondo della cultura si dipinge sempre più di Digital

Al Web Marketing Festival di Rimini non sono mancati eventi e stand legati al tema della cultura digitale. Un ambito che sente e che vede la necessità di accelerare il processo digitale ormai impossibile da trascurare.

Un’affermazione, questa, che trova una spiegazione tecnica nell’intervento di Giuseppe Iacono, esperto di competenze digitali e coordinatore delle attività legate al progettoRepubblica Digitale”, promosso dal Dipartimento per la Trasformazione Digitale (DTD). Tale progetto, ha riferito Iacono, “obbliga” le istituzioni italiane a raggiungere, entro il 2025, determinati obiettivi di cui i principali sono:

  • elevare al 70% la quota di popolazione con competenze digitali almeno di base” ed “azzerare il divario di genere”;
  • duplicare la popolazione in possesso di competenze digitali avanzate”;
  • triplicare il numero dei laureati in ICT e quadruplicare quelli di sesso femminile, duplicare la quota di imprese che utilizza i big data (grazie all’erogazione di corsi e all’assegnazione di borse di studio da parte di aziende o startup che operano nel settore da diverso tempo)”;
  • incrementare del 50% la quota di PMI che utilizzano specialisti ICT”;
  • aumentare di cinque volte la percentuale di popolazione che utilizza servizi digitali pubblici, arrivando al 64%”.

Tutto questo, quindi, con lo scopo di diminuire il gap digitale dell’Italia rispetto agli altri paesi europei e di garantire la ripresa economica nazionale. E non solo: il progetto ha anche uno scopo più sociale, legato alla volontà e alla necessità di usare il digitale per rendere ogni servizio accessibile a chiunque, azzerando le disparità fisiche ed economiche e accorciando le distanze geografiche.

Ma come si è mosso, in questo caso specifico, il Ministero della Cultura (MiC) e i dipartimenti ad esso collegati?

Ne ha parlato la direttrice del Ministero per i beni e le attività culturali e per il Turismo (MiBAC) Laura Moro nel talk “Digitalizzare il patrimonio culturale italiano: la Digital Library del Ministero della Cultura”.

Su richiesta del Ministro Franceschini, la Moro ha concretizzato l’obiettivo italiano con la “Digital Library” ovvero l’Istituto Centrale per la Digitalizzazione del Patrimonio Culturale (ICCD), avente appunto lo scopo di “curare il coordinamento e promuovere programmi di digitalizzazione del patrimonio culturale di competenza del Ministero. A tal fine elabora il Piano nazionale di digitalizzazione del patrimonio culturale e ne cura l’attuazione ed esprime parere obbligatorio e vincolante su ogni iniziativa del Ministero in materia”.

Il patrimonio culturale da digitalizzare, però, non comprende soltanto gli archivi, i beni sonori e audiovisivi ma anche gli oggetti culturali antichi e moderni (anche se quest’ultimi incarnano fin da subito il ruolo di “testimonianze digitali”).

Il processo di digitalizzazione, inoltre, non è limitato al solo scopo di rendere il patrimonio culturale fisico (quadri, opere, libri e documenti) fruibile sul web, ma si pone anche l’obiettivo di “digitalizzare i servizi, digitalizzare i processi all’interno dei luoghi della cultura, dell’organizzazione culturale, creare uno spazio dei dati comune dove tutte queste risorse digitali possano essere accolte, digitalizzate ed esposte, e immaginando nuovi modi di avvicinare i cittadini al patrimonio culturale”.

Per questo diventa necessario affiancare i professionisti che hanno sempre lavorato nel mondo della cultura (come gli storici dell’arte, gli archivisti e i bibliotecari) a professionisti ibridi come gli umanisti digitali (human digitalist), il manager culturale, il content creator e il divulgatore digitale, per riuscire a creare un ponte e una sinergia tale da utilizzare le nuove tecnologie per “estrarre senso, conoscenza e significato da tutte le testimonianze della cultura, materiali e non”.

Ma quali sono gli altri operatori chiave di questo processo di digitalizzazione?

Al Web Marketing Festival ne erano presenti due dei tanti: “Museo Facile” e “tourer.it”.

Il primo è un progetto promosso nel 2012, dall’Università degli Studi di Cassino e del Lazio Meridionale (UNICAS) e ideato da Ivana Bruno e Patrizia De Socio. Nasce con lo scopo di “favorire e implementare l’accesso culturale ai musei grazie ad un sistema di comunicazione integrato, dinamico, usufruibile da tutti, con particolare attenzione alle persone con disabilità”.

Gli strumenti tradizionali, come il cartellino dell’opera, la scheda di sala, la segnaletica interna e il pannello informativo, sono stati rivisti e ridisegnati con le nuove e ormai note tecnologie a disposizione, per offrire al pubblico ricostruzioni virtuali in 3D e QR-Code.

Le azioni mosse a favore di una partecipazione più attiva delle persone con disabilità uditiva e visiva, invece, sono state concretizzate integrando ausili specifici come le “tavole tattili, i materiali tiflodidattici e i video in Lingua Italiana dei Segni (LIS)”.

Il secondo operatore chiave, tourer.it appunto, è un progetto che rientra nel percorso di promozione turisticaCantiere estense“, finanziato e coordinato dal MiC nell’ambito del Piano1 miliardo per la cultura. Tale progetto, come spiegato da Ilaria Di Cocco, offre la possibilità di registrarsi nell’”Area Personale” e di creare un vero e proprio “Diario di viaggio” grazie alla possibilità di salvare  in una “cartella virtuale” i percorsi e le mete che si vogliono visitare.

Ogni meta, che sia un monumento o un bene del patrimonio boschivo, si presenta con un proprio profilo dotato di foto, descrizione, nome ufficiale (accompagnato anche con gli altri nomi comunemente utilizzati) e siti web (sulla storiografia e sulla bibliografia), forniti dai dipartimenti responsabili del progetto.

Perché la comunità partecipi attivamente al progetto, gli è stato chiesto di scattare delle fotografie dei luoghi visitati (pubblicate dopo l’approvazione da parte dei ministeri) e di dare una valutazione in termini di gradimento.

Anche gli itinerari sono curati nel minimo dettaglio grazie al contributo degli esperti del CAI e del FIAB, con lo scopo di rispondere ai gusti e alle esigenze di ogni cittadino: si va da itinerari gastronomici (chiamati “Musei del Cibo”) a quelli culturali o sonori, realizzabili a piedi o in bicicletta. E anche qui l’inclusività non è da meno perché esistono percorsi pensati anche per coloro che hanno disabilità visive e/o motorie.

Con quest’ultimo progetto, si conclude il tour culturale da me percorso al Web Marketing Festival. Un tour che vuole scardinare i preconcetti legati alla cultura nel digitale, dimostrando quanto si possa fare e come la cultura possa perdurare e incrementare nella visione futuristica del nuovo mondo.


Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254
< Torna indietro
Ambiente, società e tecnologia

Innovazione dallo spazio

Durante la terza giornata del Web Marketing Festival, noi iWriter abbiamo seguito alcuni interventi degli speaker nella sala Aerospace, in cui il focus di tutti i talk è stato lo Spazio, declinato in varie forme. Tutti noi (forse) sappiamo che il Sole è una stella, che la Terra non è piatta e che stiamo cercando di riportare l’uomo sulla Luna, ma il mondo aerospaziale è molto più complesso e riguarda più aspetti di quel che siamo abituati a pensare. Con questo articolo vogliamo portarvi con noi al Festival e illustrarvi ciò che abbiamo imparato durante questa giornata.

 

Non solo esplorazioni spaziali

Quando sentiamo parlare di spazio, molto spesso pensiamo a film fantascientifici con viaggi interstellari e scoperte di nuovi pianeti abitati. Ma lo spazio non è solo questo. È qualcosa di molto vicino a noi e che ci riguarda anche qui sulla Terra. L’elemento dello spazio che più da vicino ci riguarda è il Sole. Il Sole è la stella che permette, tra altri fattori, la vita sulla Terra dandole calore e luce. Non è un oggetto immobile nello spazio ma ha una sua dinamica molto ampia e diversificata, di cui la Terra, come tutti gli altri pianeti del sistema solare, risente.

Vincenzo Romano, ricercatore dell’Istituto Nazionale di Geofisica e Vulcanologia e fondatore della start up Spacearth Technology, nel suo talk al WMF ha illustrato i principali eventi solari e ha spiegato in che modo questi hanno rilevanza sulla Terra. Il Sole, oltre a emettere radiazione elettromagnetica, emette anche particelle massive che hanno una velocità inferiore rispetto alla radiazione e la cui quantità dipende dall’attività solare. L’attività solare è misurata in base alle macchie solari: più macchie sono presenti, più l’attività solare è alta, più particelle il Sole emette. Il ciclo dell’attività solare dura circa undici anni e oggi ci troviamo al minimo dell’attività. Non tutte le particelle emesse dal Sole ovviamente arrivano a interagire sulla Terra ma quando questo accade, cosa avviene sul nostro pianeta? Dal punto di vista fisico le particelle che arrivano fino alla Terra interagiscono con il campo magnetico terrestre: alcune non lo superano e non entrano nella nostra atmosfera, altre invece entrano nell’atmosfera dove il campo geomagnetico è verticale, cioè ai poli, e provocano le aurore, boreali e australi. Ma ciò che realmente ci interessa è come l’interazione di queste particelle influenza la vita degli esseri umani.

Tralasciando gli effetti delle particelle sulla nostra salute, possiamo dire che esse incidono su tutto ciò che conosciamo dal punto di vista tecnologico. I sistemi satellitari, su cui si basano le telecomunicazioni, il traffico aereo e marittimo e persino l’agricoltura, infatti, sono fortemente influenzati dalla presenza delle particelle. La loro presenza può comportare errori e malfunzionamenti ai sistemi satellitari con conseguente impossibilità di usare un determinato servizio. Negli ultimi anni, l’utilizzo della tecnologia è aumentato in modo esponenziale ed è quindi chiara la necessità di dover prevedere e gestire tali eventi affinché non vi siano gravi incidenti e danni globali.

L’insieme delle condizioni precedentemente illustrate prende il nome di space weather, il tempo meteorologico spaziale e per conoscerne gli andamenti, la scienza si avvale della meteorologia spaziale. L’Agenzia aerospaziale europea (ESA) ha in corso un progetto, chiamato Space Situational Awareness (SSA), che ha l’obiettivo di tutelare le tecnologie di navigazione satellitare dell’Unione Europea. Per fare questo, il programma si concentra su tre aree principali, tra cui la meteorologia spaziale, attraverso un servizio di nowcasting e forecasting.

Il rischio sistematico a cui siamo sottoposti, apre le porte a un nuovo mercato di notevole interesse. Infatti, l’obiettivo del prossimo futuro è di rendere la meteorologia spaziale affidabile come la meteorologia classica. Oltre alla possibilità di sviluppo di servizi di previsione sempre più efficienti, si cercano soluzioni e nuovi mezzi che possano rendere il sistema satellitare resiliente allo space weather e aerei e mezzi destinati agli esseri umani protettivi dalle radiazioni. Di natura ottimista, Romano ritiene che nonostante le difficoltà nel prossimo futuro saremo in grado di avere una situazione abbastanza garantista per le nostre tecnologie.

Le sfide nello spazio per la Terra, però, non si esauriscono qui. Il sistema satellitare, come abbiamo già detto, entra in gioco anche nella gestione delle coltivazioni agricole ed è proprio per l’agricoltura che Max Gulde, speaker al WMF, ha deciso di investire e sviluppare la sua tecnologia.

 

La sfida di ConstellR

Max Gulde è il co-fondatore di ConstellR, una start up che ha l’obiettivo di migliorare l’utilizzo delle risorse idriche a livello globale fornendo un nuovo servizio di monitoraggio continuo del suolo attraverso la temperatura. Ricercatore nel settore aerospaziale, negli anni di ricerca ha scoperto che lo spazio può essere la soluzione ai problemi della Terra ed è proprio attraverso lo spazio e i satelliti che Gulde intende migliorare l’uso dell’acqua nell’agricoltura.

Secondo l’Organizzazione delle Nazioni Unite per l’alimentazione e l’agricoltura (FAO) l’80% dell’acqua dolce utilizzata è impiegata in agricoltura, in particolare nell’irrigazione. Il problema è che il 60% di questa viene sprecata perché non utilizzata in modo efficiente. Ed è qui che ConstellR vuole dare una soluzione. La tecnologia di ConstellR si basa sull’utilizzo della temperatura per valutare lo stress idrico delle coltivazioni e delle piante in generale prima che questo sia visibile. La temperatura è correlata allo stato di salute delle piante: più la temperatura è alta, più la pianta si trova in condizioni di stress idrico e quindi ha bisogno di acqua. Attraverso l’uso della tecnologia infrarossa, è possibile conoscere la temperatura degli oggetti osservati. Conoscere con maggiore precisione la condizione delle piante permetterebbe di gestirne la crescita affinché diano il massimo rendimento possibile con il minore consumo di acqua. Infatti, il rendimento delle coltivazioni è strettamente legato all’acqua che utilizziamo per farle crescere.

Con i cambiamenti climatici impellenti e la riduzione delle terre disponibili per l’agricoltura da un lato e dall’altro l’aumento della popolazione mondiale, ConstellR propone una soluzione scalabile e molto meno costosa di quelle attualmente utilizzate che permetta di gestire meglio le risorse idriche producendo più cibo per le persone consumando meno. Il servizio che propongono è rivolto alle aziende che già forniscono agli agricoltori le informazioni per la gestione delle terre coltivate. Con la tecnologia di ConstellR si potrebbe avere una maggiore risoluzione spaziale, una maggiore sensibilità di temperatura fornendo dati più accurati e un monitoraggio giornaliero. La gestione delle acque è un mercato in crescita e ConstellR raccoglierà e consegnerà i primi dati entro la fine di quest’anno. Il mezzo con cui ConstellR intende raccogliere i dati e monitorare la temperatura del suolo sono i satelliti, in particolare come sembra ricordi il nome della start up, una costellazione di satelliti, cioè un gruppo di satelliti che vengono utilizzati per uno stesso scopo in modo complementare e sotto un controllo comune.

 

I nanosatelliti: grandi protagonisti

Protagonisti della giornata sono stati i nanosatelliti. Durante l’intervento di Silvia Natalucci, product assurance manager e responsabile dell’unità micro e nanosatelliti dell’Agenzia Spaziale Italiana, abbiamo potuto conoscere i cubesat, una tipologia di nanosatelliti nati per far esercitare gli studenti universitari ma che oggi stanno assumendo sempre più importanza per i servizi di telecomunicazione e per l’esplorazione planetaria.

I cubesat sono considerati una categoria speciale di nanosatelliti perché sono ottenuti a partire da un’unità standard di volume pari a 1 dm3 che prende il nome di U, unità. Ne esistono di diverse dimensioni, da 1U fino ad arrivare ai più grandi di 12U. L’idea dei cubesat nasce con l’intenzione di far costruire per esercitazione agli studenti universitari dei satelliti in miniatura che riproducessero i veri satelliti. La particolare dimensione è dovuta alla scelta del professore di prendere come riferimento una normale scatola di cartone. Inizialmente non si credeva potessero essere messi in orbita come veri e propri satelliti ma superati i primi test sono diventati uno standard per la produzione industriale. I cubesat sono satelliti economici, con un costo pari a circa 30 000 dollari per unità e questo ha permesso una democratizzazione dello spazio perché università, piccoli centri di ricerca e paesi emergenti possono introdursi nel mercato senza dover prevedere grosse spese. Un altro vantaggio dell’ingresso dei nuovi player sul mercato e dello standard di produzione è la riduzione dei tempi di sviluppo dei lanci, permettendo così di avere in orbita satelliti con tecnologie non obsolete come accade alcune volte con i satelliti tradizionali. Di notevole interesse è anche la distribuzione del rischio: essendo i cubesat economici, è possibile lanciarli in costellazioni e qualora uno dovesse fallire ce ne sarebbero altri che riescono ad andare in orbita. Successivamente è possibile anche fare un refill della costellazione lanciando in orbita altri cubesat.

Le applicazioni classiche dei cubesat sono in orbite terrestri, in particolare orbite LEO. Nonostante il peso e la potenza ridotta, non vanno a sostituire i satelliti classici in queste orbite ma li affiancano, completando alcune caratteristiche e lavorando in sinergia. Il futuro dei cubesat è comunque molto vario. Testati in più missioni, verranno utilizzati in missioni interplanetarie in un sistema mother-daughter, inglobati in un satellite tradizionale a causa della loro potenza ridotta ma anche per l’osservazione della terra, meteorologia spaziale, connettività per le telecomunicazioni e sorveglianza.

 

Lavoro nella stazione aerospaziale

Nell’intervento di Chiara Cocchiara, ingegnere aerospaziale e Forbes Under 30 per il settore industria, abbiamo scoperto come funzionano le operazioni spaziali e in che modo una stazione spaziale monitora costantemente i suoi satelliti(anche quelli di cui abbiamo parlato prima). I satelliti devono essere monitorati 24/7 e il team all’interno di una stazione aerospaziale è preparato a ogni evenienza secondo le proprie competenze e gerarchia. Il centro di controllo è il luogo della stazione dove si effettuano le operazioni spaziali. Le operazioni spaziali sono procedure automatizzate, pianificate in anticipo. In presenza di anomalie, problemi o anche semplicemente in caso di operazioni non pianificate, l’utente del centro di controllo, utilizza delle procedure cartacee per lanciare nuove procedure automatica: non si effettua nulla manualmente per evitare di incorrere in ulteriori problemi dovuti a errori umani. Oltre a operare i satelliti, nel centro di controllo si operano anche le antenne delle varie stazioni per comunicare con i satelliti, ci si coordina con gli altri partner e si tiene tutto sotto controllo. Possiamo dire che la parola d’ordine in una stazione aerospaziale è pianificazione. Tutto è pianificato, anche il modo in cui vengono pianificate le operazioni. Sono anche pianificate le azioni a terra, in caso di problemi interni all’infrastruttura.

Il mondo dell’aerospazio è sicuramente affascinante e come abbiamo visto, diventerà un elemento sempre più importante della nostra società in diversi ambiti e che coinvolgerà sempre più categorie di persone, da privati a imprese. Sebbene l’osservazione delle stelle, sia un qualcosa che l’uomo fa fin dall’antichità, le cose che possiamo imparare, conoscere e sfruttare dallo spazio sono moltissime: lo spazio è innovazione ma l’innovazione dello spazio ci permetterà di migliorare anche la vita sulla Terra e forse di avere un futuro più buono.

< Torna indietro
Ambiente, società e tecnologia

Eleonora Cogo: quando salvare il Pianeta è un gioco da ragazzi

“Esistono solo due certezze nella vita: una è la morte, l’altra sono le tasse”. Quante volte abbiamo sentito questa citazione attribuita a Benjamin Franklin? Crediamo sia doveroso aggiungere una terza certezza che il padre fondatore americano non poteva conoscere ossia quella dell’ingresso dei tuoi genitori nella stanza in cui studi, proprio nel momento esatto in cui prendi il cellulare in mano.

Ma tranquilli, siamo pronti a fornirvi una soluzione, che possa aiutarvi a convincerli che attraverso il telefono che ci vedono sempre in mano, in realtà, stiamo contribuendo attivamente alla salvaguardia del pianeta. Okay, non è propriamente il nostro pianeta… ma su questo possiamo momentaneamente soprassedere e metterci all’ascolto della Dottoressa Eleonora Cogo, Senior Scientific Manager, qui in veste di creator di Change Game.

 

Salve Dottoressa Cogo, oggi è qui al WMF per parlare di “Change Game”. Le va di spiegarci cos’è e come è nato? E quali sono gli obiettivi di “Change Game”?

La creazione del gioco nasce dall’esigenza comunicativa della fondazione CMCC. Il centro Euro-mediterraneo per i cambiamenti climatici, in acronimo CMCC, si occupa di studiare il clima e le conseguenze del riscaldamento del pianeta sul sistema climatico. Come è facile immaginare, queste tematiche sono estremamente complicate da comunicare. Change Game nasce dalla vera e propria necessità di avere un semplice strumento di divulgazione sui cambiamenti climatici che potesse permetterci di parlare di tematiche così attuali in maniera meno didascalica e più esperienziale. Abbiamo creato un mondo virtuale in cui i giocatori possono vedere, in anticipo sui tempi, quello che accadrà al Pianeta se non si entra subito in azione. Change Game è stato creato in collaborazione con Melazeta, una società specializzata nello sviluppo di serious gaming, ma è stato grazie a Climate-kic che questo gioco è oggi fruibile gratuitamente. Tra gli obiettivi principali, oltre quelli divulgativi già citati, c’è sicuramente quello di far comprendere quanto sia effettivamente difficile costruire una società a zero emissioni, il che consente ai giocatori di apprezzare la complessità delle sfide che, nel futuro prossimo, ci aspettano. In generale, questo è un videogioco che rientra nella categoria “city builder”, in cui ogni giocatore è responsabile della propria città e deve procurare cibo per i propri abitanti e materie prime per continuare la costruzione delle infrastrutture necessarie alla sopravvivenza della popolazione. Però, sostanzialmente ogni passo verso l’evoluzione della città è associato a una emissione di CO2 che poi influenza la temperatura del pianeta. Un elemento di novità è che il giocatore ha la possibilità di investire in ricerca e innovazione in modo da favorire il raggiungimento delle emissioni zero nette. Un’altra, è quella di consentire di investire nell’educazione in modo da responsabilizzare i cittadini e rallentare il tasso di emissioni. Addirittura all’interno della città possono essere sviluppate delle tecnologie attualmente ancora in fase sperimentale ma che sono fondamentali per il raggiungimento degli obiettivi che conducono alla vittoria del gioco. Il nostro augurio è che Change Game che possa mettere in moto l’immaginazione dei fruitori, in modo che possano loro stessi proiettarsi in un mondo a zero emissioni, un mondo resiliente ai cambiamenti climatici. Secondo noi, Change Game ha il pregio di far riflettere sia sugli “ingredienti” del problema del cambiamento climatico ma anche sulle soluzioni che possiamo mettere in atto.

 

Come è nata l’idea di avvicinare la scienza al mondo del gaming?

Tutto è partito dal fatto che spesso venivamo chiamati nelle scuole per fare degli interventi divulgativi circa le tematiche dei cambiamenti climatici. Arrivati lì, gli strumenti di cui disponevamo erano quelli tradizionali ma per parlare di un tema così complesso, far vedere “solo” dei grafici rende l’argomento di difficile comprensione e c’è la possibilità, non remota, che si diffonda nell’auditorio la sensazione che “il problema” sia molto lontano dalla nostra realtà. Il bello del gioco, invece, sta nel fatto che ci ha permesso di aiutare i giocatori a immedesimarsi nella problematica stessa, facendoli padroni e attori del loro piccolo pezzo di mondo. Avvicinare il mondo del gaming al cambiamento climatico ci ha permesso di passare le stesse informazioni di sempre ma in maniera giocosa, innovativa e coinvolgente.

 

Quali sono stati, secondo voi, gli elementi decisivi suoi quali si è puntato all’inizio per coniugare il necessario interesse dei giocatori con il perseguimento dei vostri obiettivi? E ci sono stati degli aspetti che vi hanno sorpreso, dei suggerimenti arrivati direttamente dai giocatori?

All’inizio ci ha aiutato molto la decisione di co-ideare il gioco insieme a un nutrito gruppo di persone, ciascuna con competenze diverse. Tra queste avevamo principalmente: gamers, sviluppatori di videogiochi, che conoscevano le meccaniche utili per aiutarci a raggiungere i nostri obiettivi, poi c’erano gli educatori e, ovviamente, gli scienziati. Il processo di co-creazione ci ha permesso di ottenere un gioco altamente stimolante e meno ‘noioso’. Uno dei suggerimenti più preziosi arrivatici dal gruppo dei gamer è stato quello di inserire la modalità multiplayer, alla quale non avevamo inizialmente pensato, ma che, ad oggi, soprattutto nelle scuole, è una delle forze trainanti del successo di Change Game. e permette di convogliare bene il messaggio che nessun può risolvere questa crisi da solo ma è necessario il contributo di tutti e collaborare per raggiungere obiettivi così ambiziosi.

 

Anche se è il gioco è disponibile solo da un anno, avete raccolto già dati per valutare l’impatto sulla sensibilità dei fruitori rispetto alle tematiche del cambiamento climatico?

Sì, è vero il gioco è uscito solo il novembre scorso ma abbiamo avuto tantissimi feedback lungo tutte le fasi della creazione e ad esse si sono aggiunte quelle arrivate dai social dopo l’uscita. Ma devo dire che i riscontri più utili sono arrivati dalle conversazioni nelle classi. Il lavoro con le classi era diviso in due sessioni, nella prima spiegavamo il gioco e poi tornavamo dopo due settimane e coglievamo l’occasione per confrontarci circa quello che gli studenti avevano appreso e quelle che erano state le difficoltà. Ad oggi contiamo diverse migliaia di persone che lo hanno scaricato e questi numeri sono frutto di un passaparola continuo e troviamo che questa cosa sia molto positiva. Nelle versioni future vorremmo integrare tutti i suggerimenti raccolti per creare uno strumento di consapevolizzazione che duri nel tempo.

Parafrasando Alberto Sordi ne “Il Marchese del grillo”, e riferendoci a Change Game, è possibile lasciare un monito a tutti i giocatori: “Quanno se gioca bisogna esse seri”.


Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254
< Torna indietro
Ambiente, società e tecnologia

L’innovazione a sostegno delle future Mamme

Facciamo il punto della situazione

Tutto quello che gravita attorno alla sfera riproduttiva e, in particolare, nell’ambito della tutela fisica e psicologica della futura mamma e del feto mostra, ancora oggi, i limiti e l’indifferenza che per secoli gli sono stati riservati.

È la stessa Dubravka Šimonović (Relatrice speciale sulla violenza contro le donne del Consiglio per i diritti umani), che nell’ottobre 2019 ha presentato un Rapporto annuale all’Assemblea Generale delle Nazioni Unite, in cui affermava che “il maltrattamento e la violenza di genere nei servizi di salute riproduttiva e durante il parto si verifichino in tutto il mondo, sia nei cosiddetti Paesi in via di sviluppo, sia nei Paesi più ricchi, e le vittime di tali violenze appartengono a livelli socioeconomici trasversali“; arrivando, così, a riconoscere  la violenza ostetrica come “violazione dei diritti umani e vera e propria violenza di genere“.

Basti pensare che non vi è ancora una cultura di massa “accreditata” che prepari per tempo coloro che scelgono di avere figli, tanto che i futuri genitori, quasi per consuetudine, si affidano “semplicemente” al sapere del medico di riferimento e soltanto quando si è pronti al grande passo (e questo nella maggior parte dei casi). Se poi ci si volesse informare al di fuori dell’ambiente sanitario conosciuto, si incorre in un’alluvione informativa che vede da una parte blog e profili su Instagrame TikTok di ostetriche famose e non e, dall’altra, community di future mamme o di neomamme che si raccontano suFacebook.

La ricerca si fa più impegnativa quando il focus è l’innovazione all’interno del settore.

I siti ufficiali, quindi, sono pochi e ci si ritrova a dover spendere diverso tempo nella ricerca, con l’auspicio di aver raccolto tutte le informazioni necessarie.

 

Facce della stessa medaglia

Quanto affermato in precedenza rappresenta solo la “faccia” più nota del tema sulla gravidanza;  questo articolo, invece, vuole  rendere noto ciò che ai più è celato e guidare i lettori verso una maggiore consapevolezza su quanto venga offerto, in termini di innovazione.

I problemi precedentemente elencati, quindi, rientrano in tre macro temi che fanno capo alle direttive del 2018 dell’OMS(56 per l’esattezza), nate per mettere al centro ogni donna, diversa l’una dall’altra.

 

Tradizioni e Safe place: come tutelarli

Come anticipato precedentemente, è importante che una donna venga rispettata e tutelata, che si senta capita e al sicuro nel proprio ambiente e in quello sanitario.

Ogni donna, infatti, vive secondo le proprie tradizioni e con ritmi e abitudini legati anche alla sua posizione economica. Di conseguenza, poter limitare i “danni” legati al cambiamento climatico, all’inquinamento e all’igiene, fa sì che ci siano meno rischi per il feto.

A tal proposito è possibile citare l’app Water Birth (disponibile solo su iOS) nata in seguito ad uno studio condotto nell’Unità operativa complessa di Ostetricia e ginecologia dell’ARNAS-Civico di Palermo assieme a Pharma Mum.

Uno dei principali problemi del parto in acqua era che il medico presente non potesse misurare l’intensità e la frequenzadelle contrazioni e del battito cardiaco (del feto). Ma grazie all’Apple Watch 2 e all’app  è possibile scegliere di partorire in tale modalità e in totale sicurezza.

Un’altra opportunità creata in quest’ottica, è offerta dalla startup svizzera Rea e dal suo dispositivo medico: si tratta di un assorbente intelligente dotato di “un sistema microfluidico, di un’unità di biosensing e di un sistema di lettura“, creato per monitorare le partorienti che rischiano un parto pretermine.

Il suo utilizzo, inoltre, risulta intuitivo anche per i futuri genitori proprio grazie alla rispettiva applicazione su telefono, in cui è possibile visionare i risultati dei test.

Questa combinazione di fattori fa sì che le future mamme possano restare entro le quattro mura di casa ed evitare lunghe degenze ospedaliere e un eccessivo stress psicologico.

 

La “diversità” non è più un limite

Se è vero che ogni donna deve essere messa al centro ed essere assistita in funzione dei suoi bisogni, ne consegue che qualsiasi limite fisico della futura mamma meriti attenzione.

Non a caso il designer e professore Jorge Roberto Lopes dos Santos ha sviluppato, presso l’Instituto Nacional de Tecnologia in Brazil, “nuove tecniche di costruzione di modelli computerizzati tridimensionali utilizzando i dati provenienti da ecografie e da altre tecniche di acquisizioni immagini“, così da ricreare nel dettaglio il feto e crearne un modello tangibile per le mamme cieche.

Un altro sistema simile è stato creato dalla società Orcam e si tratta dell’Orcam My eye 2.0, un dispositivo di visione assistita (si tratta di una telecamera con un altoparlante integrato) che permette di acquisire immagini, video e parole (stampate o su video) per aiutare le persone non vedenti, ipovedenti e dislessiche nelle loro attività quotidiane.

Dotato di una calamita, può essere posto su qualsiasi paio di occhiali e dare alla mamma (in questo caso) la possibilità di vedere il proprio feto.

 

Attenzione e cura del feto

Alcune malformazioni del feto non è possibile diagnosticarle con la tradizionale tecnica a immagini bidimensionali, perché richiedono uno studio più “approfondito” del feto e, quindi, di uno studio in 3D e si tratta dei tessuti molli, della spina bifida, di alcune patologie del sistema nervoso centrale (legate, per esempio, al cervelletto), dell’apparato muscolo scheletrico (studio della colonna vertebrale anche a 21 settimane) e del cuore (le cui malformazioni sono le più comuni ma anche le più difficili da individuare).

In quest’ultimo caso si parla anche di ecografia 3D-4D e della tecnica detta STIC (Spatio-Temporal-Image-Correlation) che “consente di studiare la funzionalità del cuore, ed i movimenti delle sue strutture anatomiche, attraverso lo studio di un ciclo cardiaco virtuale ricavato da svariati cicli sovrapposti“.

 

Formazione e informazione

In tal senso è stata sviluppata in Italia, e più precisamente in Toscana, l’applicazione Happy Mama, nata in collaborazione con il Laboratorio Management e Sanità della Scuola Sant’Anna di Pisa.

Lo scopo di quest’app è, appunto, “facilitare le donne nell’accesso e nell’utilizzo dei servizi per la gravidanza, il parto ed il primo anno di vita del bambino“.

Nel sito ufficiale, oltre a poter scaricare una brochure e visionare un tutorial, è possibile leggere le funzionalità di Happy Mama che vanno dalla possibilità di poter avere un’agenda in cui scaricare il calendario vaccinale del proprio bambino e attivare dei promemoria, di reperire informazioni (validate da professionisti del settore) sulla cura della mamma e del neonato (in più lingue), fino a trovare gli esami da effettuare (prenotabili da app).

Ovviamente questo è un modo innovativo per intraprendere questo percorso. Ma a ciò si affiancano comunque alcuni dei grandi punti di riferimento in tale ambito ovvero la Fondazione per la Medicina Fetale creata da Kypros Nicolaides ma anche il The JJ Way e il Birth Place fondati da Jennie Joseph e l’OMS stessa ovviamente.

Infatti, quanto elencato per ogni macro tema rappresenta solo alcune delle nuove tecnologie presenti sul mercato; ma avere una base da cui far partire le ricerche garantisce una maggiore consapevolezza e una più ampia autonomia di giudizio e di azione, laddove soltanto “gli addetti ai lavori” ne detenevano il potere.


Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254

Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254
< Torna indietro
Ambiente, società e tecnologia

Campagna vaccinale: tra incertezza e rischio. Le parole di Giancarlo Sturloni

A poco più di un mese dall’apertura dell’ultima fase della campagna vaccinale, che dal 3 giugno vede coinvolta tutta la popolazione italiana con età superiore ai 12 anni, abbiamo deciso di chiedere il parere di un esperto. Oggi è qui con noi Giancarlo Sturloni, giornalista scientifico, specializzato nella comunicazione del rischio per la salute e per l’ambiente.

 
Buongiorno Professor Sturloni, iniziamo intanto col chiederle cosa si intende per “comunicazione del rischio”?

Nella gestione del rischio, oggi la comunicazione è considerata uno strumento essenziale per salvare vite umane e proteggere l’ambiente, e per questo motivo dovrebbe accompagnare tutte le fasi della gestione dei rischi naturali e antropici.

Serve a veicolare e condividere delle informazioni in modo tale che le persone possano sapere a quali rischi sono esposte, come proteggersi e quali sono le possibili contromisure da adottare. In particolare si configura come uno strumento della comunicazione istituzionale, ma può assumere diverse forme e la si può trovare tanto all’interno di un articolo di giornale che all’interno della comunicazione interpersonale.

La comunicazione del rischio ha lo scopo di rendere consapevole la cittadinanza e, proprio per questo, racchiude in sé sia l’aspetto della prevenzione, sia quello dell’emergenza e, in parte, anche l’aspetto circa le controversie sulla gestione dei rischi. Esistono, infatti, dei rischi che sono oggetto di dibattito sociale come, per l’appunto, i vaccini.

Per sintetizzare: la comunicazione del rischio è uno strumento che si è sviluppato nell’ambito della gestione del rischio per far fronte alla necessità di scambiare informazioni circa i pericoli a cui si è esposti.

 
In una campagna di comunicazione del rischio quali sono i fattori assolutamente da evitare?

In generale c’è una regola, che purtroppo spesso viene disattesa, ma che è la più importante ed è quella di non sminuire, non nascondere e non negare mai un rischio.

Bisogna ricordare sempre che l’obiettivo è quello di far sì che le persone facciano qualcosa per proteggersi. Per questo, se il rischio viene sminuito si incorre nell’eventualità che la popolazione non faccia abbastanza.

Uno degli esempi più calzanti ci viene fornito proprio dalla pandemia: l’estate scorsa, ad un certo punto, si è diffusa l’idea errata, sostenuta anche da alcuni esperti, che l’epidemia fosse ormai finita e che dunque fosse possibile tornare alla vita normale. Questo ha portato la popolazione ad abbassare la guardia e ciò ha favorito, nell’autunno successivo, una seconda ondata ben peggiore della prima.

Eppure, fin dai tempi di Chernobyl è noto che ogni volta che si cerca di nascondere un rischio o di sminuirne la gravità la popolazione non fa abbastanza per proteggersi, portando inesorabilmente all’aumento delle vittime.  Non è un caso che i paesi in cui ci sono state registrate più casi e più esiti mortali siano stati gli Stati Uniti, l’India e il Brasile, paesi in cui governi negazionisti non hanno ammesso la gravità del rischio generando una serie di conseguenze molto gravi.

Poi sono presenti, a livello internazionale, una serie di regole e alcuni principi volti a garantire la credibilità e la coerenza delle istituzioni che hanno il compito di gestire e comunicare i rischi, oltre che a favorire il dialogo tra le istituzioni stesse e i cittadini.

Ad esempio, quando hai un rischio emergente, ossia un rischio che si presenta per la prima volta o che ha caratteristiche nuove, come è stato per il coronavirus, è necessario avere una enorme cautela e ci si dovrebbe sbilanciare sempre dalla parte della sicurezza.

Con ciò non si nega affatto che possano esserci anche delle questioni controverse che, spesso, vengono amplificate sia dall’incertezza intrinseca al problema sia dalle scarse conoscenze che si hanno a disposizione.

Sebbene sia complesso, anche in questi casi per salvare più vite possibile è necessario agire tempestivamente senza aspettare di conoscere tutto prima di prendere delle decisioni. Si sa, l’incertezza può dare adito alla presenza di pareri discordanti e questo aspetto è di facile rinvenimento se si pensa all’intera situazione pandemica: in diversi momenti, molti esperti, hanno offerto opinioni personali in assenza di un consenso univoco della comunità scientifica, creando una vera e propria un’infodemia, un eccesso di informazioni talvolta contradditorie.

Purtroppo, a gravare ulteriormente su questa situazione, è intervenuta l’incapacità delle istituzioni di riuscire a fornire delle informazioni affidabili, aggiornate e, soprattutto, in grado di fugare i dubbi e chiarificare le incertezze. Infine, per quanto non ce ne dovrebbe essere bisogno, tocca sottolineare come sia necessaria una certa coerenza tra le informazioni date e le decisioni che vengono prese dalle istituzioni.

 
All’interno dei piani di gestione pandemica qual è il ruolo della comunicazione del rischio?

Riferendoci a questa campagna vaccinale dobbiamo dire che purtroppo la campagna di comunicazione non ha giocato un ruolo fondamentale, come è facilmente deducibile dalla lettura del piano vaccinale: le parole comunicazione e informazione non sono mai citate, il che significa che la comunicazione non è mai stata considerata come strumento strategico. Eppure è il modo più congeniale per dare informazioni alle persone e indicare loro i comportamenti responsabili da seguire. Attraverso tutto questo si sarebbero potute salvare delle vite.

Ricordiamo che, in Italia, sono pochissime le persone contrarie a tutti i vaccini, una fetta di popolazione che non ricopre più dell’1-2%. Una percentuale irrilevante ai fini della copertura vaccinale e che potrebbe essere ignorata in quanto non costituisce un ostacolo per il raggiungimento dell’immunità. Quindi sarebbe stato più opportuno profondere energie per convincere quel 20-30% della popolazione che non è contrario a prescindere ma che nutre dei dubbi verso questo tipo di vaccinazione.

Ciascuno degli appartenenti a questa categoria ha i propri dubbi, riferiti alla propria esperienza e al proprio modo di vivere e questo perché non per tutti è uguale il rischio e non per tutti è uguale il beneficio.

Alle persone serve un’enorme quantità di informazioni per farsi un’idea all’interno di questa complessità e sono proprio queste le informazioni che sono un po’ mancate. E sono mancate proprio perché la comunicazione non è stata vista come uno strumento protagonista della campagna di vaccinale stessa.

Basti pensare che, ancora oggi, non esiste un sito unico del governo dove sono raccolte tutte le notizie aggiornate sul coronavirus.

La mancanza di informazioni chiare e facilmente accessibili ha certamente contribuito al rallentamento della campagna vaccinale. Nelle diverse fasce d’età, questa ha fatto registrare alti tassi di adesione fino a che ha coinvolto le persone già convinte di volersi vaccinare ma che ha subìto una battuta d’arresto quando avrebbe dovuto coinvolgere le persone che si sarebbero convinte a seguito della dissoluzione dei dubbi che nutrivano a tal proposito.

Comunque, anche se non di grande consolazione, c’è da dire che questo non è stato un problema solo italiano ma lo si è registrato anche in altri paesi. Dal mio punto di vista, una campagna vaccinale senza precedenti non avrebbe dovuto prescindere da una campagna di comunicazione senza precedenti.

 
Come mai, in Italia, esistono delle sacche di resistenza? Come si può rimediare?

In realtà, come ci raccontano gli storici della medicina, le controversie sui vaccini sono cominciate ancora prima dell’arrivo dei vaccini e parliamo dell’Inghilterra del ‘700, quando si sperimentò la cosiddetta variolizzazione.

Questo denota che non siamo di fronte a una questione nuova perché i vaccini hanno sempre trovato una forte opposizione. Il che è comprensibile se si pensa che questi, al contrario dei medicinali, prevedono la somministrazione di un farmaco a una persona sana e non sono esenti da possibili effetti avversi.

Tornando alla campagna vaccinale contro il coronavirus, data la sua estensione era normale che emergessero degli effetti collaterali rari e ce li si aspettava ed è la ragione per cui () va sempre valutato il rapporto tra rischi e benefici. È una cosa che vale per qualunque farmaco ma in questo caso con una sostanziale differenza che risiede nel fatto che i medicinali sono somministrati per alleviare un malessere già presente, mentre il vaccino viene fatto nel momento in cui il soggetto è sano.

Questa elementare constatazione costituisce un’enorme differenza dal punto di vista psicologico e, per questo, un certo grado di opposizione ha sempre accompagnato la storia delle vaccinazioni, nonostante gli evidenti benefici di questa pratica medica.

In questi casi è la fiducia che può fare la differenza. Se è presente la fiducia nelle autorità medico-scientifiche e nelle istituzioni che promuovono la vaccinazione, le sacche di resistenza possono essere di gran lunga ridotte. Si aggiunga a ciò che questa volta si era alla presenza di vaccini completamente nuovi ed è normale che la popolazione possa nutrire qualche dubbio in più su di essi. Per questo è fondamentale non abbandonare quel 20-30% della popolazione che non rifiuta i vaccini ma che semplicemente si pone degli interrogativi, più o meno fondati ma legittimi, legati al fatto che non sono state fornite loro tutte le motivazioni necessarie. È importantissimo avere la fiducia di questi ultimi, sono loro a fare da ago della bilancia per raggiungere l’immunità di gregge e portare a compimento la campagna vaccinale.

 
Il suo parere sulla gestione della pandemia dal punto di un comunicatore del rischio

Come già detto, per una buona campagna vaccinale è necessario rendere fruibili tutte le informazioni disponibili, sia sui benefici che sui rischi, in modo chiaro e trasparente. Purtroppo questo sforzo di comunicazione, nella nostra campagna vaccinale, è stato fatto solo in parte.

Alcune volte potrebbe essere premiante affiancare a quella vaccinale una campagna di marketing sociale con pubblicità e testimonial, esercitando in questo modo una spinta in più. In seguito, si può lavorare sulle reti di comunicazione personale coinvolgendo anzitutto i medici di famiglia, ma anche usando i social che purtroppo non hanno avuto alcuno spazio in questa campagna.

Cambiando solo per un momento ambito: sai qual è il metodo migliore per convincere una persona a mettere i pannelli solari?

Dirle che i suoi vicini di casa lo hanno già fatto.

Come esseri umani, tendiamo a fare quello che fanno le persone attorno a noi, sono meccanismi che vanno conosciuti e sfruttati e sono strategie che vanno oltre il semplice predisporre un sito informativo.

Quindi, più che concentrarsi sugli “irriducibili”, una campagna di comunicazione dovrebbe concentrarsi sulle persone che possono essere facilmente portate dalla tua parte con uno sforzo di informazione, persuasione o di interazione e dialogo.

Certo non è una cosa semplice quando si ha tra le mani una campagna vaccinale di dimensioni nazionali, ma sicuramente in un momento così storicamente importante è fondamentale profondere energie in tali soluzioni.

Il comunicatore del rischio deve condividere le informazioni e fornire delle motivazioni che non possono essere generali: un anziano non ha le stesse motivazioni di un giovane; anche per questo stilare un piano di comunicazione è estremamente complesso.

Non si può parlare alla popolazione come se fosse un gruppo omogeneo in termini di conoscenze, percezioni e aspettative, ma è necessario segmentarla in sottogruppi quanto più omogenei possibili e per ciascuno trovare una strategia che deve tenere conto di moltissime cose, come: quali sono le informazioni che già possiedono? Quali sono i dubbi che potrebbero avere, e dove cercano solitamente le informazioni? Come possono essere motivati e incentivati?

E c’è chi le ha provate davvero tutte, ad esempio, quando la campagna vaccinale sembrava aver perso il proprio smalto, lo stato americano di Washington, dove è legalizzato l’uso della cannabis, ha promosso la campagna “joints for jabs” in cui, per vaccinarsi, veniva offerto uno spinello.

L’adesione alla campagna vaccinale è subordinata alla percezione del rischio, e gli adulti solitamente percepiscono il rischio in maniera più intensa rispetto ai giovani. Anche questo va tenuto in considerazione: le diversità, in comunicazione, contano. Le strategie in proposito vanno decise prima ancora di iniziare la campagna vaccinale e vanno scelte studiando i segmenti del pubblico.

È necessario individuare, per ciascun segmento, quale sia il modo migliore per cercare di portarlo alla vaccinazione e, ribadisco, questo è qualcosa che va fatto fin dall’inizio.

Non ci si dovrebbe mai trovare nella situazione in cui si insegue il problema.

Tutte le campagne di valutazione della salute sono studiate a fondo e nei paesi anglosassoni hanno tantissimi manuali dedicati; non dovrebbero mai essere improvvisate e, ad esse, deve essere dedicata una buona fetta delle risorse affinché tutto possa essere fatto al meglio.

 
Dal suo punto di vista, se non ci fossero delle “restrizioni”, quale sarebbe la percentuale reale di vaccinati?

A questa domanda non penso si possa rispondere, sono troppe le variabili in gioco. L’adesione a una campagna vaccinale con queste dimensioni può variare per mille fattori. Prendiamo come esempio il Green pass: non introduce un obbligo vaccinale tanto che il certificato è ottenibile ugualmente esibendo un tampone negativo. Quindi il Green pass si configura come un incentivo alla vaccinazione e non come un’impossibilità. Sono moltissimi gli studi che cercano di comprendere come l’introduzione dell’obbligo vaccinale possa favorire il raggiungimento della copertura. I fattori che vengono coinvolti sono molto diversi: dal tipo di società al periodo storico in cui ci si trova.

Ad oggi, la lezione più importante ci arriva dalla storia: eravamo circa a metà dell’Ottocento quando l’Inghilterra decise di introdurre l’obbligo vaccinale provocando un duro scontro sociale.

L’ideale per una società democratica sarebbe quello di riuscire a far sì che le persone siano informate, responsabilizzate e che a quel punto facciano una scelta libera e consapevole; tutto ciò li rende a loro volta testimonial positivi all’interno del loro stesso tessuto sociale. L’obbligo deve essere l’ultima risorsa e, secondo me, può essere comprensibile e accettabile solo per certe categorie come, ad esempio, gli operatori sanitari.

In conclusione, la cosa migliore sarebbe evitare il più possibile misure coercitive o punitive proprio perché tali operazioni potrebbero favorire la polarizzazione dell’opinione pubblica e lo scontro che ne deriva rischia di amplificare tutta una serie di conflitti sociali che sarebbe meglio evitare.

Inoltre è stato studiato che tra gli elementi che aggravano la percezione del rischio c’è proprio l’imposizione di un rischio, grande o piccolo che sia; e ciò vale anche per i rischi associati alle vaccinazioni, che pur essendo di gran lunga inferiori ai benefici, possono essere considerati inaccettabili se vissuti come un’imposizione.

Alcune volte l’introduzione dell’obbligo potrebbe far decrescere il numero di persone disposte a farsi vaccinare, sebbene potrebbe anche spingere verso la vaccinazione quelli che non la vedono come una priorità. Quindi torno a ribadire: meglio un consenso informato che genera persone convinte che un obbligo che rischia di generare “testimonial negativi”.

Ma una risposta univoca non può assolutamente esserci e a maggior ragione in questi casi è necessario guardarsi bene dalle prese di posizioni ideologiche.


Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254
< Torna indietro
Ambiente, società e tecnologia

Città ecosostenibili e colorate con i murales mangia smog

Rendere le nostre città non solo più pulite dallo smog ma anche più colorate oggi è possibile grazie agli eco-murales. Prodotti con una particolare polvere per pittura, questi murales sono in grado di purificare l’aria intorno in modo naturale. Questa speciale polvere si chiama Airlite e sta diventando sempre più utilizzata dagli street artist e non solo, in Italia e in tutto il mondo.

 

La tecnologia di Airlite

Ideata da Massimo Bernardoni, Airlite è in grado di ridurre gli inquinanti presenti nell’aria attraverso un processo simile alla fotosintesi. Airlite agisce in presenza di luce attivando un processo di fotocatalisi, si legge sul suo sito. Si crea una concentrazione di elettroni che interagiscono con l’acqua e l’ossigeno dell’aria e generano ioni negativi. Gli ioni con una reazione chimica si legano alle sostanze inquinanti, trasformandole in diversi tipi di sali non pericolosi.  La sua azione si manifesta sulla superficie delle pareti su cui i sali si fissano ma grazie alla caratteristica dell’aria di circolare, i suoi effetti si estendono a tutto l’ambiente circostante. Infatti, il processo è ripetuto più volte in quanto per saturare di sali una parete occorrono più di 500 anni.

Ma i benefici di Airlite non sono solo questi. Poiché riflette la maggior parte della componente infrarossa dei raggi solari, che è responsabile del calore, è in grado di mantenere freschi gli ambienti senza dovere utilizzare gli impianti di condizionamento, riducendo così il consumo di energia elettrica nel periodo estivo. Inoltre, Airlite non ha bisogno di molta manutenzione perché impedisce allo sporco e alla polvere di depositarsi sulle superfici. Questa sua caratteristica è dovuta dalla capacità di decomporre le sostanze oleose e di creare un sottile strato superficiale di acqua, impedendo così alle polveri e ad altre particelle di fissarsi sulla parete.

Nel 2019 è stata citata dalle Nazioni Unite come una delle quattro innovazioni in grado di migliorare la qualità dell’aria.

 

Gli eco-murales

I murales dipinti con Airlite sono come un bosco invisibile. Dipingendo un murales su un edificio grigio è come se stessimo piantando alberi nelle città. È ovviamente chiaro come questo possa essere utile nelle grandi città, densamente urbanizzate e povere di spazi verdi. La scelta di utilizzare Airlite si sta così diffondendo in Italia e in tutto il mondo, sia grazie all’influenza di street artist famosi ma anche di associazioni sensibili alla tematica ambientale.

È il caso di Yourban 2030, un’associazione no profit fondata da Veronica De Angelis nel 2018 che è oggi diventata associazione pilota nella street art green. Yourban 2030 ha, infatti,  come obiettivo quello di sensibilizzare le persone sui cambiamenti climatici e i relativi problemi attraverso l’arte nelle sue molte forme, tra cui la street art. L’idea nasce, dice De Angelis nel suo TEDx Talk a Vicenza, dopo aver visto il grande cambiamento di un quartiere periferico di Miami grazie alla street art. Decide di voler portare quel cambiamento in Italia e come punto di partenza sceglie di usare un edificio di Roma ereditato dal padre. Scopre successivamente Airlite e durante un viaggio a New York conosce Federico Massa, in arte Iena Cruz, un artista di strada già sensibile alle tematiche ambientali. Nasce così Yourban 2030 e poco dopo il suo primo progetto: Hunting Pollution. Inaugurato a ottobre 2018, Hunting Pollution è il più grande green murales d’Europa. Rappresenta un airone multicolore, una specie in via d’estinzione, che caccia la sua preda in un mare inquinato. L’airone è ignaro del fatto che quella preda è contaminata e per lui letale. Oltre che al beneficio palpabile di purificare l’aria, Hunting Pollution ha anche un forte significato simbolico: vuole rendere l’uomo consapevole delle azioni sull’ambiente.

Dal 2018 Yourban 2030 ha realizzato molti altri progetti in Italia e promosso murales nel resto del mondo coinvolgendo anche artisti di strada internazionali. Negli Stati Uniti il primo murales mangia smog è stato inaugurato il 5 giugno 2021, Giornata Mondiale dell’ambiente. Realizzato da Amanda Phingbodhipakkiya, artista di origini asiatiche, e promosso da Yourban 2030 il murales è intitolato “Stand with us” e ha l’obiettivo di sensibilizzare le persone verso i numerosi episodi di razzismo degli ultimi tempi contro la comunità asiatica e celebrarne l’orgoglio.


Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254
< Torna indietro
Ambiente, società e tecnologia

Luglio senza plastica: dalla sfida sul web alla direttiva europea sulla plastica monouso

L’enorme quantità di prodotti di plastica presenti oggi è un problema. È un problema per il nostro pianeta e per tutti gli esseri viventi che lo abitano, ma la colpa è solo di uno: l’essere umano. Abbiamo inquinato con la plastica i nostri oceani, le nostre montagne e il nostro cibo. È un problema che non si ferma ai confini dei Paesi, ma riguarda tutti indistintamente.

 

Dati allarmanti

La produzione di plastica è cresciuta in modo preoccupante negli ultimi 50 anni, passando dai 15 milioni di tonnellate nel 1964 ai 311 milioni di tonnellate nel 2014 e ci si aspetta che aumenterà ancora, quadruplicando nel 2050. Di questi, il packaging rimane la principale applicazione. Il packaging in plastica è infatti comodo per il trasporto perché leggero e perché permette di conservare in buono stato il cibo più a lungo. Il 72% del packaging prodotto, però, non è riciclato: il 40% finisce in discarica, mentre il restante 32% si perde nella catena di raccolta. Ciò comporta, dati alla mano, una grandissima quantità di rifiuti di plastica dispersi in natura o che sono smaltiti in modo illegale con conseguente danno all’ambiente. Nel 2014, la quantità di plastica negli oceani era, in peso, un quinto dei pesci presenti. Secondo lo studio The New Plastics Economy: Rethinking the future of plastics, se non modificheremo il nostro modo di vivere e di consumare e se i sistemi di raccolta non diventeranno più efficienti, entro il 2050 negli oceani “nuoteranno” più rifiuti di plastica che pesci.

Il più conosciuto e grande accumulo di rifiuti di plastica nell’oceano è il Great Pacific Garbage Patch: un’enorme isola di spazzatura galleggiante, più o meno al centro dell’Oceano Pacifico. L’immaginario comune porta a pensare questo accumulo come una vera e propria isola fatta di rifiuti ma è piuttosto una massa galleggiante di piccoli frammenti di plastica di rifiuti più grossi in seguito alla degradazione meccanica dell’acqua e della luce solare. Non è un fenomeno che riguarda solo la superficie delle acque, bensì anche le zone più in profondità e non essendo osservabile a occhio nudo non è possibile determinare la sua estensione con precisione. Secondo uno studio pubblicato su Nature, la chiazza sta rapidamente aumentando di massa ed estensione più velocemente di quanto atteso. L’accumulo è dovuto alle correnti oceaniche che trasportano i rifiuti, che poi rimangono intrappolati in tali zone anche per anni degradandosi nei piccoli frammenti.

Sono dette microplastiche i pezzi di plastica più piccoli di 5 mm. Una quantità sempre maggiore si sta riscontrando non solo nelle grandi isole di plastica ma nell’ambiente in generale e di conseguenza anche nel cibo che consumiamo e l’acqua che beviamo. Nell’ambiente, infatti, le microplastiche non si degradano ma tendono ad accumularsi costituendo un rischio per le specie animali ma potenzialmente anche per la salute degli esseri umani.

L’accumulo di rifiuti non è un problema troppo distante da noi e non riguarda soltanto le microplastiche: il Mar Mediterraneo costituisce meno dell’1% della superficie di mare e oceani ma è la sesta area al mondo in cui troviamo più rifiuti. Secondo l’indagine Beach Litter 2021 dell’iniziativa Spiagge e Fondali Puliti di Legambiente sulle spiagge italiane è presente una media di 783 rifiuti ogni cento metri lineari di spiaggia e l’84% di questi è di plastica. Il numero supera di molto il valore di riferimento stabilito a livello europeo per considerare una spiaggia in buono stato ambientale che si attesta a meno di 20 rifiuti ogni 100 metri lineari di costa. I rifiuti censiti da Legambiente sono per lo più di oggetti usa e getta e legati all’emergenza sanitaria, come mascherine e guanti, ritrovati rispettivamente sul 68% e sul 26% delle spiagge.

Ma Legambiente non è l’unica. In questi anni, molte organizzazioni e attivisti in tutto il mondo hanno denunciato il problema della plastica e avviato iniziative che potessero sensibilizzare le persone e spingere i governi ad agire. E oggi, grazie alle iniziative e grazie agli influencer che fanno dello zero waste e della sostenibilità la loro mission, sempre più persone si dichiarano sensibili al problema e si mobilitano nel loro piccolo per un consumo più consapevole.

 

#PlasticFreeJuly

Il Plastic Free July è un’iniziativa della Plastic Free Foundation, un’organizzazione no profit australiana fondata nel 2017 ma la cui missione è iniziata nel 2011, proprio con l’avvio di questo progetto. Il suo scopo è quello di arrivare a un mondo senza rifiuti di plastica e quindi a un mondo in cui nemmeno la si utilizza, attraverso una maggiore consapevolezza e la convinzione che ognuno di noi possa fare la differenza.

L’iniziativa parte dall’azione di un numero ristretto di persone e con il diffondersi dei social media e grazie a una sensibilità ambientale sempre più diffusa è diventata oggi una delle campagne eco-friendly più seguite a livello globale. L’iniziativa consiste nel cercare di non servirsi della plastica per l’intero mese di luglio. Ciò può significare scegliere di acquistare sfuso ciò che normalmente compriamo confezionato e utilizzare prodotti solidi invece che liquidi o più semplicemente evitare prodotti in plastica monouso.

Sul web il #PlasticFreeJuly è diventata una vera e propria challenge con cui eco-influencer e attivisti invitano i propri follower a aderire all’iniziativa tramite piccole azioni quotidiane. Anche sul sito dell’organizzazione è possibile trovare un elenco di cose che possiamo fare a casa, al lavoro per ridurre l’utilizzo della plastica nella nostra vita.

Come tutte le iniziative che invitano i consumatori a compiere scelte più consapevoli, è auspicabile sperare che dopo il mese una vita plastic free diventi la norma. Solo nel 2020, come riportato nel documento pubblicato dalla fondazione, si stima che abbiano partecipato al #PlasticFreeJuly almeno 326 milioni di persone in tutto il mondo per un totale di 900 milioni di kg di rifiuti di plastica evitati. Il numero dei partecipanti all’iniziativa è aumentato rispetto a quelli del 2019, nonostante la situazione pandemica abbia reso necessario un maggiore uso della plastica, in particolare di quella monouso.

Questo è un chiaro segnale di come il tema della plastica stia diventando importante per sempre più persone. I dati mostrano l’urgenza del problema e la necessità per i governi di introdurre una legislazione sulla produzione di prodotti di plastica e la conseguente immissione sul mercato in accordo con i dati di oggi. L’Unione Europea ha adottato nel 2019 ulteriori misure per ridurre la quantità di prodotti di plastica nell’ambiente. Un aspetto riguarda in particolare la plastica monouso e i primi provvedimenti sono entrati in vigore sabato 3 luglio.

 

Plastica monouso: al bando dal 3 luglio

La direttiva dell’Unione Europea sulla riduzione dell’incidenza dei prodotti di plastica sull’ambiente adottata a giugno 2019 prevede dal 3 luglio una restrizione di immissione sul mercato per quanto riguarda alcuni prodotti di plastica monouso. Tra i prodotti disciplinati dalla direttiva troviamo i bastoncini cotonati, posate, piatti, cannucce, contenitori per alimenti e tazze per bevande, sacchetti ma anche i prodotti di plastica oxo-degradabile, un tipo di plastica che è in grado di decomporsi all’aria in tempi relativamente ristretti rispetto a quella “normale” ma troppo lunghi rispetto alla bioplastica. Se sono presenti alternative sostenibili convenienti, questi prodotti in plastica monouso non possono essere immessi sul mercato. La direttiva fornisce agli Stati ulteriori indicazioni sugli altri prodotti di plastica monouso: in particolare, le bottiglie in PET dovranno contenere almeno il 25% di plastica riciclata a partire dal 2025 e il rispettivo tappo di plastica dovrà rimanere attaccato per tutta la durata del suo uso. La normativa prevede anche un sistema di etichettatura chiaro e leggibile che comunichi al consumatore la presenza di plastica e l’incidenza negativa che ha sull’ambiente e le modalità corrette di smaltimento del rifiuto.

Il divieto però in Italia non sarà immediato per tutti i prodotti: infatti, con l’approvazione della legge di delegazione 53 per il recepimento delle direttive europee e l’attuazione di altri atti dell’Unione Europea il governo italiano ha stabilito un’esenzione per i contenitori per alimenti quando non è possibile l’uso di prodotti alternativi sostenibili o riutilizzabili.


Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254
< Torna indietro
Ambiente, società e tecnologia

Wafer al centro della carestia tecnologica mondiale

Se vi siete mai trovati nella situazione di dover cambiare auto, sapete quanto l’iter, solitamente molto lineare, nel 2021 sia diventato un vero rompicapo: le case di produzione riscontrano problemi nel reperire le parti elettroniche, ed in men che non si dica l’intera filiera si blocca.

Nell’ultimo anno infatti si è assistito ad una vera e propria corsa ai microchip da parte di aziende di differenti settori, nel tentativo disperato di riuscire a produrre i propri prodotti e non rischiare il fallimento durante la fase finale di questa pandemia.

 

Cosa sono i chip e perché sono diventati indispensabili

Un chip è un piccolo wafer fatto di materiali semiconduttori utilizzato per produrre un circuito integrato. I materiali semiconduttori sono quei materiali che possiedono un valore di conducibilità elettrica a metà tra un conduttore, come può essere il rame metallico, ed un isolante, come ad esempio il vetro. I più comuni sono il silicio ed il germanio.

Semiconduttori e microchip possiedono la caratteristica di servire da unità, permettendo all’elettricità di passare da una piattaforma all’altra.

Altro elemento indispensabile nello scacchiere della produzione dei microchip sono le terre rare, impiegate nella produzione di magneti o condensatori.

I chip rappresentano il “cervello” di qualsiasi dispositivo elettronico, sono quell’elemento che permette alla macchina di dare vita alle azioni per cui è stata progettata.

Sono l’elemento chiave del nostro presente: l’industria 4.0 in cui il 5G, con le smart home e le smart cities, le auto elettriche e la blockchain sono protagonisti.

 

I fatti

Le terre rare sono 17 elementi chimici, chiamate così per via degli elevati costi ambientali e sociali legati alla loro estrazione, si trovano inglobate nelle rocce unite ad altri minerali e sono geograficamente concentrate in diverse parti del mondo. La Cina rappresenta il leader, possedendo circa un terzo delle riserve mondiali, seguita da Vietnam, Brasile, Russia, India, Australia e Stati Uniti. Il primo motivo della crisi è rappresentato proprio dalle tensioni geopolitiche tra Stati Uniti e Cina.

Il Covid-19 ha impattato differenti aspetti della vita, sia per i consumatori che per i produttori.

I consumatori hanno dovuto rivoluzionare sia il loro approccio agli aspetti lavorativi, passando spesso da soluzioni “mobile” (utilizzando strumenti come smartphone e tablet) a postazioni fisse con l’ausilio dei computer portatili e desktop, sia per quanto riguarda il proprio modo di vivere la quotidianità all’interno delle proprie abitazioni: in molti hanno riscoperto la propria dimensione domestica, andando ad acquistare elettrodomestici ed elettronica, anche incentivati sia dall’esplosione degli e-sports insieme al rilascio delle nuove generazioni di console xbox e playstation, sia dagli imminenti appuntamenti sportivi che si sarebbero svolti durante l’estate.

I produttori che integravano nei loro prodotti dei chip hanno quindi iniziato a dover competere fra loro per accaparrarsi le scorte per continuare a realizzare i propri prodotti e superare la crisi dovuta alla situazione economica creatasi.

Tra i settori che hanno sofferto di più della situazione pandemica c’è quello automobilistico: dapprima con un forte backlog dovuto al crollo delle immatricolazioni dovuti ai lockdown, e in un secondo momento, complice la sempre più numerosa quantità di sistemi elettronici impiegati, dal difficile reperimento dei chip sui mercati. Basti pensare che in media sono presenti 1400 microchip all’interno di un’auto, la cui fabbricazione richiede in genere 12 settimane.

Ciò ha fatto sì che ci fosse un eccesso di domanda a fronte di una produzione geograficamente circoscritta tra Taiwan e la Corea del Sud.

 

Perché Taiwan?

A Taiwan ha sede la TSMC (Taiwan Semiconductors Manufacturing Company) che è il maggior produttore di chip a livello globale e il principale fornitore dell’industria automobilistica, insieme a United Microelectronics e Winbond, facenti parte dello stesso gruppo.

Essendo l’isola uno dei luoghi più piovosi al mondo, si è rivelata ben presto essere il luogo ottimale per la produzione perché i semiconduttori richiedono una fornitura stabile di acqua dolce.

Taiwan si trova ad affrontare un drammatico momento di siccità, un dato che preoccupa non solo gli abitanti dell’isola, ma scuote ancora di più lo scenario mondiale.

Le autorità locali stanno attuando differenti misure di emergenza come l’interruzione dell’ irrigazione dei terreni agricoli con l’intento di razionare il più possibile le riserve d’acqua e talvolta sospendendo le forniture nelle abitazioni per due giorni a settimana.

TSMC di fronte a tale situazione ha sviluppato ad un piano d’emergenza, realizzando un impianto di trattamento delle acque reflue così da poterle riutilizzare per produrre semiconduttori.

La manovra potrebbe essere in grado di recuperare nel processo produttivo 67mila tonnellate d’acqua entro il 2024, ma l’innovazione tecnologica, ossia la miniaturizzazione dei wafer, richiede quantità d’acqua sempre maggiori che la natura potrebbe non essere in grado di soddisfare e la manovra potrebbe rappresentare solamente un palliativo.

Il sistema EUV richiesto per la produzione di chip minori di 7 nm richiede 1600 litri d’acqua al minuto per il raffreddamento, mentre per produrre chip meno avanzati che usano il sistema DUV sono richiesti solamente 75 litri d’acqua al minuto, ciò rende più semplice la realizzazione di questi ultimi.

Secondo le stime della Semiconductor Industry Association, sarebbe necessario un investimento di 350 miliardi di dollari e 3 anni per sostituire l’operato della TSMC nel business dei semiconduttori.

 

Le aziende

Le stime di Ford riportano riduzioni nella produzione fino ad un milione di unità. Il quartier generale afferma che la carenza di chip rimarrà un problema fino al 2022. I modelli più colpiti sono Explorer, F-150, Mustang, e Lincoln Aviator.

General Motors si è trovata costretta a chiudere cinque dei suoi impianti tra Stati Uniti e Canada, licenziando 14mila dipendenti. I modelli che risentono maggiormente della crisi sono Camaro, Chevrolet Blazer, Cadillac. L’azienda guarda avanti ed approfitta di questo momento di crisi per cambiare i propri assetti strategici, puntando su veicoli ibridi.

Il nuovo gruppo Stellantis riscontra problemi dovuti ai chip ma anche per via di un calo ingente della domanda.

Nello stabilimento di Melfi, in Basilicata si è trovata a dover ricorrere alla cassa integrazione per oltre mille dei dipendenti dell’azienda lucana.

Peugeot prova a limitare i danni di questa crisi dicendo no al i-Cockpit, tornando a costruire cruscotti analogici.

Questa decisione, oltre che di vitale importanza per evitare l’arresto delle produzione, si trova essere conveniente anche per il consumatore perché avrà un risparmio di 400 euro sul prezzo delle auto.

L’azienda si trova ad affrontare perdite sul fronte Dodge Durango, Dodge Challenger e Charger e Ram.

 

Come risollevarsi dalla crisi?

Davanti a questi fatti, tutto il mondo sta cercando delle soluzioni per reagire alla concentrazione geografica, nella speranza di trarre insegnamenti utili per il futuro.

Intel ha finanziato un investimento da 20 miliardi di dollari per aggiungere due nuovi fab EUV nel suo stabilimento ad Ocotillo, in Arizona.

Gli Stati Uniti tramite il US Innovation and Competition Act stanno cominciando a mettere in atto tutte le misure necessarie, tramite una serie di interventi pubblici, per contrastare sia la Cina che la crisi dei chip.

La Commissione Europea approva il Piano Digital Compass riguardante la trasformazione digitale dell’Europa entro il 2030. Tramite il piano l’UE si pone l’obiettivo di ridurre la necessità di ricorrere a fornitori non europei per l’acquisto di semiconduttori. L’obiettivo è ambizioso: produrre il 20% dei semiconduttori.

Il progresso tecnologico non si starà scordando dei limiti imposti dall’ambiente? Se la tecnologia è diventata un bene di prima necessità, perché è così difficile reperirla?


Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254
< Torna indietro
Ambiente, società e tecnologia

Effetti del cambiamento climatico in Italia: quali sono e perché è importante conoscerli

Secondo il bilancio degli impatti dei cambiamenti climatici in Italia stilato da Legambiente, il 2020 è stato per la nostra penisola un anno difficile non soltanto dal punto di vista della pandemia, ma anche dal punto di vista climatico: stando alle stime i fenomeni meteorologici estremi (come nubifragi, siccità, trombe d’arie, alluvioni, ondate di calore sempre più forti e prolungate) che hanno colpito l’Italia sono stati 239 (in confronto ai 157 registrati nell’anno precedente) e le vittime 20.

 

Ma quali sono, nel dettaglio, gli effetti del cambiamento climatico che hanno colpito il nostro Paese?

Ce ne sono diversi, di noti e meno noti: a cominciare dall’acqua alta di Venezia, che nel 2019 ha raggiunto il suo picco, e che è forse uno dei pochi fenomeni a guadagnarsi uno spazio nei media tradizionali, passando per lo scioglimento dei ghiacciai alpini, fino ad arrivare a conseguenze del cambiamento del clima meno note (o delle quali sono meno noti i meccanismi): l’innalzamento del livello del mare, le specie aliene che invadono i raccolti, le api che rischiano di scomparire.

 

L’innalzamento del livello del mare

Il meccanismo che sta alla base dell’innalzamento del livello del mare può essere spiegato in questo modo: poiché l’acqua ha una capacità di assorbimento termico mille volte maggiore dell’aria, sono i mari ad assorbire una gran quantità di calore, impedendo all’aria di riscaldarsi eccessivamente e consentendoci di limitare i danni prodotti dalle emissioni di gas serra. Scaldandosi, i mari si dilatano, l’acqua aumenta di temperatura e questo fenomeno, unito allo scioglimento dei ghiacci terrestri, fa sì che il livello dei mari salga in tutto il mondo.

Stando ai dati relativi alle variazioni del livello dei mari riportati dall’Enea, agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo sostenibile, il livello del Mediterraneo si sta innalzando velocemente, a causa del riscaldamento globale. Entro il 2100 migliaia di chilometri quadrati di aree costiere italiane rischiano di essere sommerse dal mare, in assenza di interventi di mitigazione e adattamento: è quanto si legge in un report dell’agenzia, ricco di informazioni dettagliate su come e quali saranno le zone costiere e i porti più a rischio.

Come scrive Stefano Liberti in Terra bruciata, un libro d’inchiesta che suggerisco per maggiori approfondimenti sul tema e che racconta, in un viaggio da Nord a Sud, le conseguenze dei mutamenti del clima che stanno colpendo l’Italia, il fenomeno dell’innalzamento dei mari sta colpendo diverse aree italiane, e nonostante Venezia sia quasi sempre sulla bocca di tutti si dedica invece meno attenzione ai lunghi chilometri di coste, stabilimenti, paesi, strade e linee ferroviarie a forte rischio di inondamento. Citando quanto riportato in Terra bruciata: Il profilo costiero del nostro Paese sembra destinato a cambiare e le grandi spiagge che conosciamo a ridursi o a scomparire”.

Tornando ai dati raccolti dal Centro Enea, i ricercatori hanno sviluppato in collaborazione con il MIT di Boston un modelloche combina diversi fattori, per ricavarne delle previsioni su quello che potrà essere in futuro l’andamento del nostro mare. Secondo quanto spiegato dal climatologo Gianmaria Sannino, responsabile del laboratorio di “Modellistica climatica e impatti” dell’ENEA, il Mediterraneo è un mare che possiede caratteristiche del tutto particolari: assomiglia a un grande lago, delimitato dal deserto del Sahara e dal massiccio alpino, uno dei più alti al mondo, e riceve acqua dall’Oceano Atlantico attraverso lo Stretto di Gibilterra, e dal Mar Nero attraverso lo Stretto dei Dardanelli. Questo travaso di acque avviene perché l’Atlantico è più alto di 20 cm e il Mar Nero di 50 cm rispetto al Mediterraneo. Queste sue caratteristiche lo portano a scaldarsi più rapidamente, di circa 0.4 gradi in più rispetto alla media degli oceani, il che fa guadagnare al mar Mediterraneo l’appellativo di hotspot climatico, ovvero di un’area in cui gli effetti del cambiamento climatico si manifestano in modo più rilevante. Poiché l’Italia è posizionata proprio al centro di questo hotspot siamo più esposti alle conseguenze rispetto ad altri paesi, come dimostrato dall’aumento delle temperature più alto rispetto alla media e dalla maggiore frequenza con cui i fenomeni metereologici estremi colpiscono il nostro paese. Come scrive Stefano Liberti, dunque, “l’Italia è di fatto sulla linea del fronte del cambiamento climatico”.

Un altro fenomeno legato al cambiamento degli ecosistemi marini è la presenza di “nuove creature” che hanno fatto capolino sulle nostre rive, spinte dalla mancanza di cibo in profondità a risalire in superficie: Adriano Madonna, professore di Biologia marina all’Università Federico II di Napoli e di Scienze ambientali alla Scuola superiore di tecnologia per il mare, cita la comparsa di totani giganti, barracuda mutanti, pescecani e meduse super urticanti che “si spostano a riva a caccia di cibo, perché i fondali sono sempre meno abbondanti” a causa di un’altra conseguenza molto rischiosa del riscaldamento globale, l’acidificazione degli oceani. Stando ad un elenco stilato dalla Società italiana di Biologia marina, al largo delle coste italiane sono state avvistate più di duecento esemplari mai visti prima.

Secondo Madonna siamo di fronte alla prova che il Mar Mediterraneo si sta tropicalizzando, ma i nostri mari non sono gli unici habitat ad ospitare specie aliene.

 

La cimice asiatica

Nei campi agricoli che attraversano tutto il nostro paese, e in particolare nel Nord Italia, in territori come l’Emilia Romagna, il Veneto, la Lombardia, il Friuli Venezia Giulia e il Trentino-Alto Adige, è apparso un insetto capace di aggredire le coltivazioni, riproducendosi con incredibile velocità e senza avere, nel nostro territorio, un antagonista naturale: stiamo parlando della cimice asiatica o Halyomorpha halys, questo il nome scientifico dell’insetto orientale, che si posa sui frutti per bucarne la scorza ed estrarne il nettare attraverso una specie di proboscide. Una volta terminato di cibarsi le cimici volano via, lasciando all’esterno del frutto un piccolo bozzo e trasformando il colore della polpa in ocra: il frutto diventa ormai da buttare, e così accade per buona parte dei raccolti. Secondo Lorenzo Martinengo, il tecnico agricolo della Coldiretti, la maggiore associazione di rappresentanza e assistenza dell’agricoltura italiana, la cimice asiatica è un insetto polifago, che mangia cioè qualsiasi cosa, dalle piante da frutto a colture di cereali e di legumi, è stata avvistata per la prima volta in Emilia Romagna nel 2012 e da allora non ha fatto altro che aumentare la sua presenza. Si tratta di un insetto altamente resistente, arrivato nel nostro Paese attraverso gli scambi commerciali con l’Asia orientale, e ha trovato qui da noi inverni miti che gli hanno permesso di moltiplicare la propria presenza in maniera esponenziale, rendendo di fatto i meccanismi per cercare di contrastarlo del tutto o quasi inutili. Secondo gli studiosi, l’unico modo efficace per eliminarla è importare un’altra specie aliena, sua antagonista naturale, conosciuta come Trissolcus japonicus, o vespa samurai, anch’essa proveniente dall’estremo Oriente, che depone le sue uova all’interno delle uova della cimice asiatica distruggendole. Nei territori del Sud la cimice asiatica non si è ancora diffusa in modo rilevante, ma secondo gli esperti è solo questione di tempo affinché raggiunga il meridione e vi ci trovi anche condizioni migliori, date le temperature persino più alte. Secondo Lorenzo Martinengo è probabile che nel tempo si stabilirà un nuovo equilibrio e spunterà in natura qualche suo antagonista naturale, ma i tempi della natura non sono gli stessi degli esseri umani, per cui è necessario che gli agricoltori corrano ai ripari ben prima che “l’ecosistema si rimetta in asse”.

Secondo Piero Genovesi, zoologo ed esperto di conservazione delle specie animali e ricercatore dell’ISPRA, negli ultimi 30 anni, nel mondo, il numero di specie aliene è aumentato del 76% e in Italia, nello stesso periodo, addirittura del 96%; questa crescita è dovuta a diversi fattori: il gran numero di scambi commerciali, la navigazione, l’acquacoltura, l’agricoltura, le attività forestali e, negli ultimi anni, il commercio di piante ornamentali e animali da compagnia. “Le temperature sempre più alte rendono il nostro continente più adatto a moltissime specie tropicali che fino a pochi decenni fa non avrebbero potuto sopravvivere ai nostri climi” dice Genovesi.

Ma tra nuove specie che proliferano, ce ne sono invece altre gravemente a rischio.

 

Le api in pericolo

Secondo un articolo de L’Espresso del 30 marzo 2021, “negli ultimi cinque anni nel mondo sono scomparsi 10 milioni di alveari e in Italia se ne sono persi oltre 200mila” il che è preoccupante, poiché più del 70% della produzione del cibo che mangiamo è legato all’azione delle api e di altri insetti impollinatori che, come si legge nell’articolo, “volando di fiore in fiore favoriscono la fecondazione incrociata delle piante”.

In un Ted Talk tenuto dall’entomologa Marla Spivak dal titolo “Why bees are disappearing”, la studiosa mostra due immagini a dir poco auto esplicanti: in una si vede il reparto ortofrutta pieno di prodotti, nell’altra lo stesso reparto con i  banchi quasi vuoti, e le due immagini riportano rispettivamente le descrizioni “la tua scelta di prodotti con le api, la tua scelta di prodotti senza le api”.

Secondo ricercatori, apicoltori e studiosi la scomparsa delle api è riconducibile ad un insieme di fattori: per esempio, l’uso sempre maggiore di insetticidi e fertilizzanti e il crescente utilizzo di monocolture e di modalità di agricoltura intensive, che per soddisfare la crescente richiesta alimentare provocano la perdita di numerosi habitat e di biodiversità e limitano la quantità di cibo disponibile per le api. Insieme alle cause generate dall’agricoltura, ritroviamo anche in questo caso il cambiamento climatico: stando a ciò che si legge in questo documento dell’ISPRA “i cambiamenti climatici esercitano una delle maggiori pressioni sulle specie animali, inclusi gli impollinatori”. Le attività stagionali di alcune specie di impollinatori si sono modificate come conseguenza dei cambiamenti climatici osservati negli ultimi decenni. Gli sbalzi di temperatura riscontrati nel 2019 in Italia, per esempio, hanno alterato i cicli naturali delle api perché il caldo scoppiato precocemente ha spinto le regine a riprendere le covate già a febbraio, portando le famiglie a ingrossarsi a dismisura (per maggiori informazioni su come funzionano gli alveari: https://apinfiore.com/news/come-funziona-lalveare). A maggio sono poi tornati freddo e pioggia, che hanno distrutto le fioriture riducendo la disponibilità di nettare e polline e hanno impedito alle api bottinatrici di uscire; l’alveare è rimasto così sovrappopolato e le api si sono ritrovate letteralmente senza cibo.

Secondo gli esperti, la sofferenza delle api è un campanello di allarme, perché questi insetti esistono sulla Terra da quasi 100 milioni di anni e hanno dimostrato nel corso del tempo grandi capacità di adattamento, e se oggi stanno morendo vuol dire che lo scenario che ci si prospetta è davvero negativo. Come si legge nel documento dell’ISPRA “È comunque assai probabile che un aumento della temperatura di soli 3,2°C, prevista da uno degli scenari più probabili degli esperti afferenti all’IPCC (Intergovernmental Panel on Climate Change), comporterà la riduzione del 50% del numero attuale di insetti già entro il 2100. Altri impatti riguarderanno le variazioni della distribuzione geografica dei patogeni che colpiscono gli impollinatori e l’aumento della loro virulenza. Infine l’aumento di CO2 in atmosfera potrebbe portare alla riduzione progressiva del contenuto di proteine del polline con conseguenti cambiamenti nella biologia degli impollinatori”.

Abbiamo quindi osservato che gli effetti della crisi climatica in Italia sono diversi e molto complessi, e stando ai risultati del People’s Climate Vote, un sondaggio condotto dal Programma delle Nazioni Unite per lo sviluppo (UNDP) e dall’Università di Oxford per indagare le posizioni dell’opinione pubblica riguardo i cambiamenti climatici, il 64% delle persone crede che il cambiamento climatico sia un’emergenza globale: in Italia la percentuale raggiunge l’81% della popolazione, posizionandosi in cima alla lista insieme alla Gran Bretagna.

 

Dunque cosa si sta facendo per reagire a questa situazione?

Secondo L’espresso ancora troppo poco, anzi, per dirlo con le parole di chi scrive l’articolo che riporto qui “l’Italia continua a fare finta che i cambiamenti climatici non siano un problema”. Sembra infatti che mentre in Europa il tema del contrasto alla crisi climatica risulti prioritario, nel nostro paese si faccia fatica a mettere in campo una seria politica di adattamento, che salvaguardi i nostri territori. Per Raimondo Orsini, direttore della Fondazione per lo sviluppo sostenibile, “si tratta di un problema culturale, in cui non c’è consapevolezza di quello che sta accadendo e quindi non si ritiene urgente intervenire”.

Ne consegue quanto sia impellente la necessità di diffondere la conoscenza degli effetti della crisi climatica sui nostri territori, per aumentare la consapevolezza della popolazione e spingere politica e istituzioni a mettere in campo strategie mirate ed efficienti, per salvare la vita dei nostri territori e anche la nostra. Anche perché, citando un’ultima volta Stefano Liberti in Terra Bruciata gli effetti della crisi climatica non colpiranno le prossime generazioni in un futuro più o meno lontano, ma si stanno già ampiamente misurando, qui e ora.”


Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 249

Warning: Undefined variable $speaker_foto in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254

Warning: Trying to access array offset on null in /var/www-wpmu/htdocs/wp-content/themes/starter-theme-child-for-ibicocca/inc/functions/cpt-functions.php on line 254
< Torna indietro
Ambiente, società e tecnologia

La nuova collezione ‘eco-friendly’ di Barbie: “Barbie loves the ocean”!

La Mattel, famosissima azienda statunitense di giocattoli, ha già fissato un obiettivo molto importante: raggiungere il 100% di materiali plastici riciclati, riciclabili o a base biologica in tutti i suoi prodotti e imballaggi entro il 2030. Ecco quindi che nasce perfettamente in linea con questo obiettivo la nuova collezione di Barbie, chiamata “Barbie Loves the Ocean”.

La bambola più famosa del mondo entra dunque nel mondo dell’economia circolare, dichiarando il suo amore per gli oceani: questa nuova linea viene infatti realizzata con il 90% di plastica riciclata dagli oceani, recuperata all’interno di 50 km di corsi d’acqua in aree prive di sistemi formali di raccolta dei rifiuti. Bottiglie e svariati altri rifiuti di origine plastica che avrebbero galleggiato nell’oceano vengono ora impiegati per produrre la nuova collezione di una delle bambole più apprezzate e acquistate in tutto il mondo.  Così la Mattel ha presentato la sua prima linea di fashion dolls interamente realizzata con plastica riciclata per la salvaguardia degli oceani, perseguendo l’obiettivo inoltre di utilizzare il 95% di carta o fibre di legno riciclate o certificate FSC per le confezioni entro la fine del 2021. Questa collezione comprende tre bambole e un playset Chiosco sulla spiaggia, entrambi realizzati con plastica riciclata. Ogni Barbie costa $10, mentre il playset ammonta a $20.

Gli elevati standard di produzione dell’azienda assicurano che questa linea offra la qualità di gioco aspettata dai genitori, i quali soprattutto durante il periodo della pandemia hanno acquistato molti più giocattoli per i loro bambini costretti a rimanere in casa.

“La nostra storia lunga ben 62 anni è ricca di evoluzioni, poiché portiamo avanti costantemente iniziative progettate per riflettere il mondo che i bambini vedono intorno a loro. Barbie Loves the Ocean è un esempio importante delle innovazioni sostenibili che faremo per creare un ambiente futuro in cui i bambini possano vivere al meglio“, ha affermato Lisa McKnight, senior Vice President e Global Head di Barbie & Dolls, Mattel. “La nostra missione è utilizzare la nostra piattaforma globale per amplificare i messaggi e ispirare i bambini a far parte del cambiamento che vogliono vedere nel mondo”, ha aggiunto.

A tal fine, un’altra iniziativa sostenibile di recente sviluppo è Mattel PlayBack, un programma di ritiro dei giocattoli, ideato per recuperare i materiali dei vecchi giochi Mattel non più utilizzati e riutilizzarli per crearne dei nuovi.

In più, il vlog su YouTube “Barbie Vlogger” ha aggiunto un nuovo episodio chiamato “Barbie Racconta Come Aiutare il Nostro Pianeta”: qui, mostrando l’impatto che i cambiamenti delle abitudini quotidiane possono avere sull’ambiente che ci circonda, i piccoli fan imparano l’importanza di prendersi cura della Terra.

La Mattel naturalmente non è la sola a compiere e sviluppare importanti cambiamenti ecosostenibili all’interno dei suoi prodotti: molte altre aziende di giocattoli stanno infatti tentando di diventare più “eco-friendly”, in linea con lo sviluppo delle nuove politiche green all’interno dei più svariati settori.

Trovare delle alternative all’eccessivo inquinamento ambientale e riciclare sono due azioni fondamentali per affrontare il cambiamento climatico. L’adozione di nuove strategie di marketing e di prodotti ecosostenibili è di conseguenza molto importante per le aziende poiché i consumatori sono sempre più consapevoli di come le loro scelte possano influire sul nostro pianeta.

< Torna indietro
Ambiente, società e tecnologia

Multa a Google: 100 milioni di euro per concorrenza sleale

L’antitrust italiana, l’Autorità Garante della Concorrenza e del Mercato, ha recentemente inflitto una sanzione di oltre 100 milioni di euro a Google (Alphabet Inc., Google LLC e Google Italy S.R.L.) per abuso di posizione dominante.

 

Google vs Enel X Italia

Google LLC è una società multinazionale interamente posseduta e controllata da Alphabet Inc, la quale è presente anche in Italia tramite Google Italy S.R.L., impresa controllata.

Google LLC è altersì la holding, ovvero la società che detiene la maggioranza delle azioni e il controllo in un gruppo di imprese, a cui Android, Android Auto, Google Play e Google Maps fanno capo.

Il sistema operativo Android comprende l’app store Google Play e Android Auto, un’applicazione che consente l’uso dello smartphone all’interno dell’automobile tramite comandi vocali, comandi manuali o l’uso dello schermo digitale se presente, in modo tale da guidare senza il rischio di distrarsi. Google lo ha annunciato il 25 Giugno 2014 rendendolo disponibile poi a Marzo 2015.

All’interno di questa vicenda troviamo come parte coinvolta il Gruppo Enel che opera nella mobilità elettrica tramite Enel X Italia S.R.L., il quale fornisce ai clienti finali tali servizi.

Enel X Italia è lo sviluppatore dell’applicazione JuicePass (denominata Enel X Recharge), disponibile da Maggio 2018 sull’app store Google Play, che consente di gestire i servizi di ricarica dei veicoli elettrici, in particolare quelli di ricerca di colonnine di ricarica, navigazione, prenotazione e pagamento. Quest’ultima però non è disponibile su Android Auto.

 

Google ha favorito per due anni il suo prodotto: Google Maps

Tutto ha avuto inizio nel 2019, quando è stato avviato il procedimento da Enel X Italia nei confronti di Google. A seguito di una richiesta diretta e formale, in quanto Google non ha mai consentito di rendere disponibile sulla piattaforma Android Auto l’applicazione JuicePass sviluppata da quest’ultima.

La questione di fondo sta proprio nel fatto che Google, grazie al controllo che ha su Android Auto e Android, ha il potere di decidere quali applicazioni devono essere pubblicate o meno sull’app store. In questo modo Google ha ingiustamente limitato le possibilità per gli utenti di utilizzare tale applicazione e in particolare il Garante ha ritenuto che abbia invece favorito, in questi 2 anni, l’utilizzo di un suo prodotto ovvero Google Maps, il quale fornisce servizi per la ricarica dei veicoli elettrici quali la ricerca e la navigazione, ma non ancora la prenotazione e il pagamento.

Secondo l’Autorità “attraverso il sistema operativo Android e l’app store Google Play, il motore di ricerca Google detiene una posizione dominante che le consente di controllare l’accesso degli sviluppatori di app agli utenti finali”, in particolare in Italia: “circa i tre quarti degli smartphone utilizzano Android. Google è un operatore di assoluto rilievo, a livello globale, nel contesto della cosiddetta economia digitale e possiede una forza finanziaria rilevantissima”.

 

L’abuso di posizione dominante

La condotta messa in atto da Google, di ostacolo alla pubblicazione dell’app sviluppata da Enel X Italia sulla piattaforma Android Auto, rientra nell’ambito dell’articolo 102 del Trattato sul Funzionamento dell’Unione Europea che così disciplina: “È incompatibile con il mercato interno e vietato, nella misura in cui possa essere pregiudizievole al commercio tra Stati membri, lo sfruttamento abusivo da parte di una o più imprese di una posizione dominante sul mercato interno o su una parte sostanziale di questo.”

Si ritiene che Google abbia abusato della sua posizione dominante nel mercato, indiscussa, essendo potenzialmente idonea a pregiudicare il commercio all’interno dell’Unione Europea.

Tale abuso si concretizza quindi quando un’impresa sfrutta il proprio potere dominante per impedire l’accesso al mercato anche agli altri concorrenti rendendo nulla la concorrenza.

Si è anche messo in luce il fatto che egli detiene una quota di mercato della concessione di licenze pari al 96,4%, in tal senso è deducibile che il confronto con altre società è quindi impossibile.

Si è quindi imposto a Google di porre fine ai comportamenti distorsivi della concorrenza messi in atto e di astenersi dal compierne altri nel futuro.

 

La diffida dell’Autorità

In tal senso oltre che l’irrogazione della sanzione pecuniaria, l’Autorità ha poi indicato nella diffida il comportamento che Google dovrà tenere per porre fine a tale abuso e per evitare ulteriori effetti negativi nei confronti di Enel X Italia. Gli è stato quindi imposto di mettere a disposizione di quest’ultima gli strumenti necessari per la programmazione di applicazioni che permettono l’interazione con Android Auto. È stata anche prevista un’attività di vigilanza, da parte di un esperto nel settore, per poter verificare l’effettiva e corretta attuazione di tali obblighi imposti.

 

Google in disaccordo

“Siamo rispettosamente in disaccordo con la decisione dell’AGCM, esamineremo la documentazione e valuteremo i prossimi passi”. Questo è quello che è stato affermato da un portavoce di Google. “La priorità numero uno di Android Auto è garantire che le app possano essere usate in modo sicuro durante la guida. Per questo abbiamo linee guida stringenti sulle tipologie di app supportate sulla base degli standard regolamentari del settore e di test sulla distrazione al volante.”

Secondo Google ciò costituirebbe una giustificazione oggettiva al proprio comportamento. Inoltre, rivendica anche di aver provato in buona fede a proporre ad Enel X delle soluzioni ulteriori che potessero soddisfarla ma esse non furono accettate.

 

Una vittoria per Enel

Per Enel invece questo rappresenta uno stimolo per l’innovazione e per fronteggiare la concorrenza con i fornitori di servizi di mobilità. Ha così affermato: “Vogliamo arrivare a mappare 200mila punti di ricarica fra Europa e Stati Uniti e a Ottobre avremo la funzione Trip Planning, che permette di calcolare il percorso da un punto a un altro tenendo conto dell’autonomia dell’auto e delle colonnine di ricarica presenti sull’itinerario”. Gli obiettivi sono forti e chiari dovuti anche alla netta vittoria su Google.

< Torna indietro
Ambiente, società e tecnologia

Emission Trading Scheme, uno strumento per la lotta al cambiamento climatico

Secondo analisi condotte dalla NASA, il 2020 è stato l’anno in cui si è registrata la più alta temperatura media globale della superficie terrestre e secondo gli scienziati del Goddard Institute for Space Studies (GISS), la temperatura media globale nel 2020 è stata di 1,02 gradi Celsius più calda della media di riferimento 1951-1980 e di oltre 1,2 gradi Celsius più alta dei dati della fine del XIX secolo. È praticamente innegabile: siamo nel bel mezzo di un cambiamento climatico.

Negli ultimi anni la lotta al cambiamento climatico è stata sia un fatto mediatico sia un tema politico e in questo ultimo ambito l’Europa vorrebbe imporsi con il ruolo di guida puntando a realizzare un continente a impatto climatico zero entro il 2050, in linea con l’accordo di Parigi.

Sono moltissimi gli strumenti che il vecchio continente sta cercando di integrare per il raggiungimento degli obiettivi climatici, tra questi ne abbiamo alcuni più noti, come il Green Deal, e altri che lo sono meno come l’Emission Trading Scheme (ETS).

ETS: in cosa consiste?

L’ETS, ossia il sistema di scambio di quote di emissione dell’Unione Europea, è – afferma l’Europa – “uno strumento essenziale per ridurre in maniera economicamente efficiente le emissioni di gas a effetto serra e rappresenta il primo mercato mondiale della CO2”. Nasce nel 2005 con lo scopo di limitare il volume totale delle emissioni di gas a effetto serra prodotte dagli impianti e dagli operatori aerei ritenuti responsabili di circa il 50% delle emissioni di gas a effetto serra dell’UE e, ad oggi, copre le emissioni di molte centrali elettriche, molti impianti industriali e parte delle emissioni del traffico aereo tra i 31 paesi aderenti.

L’ETS è basato su un principio definito “cap-and-trade” e procede mediante la fissazione di una quantità massima di emissione, definita tetto, successivamente la quantità individuata viene divisa in singole unità. Ciascuna di queste unità è incorporata in un singolo certificato che dà loro il permesso di emettere una certa quantità di gas serra in atmosfera. Alla fine di ogni anno le società devono possedere un numero di quote sufficiente a coprire le loro emissioni se non vogliono subire pesanti multe. Se un’impresa riduce le proprie emissioni, può mantenere le quote non utilizzate per coprire il fabbisogno futuro oppure venderle a un’altra impresa che ne sia a corto. La vendita dei certificati avviene su un mercato borsistico costruito ad hoc dall’Unione Europea ma non tutte le quote finiscono in borsa, infatti, parte delle stesse vengono assegnate alle attività aprioristicamente dall’UE in base alle emissioni degli anni precedenti.

I certificati di inquinamento, per svolgere correttamente il loro lavoro, dovrebbero essere mantenuti a un prezzo medio-alto affinché vengano favoriti gli investimenti in tecnologie a basso rilascio di CO2. Un’altra caratteristica del mercato ETS è che il tetto di emissioni viene ridotto progressivamente nel tempo di modo da favorire la diminuzione delle emissioni totali. Il sistema ETS è un modo molto alternativo dell’applicazione del principio “chi inquina paga” e in particolare la sua attuazione avviene attraverso un meccanismo incentivante: chi inquina poco, non solo è virtuoso ma può rivendere le quote assegnategli e trarne profitto.

ETS: le fasi di sviluppo

Il mercato ETS ha conosciuto finora 3 fasi.

La prima di queste fasi, durata solo due anni, rappresentava una prova, in preparazione della fase successiva, ed era caratterizzata da 3 elementi.

Innanzitutto, essa si limitava a considerare le emissioni di CO2 provenienti dagli impianti energetici e dalle industrie che utilizzavano in modo intensivo l’energia.

Secondo, le quote di emissione, quasi tutte, erano assegnate alle imprese a titolo gratuito e, ultimo aspetto, le sanzioni previste in caso di mancato rispetto degli obblighi, corrispondevano a 40 euro per tonnellata. In termini di obiettivi raggiunti, attraverso la fase 1 si è riusciti a stabilire il prezzo per la CO2, il libero scambio di quote di emissione in tutta l’UE e l’infrastruttura richiesta per controllare, comunicare e verificare le emissioni dei soggetti interessati. Aspetto rilevante e non trascurabile della fase 1 riguarda la mancanza di dati attendibili sulle emissioni. Condizione, questa, che ha portato al dover fissare i tetti di riferimento sulla base di stime. La conseguenza diretta risiede nel fatto che la totalità di quote assegnate superava le emissioni, facendo scendere il valore delle quote, arrivando a zero nel 2007.

La seconda fase (2008-2012) corrisponde con il primo periodo d’impegno del protocollo di Kyoto e possiede molteplici caratteristiche.

Innanzitutto, si è verificata un’estensione, sia in termini di nuovi paesi aderenti (Islanda, Liechtenstein e Norvegia) sia di sistema, attraverso la considerazione delle emissioni di ossido di azoto e del settore aereo (quest’ultimo inserito il 1° gennaio 2012).

Altri elementi che caratterizzano la fase 2 sono le proporzioni di quote assegnate a titolo gratuito, leggermente ridimensionate a circa il 90%, l’organizzazione di aste da parte di diversi paesi, l’aumento del valore delle sanzioni (da 40 a 100 euro per tonnellata), la sostituzione dei registri nazionali con un registro dell’Unione e la sostituzione del catalogo indipendente comunitario delle operazioni (CITL) con il catalogo delle operazioni dell’Unione europea (EUTL).

Nella fase 2 erano presenti i dati verificati sulle emissioni della fase 1, permettendo così di fissare i tetti sulle quote sulla base delle emissioni effettive. Tetti che risultavano essere inferiori del 6,5% rispetto a quelli del 2005. All’interno della fase 2, la crisi economica del 2008 ha provocato una riduzione importante delle emissioni rispetto alle previsioni, generando un eccesso di quote e di crediti, che ha pesato molto sul prezzo della CO2 per tutta la fase 2.

Nella terza fase (2013-2020) si è verificato un cambiamento importante riguardo il tetto delle emissioni. Nei due periodi precedenti, ogni paese fissava il proprio limite, a partire da questa fase, invece, è stato imposto il fatto che il tetto di emissioni venga fissato unicamente a livello europeo. Oltre a questo cambiamento, è stato introdotto il metodo autoctioning per l’allocazione dei certificati che, in questo modo, possono essere acquistati mediante un vero e proprio meccanismo d’asta. Inoltre, sono stati coinvolti nuovi settori e sono stati depositati circa 100 milioni di certificati all’interno di una riserva, chiamata “new entrants”, utilizzata per finanziare la predisposizione per le implementazioni di tecnologie innovative attraverso un programma europeo.

All’interno della terza fase, più precisamente nel 2018, è stata rivista la cornice normativa della fase successiva, che va dal 2021 fino al 2030, per garantire la riduzione delle emissioni in funzione degli obiettivi per il 2030 e nell’ambito del contributo dell’UE rispetto all’accordo di Parigi. La revisione ha riguardato 4 aspetti.

Innanzitutto è stato aumentato, a partire dal 2021, il ritmo delle riduzioni del tetto massimo annuo al 2,2%, in maniera tale da rafforzare il sistema ETS come stimolo agli investitori. In questo senso, oggetto di rafforzamento è stato anche la riserva stabilizzatrice del mercato. Si è inoltre stabilito di proseguire con l’assegnazione gratuita di quote a garanzia della competitività dei settori industriali risultanti a rischio di rilocalizzazione delle emissioni di CO2, mantenendo regole mirate e in linea con il progresso tecnologico per l’assegnazione gratuita di tali quote. Ultimo aspetto, si è deciso di supportare, attraverso meccanismi di finanziamento (Fondo per l’innovazione e Fondo per la modernizzazione), l’industria e il settore energetico, in maniera tale da consentirgli di affrontare le sfide dell’innovazione e degli investimenti richiesti dalla transizione verso un’economia a basse emissioni di CO2.

Aspetti critici e prospettive future

 

Una delle poche critiche che si può muovere al sistema ETS è che non sempre riesce a mantenere livelli di prezzo dei certificati sufficientemente alti da disincentivare l’inquinamento. Ad esempio, all’apertura del mercato, nel 2005, emettere una tonnellata di gas serra costava circa 30 euro, dopo poco il prezzo dei certificati è improvvisamente dimezzato. Con la crisi dei debiti sovrani, nel 2010, il prezzo è tornato a scendere vertiginosamente, fino a rasentare la soglia dei 5, e talvolta 3 euro a tonnellata. Il prezzo da pagare per inquinare era talmente basso che per molte nazioni la soglia di convenienza per generazione elettrica si è spostata verso il carbone. Il crollo del prezzo fu anche dovuto al fatto che, diminuita la produzione, post-crisi le imprese disponevano di moltissimi certificati inutilizzati e l’abbondanza degli stessi sul mercato non consentiva la risalita del prezzo nemmeno dopo la stabilizzazione della situazione in uno scenario post-crisi.

Solo nel 2019 i prezzi si erano nuovamente stabilizzati sui livelli pre-crisi ma tutto ciò era stato reso possibile solo grazie al grande sforzo dell’Unione europea che, ridisegnando le regole dell’asta, ha permesso nuovamente. Purtroppo il 2020 è stato teatro di una pandemia mondiale che ha nuovamente inflitto una battuta d’arresto alla produttività europea con conseguente crollo dei prezzi dei certificati. Non ci resta che rimanere aggiornati, nella speranza che, nel momento in cui l’economia tornerà a crescere, il sistema ETS possa rispondere al meglio a questi cambiamenti.