< Torna indietro
Ambiente, società e tecnologia

Il futuro sarà “bidimensionale”? Prospettive e ostacoli della ricerca sul grafene

Chi sarebbe stato certo, prima della sua scoperta, che un sottilissimo strato di atomi di carbonio avrebbe generato un enorme interesse scientifico e tecnologico? Si tratta del grafene, un materiale che, grazie alle sue particolari proprietà, potrebbe innovare prodotti e processi industriali in molti settori diversi.

Il grafene è formato da un singolo reticolo bidimensionale di atomi di carbonio, uniti assieme a formare una struttura molto simile alle cellette esagonali di un alveare. Se immaginiamo di sovrapporre moltissimi reticoli di grafene, possiamo visualizzare la struttura tridimensionale della grafite. Sebbene già dalla prima metà del XX secolo alcuni scienziati avessero teorizzato l’esistenza del grafene come sostanza isolabile dalla grafite, solo più recentemente, nel 2004, gli scienziati Geim e Novoselov hanno avuto successo nell’impresa. A questa scoperta è stato assegnato il premio Nobel nel 2010 e da essa è scaturita una vasta produzione scientifica.

Le sue potenzialità sono ampiamente riconosciute: lo testimoniano anche eventi come la 17esima edizione della “Graphene Week. Dal 5 al 9 settembre 2022, la città di Monaco ha ospitato questa conferenza parte del “Graphene Flagship”, un progetto fondato nel 2013 dalla Commissione Europea (e finanziato con 1 miliardo di euro dall’UE) che ha l’obiettivo di sostenere la ricerca sul grafene e di trasferirne i risultati al mondo industriale. Ma cosa si può fare con il grafene?

Leggendo l’ultimo report prodotto dal “Graphene Flagship”, ci si può accorgere di come la ricerca sul grafene coinvolga la bioingegneria, la generazione e lo stoccaggio dell’energia, l’elettronica, la sintesi di materiali compositi e molti altri ambiti. L’ostacolo più importante, che emerge in quasi ogni campo coperto dal progetto, è il livello di maturità tecnologica. Per misurarlo è possibile fare affidamento su una scala numerica che permette di comprendere se una tecnologia è realmente pronta e affidabile, soprattutto in un’ottica di mercato. Il livello massimo della scala, 9, è assegnato ad una tecnologia per cui sia stata prodotta una “dimostrazione completa del sistema in un ambiente operativo reale”. Secondo quest’ultimo report, con poche eccezioni, la maggior parte delle applicazioni si colloca tra il livello 3 e il livello 6: ciò significa che, come è riportato dagli stessi autori del report, gli sforzi e i finanziamenti dei prossimi anni dovranno essere dedicati alla maturazione completa delle tecnologie che si sono rivelate valide a livello industriale, affinchè possano avere un impatto effettivo sul mercato. Tra gli altri fattori che sono di ostacolo a questo ulteriore sviluppo ci sono anche il costo dei processi che permettono di ottenere un prodotto di alta qualità e la loro diffusione su larga scala.

Come si può usare il grafene per raggiungere uno sviluppo sostenibile?

Le applicazioni del grafene, quando raggiungeranno la maturità tecnologica, potranno essere d’aiuto nel raggiungimento di alcuni degli obiettivi di sviluppo sostenibile descritti dalle Nazioni Unite: in particolare, potrebbero essere utili per garantire l’accesso all’acqua potabile e la generazione di energia da fonti sostenibili. Il grafene è il materiale più sottile, leggero e resistente scoperto fino ad ora: può essere per esempio usato, assieme ad altri materiali, per costruire delle membrane che siano utili per purificare e rendere potabile l’acqua. Grazie alla sovrapposizione di diversi strati di ossido di grafene (materiale simile a quello sopra descritto, ma con in più degli atomi di ossigeno nella sua struttura), oppure grazie al design di membrane di grafene con dei piccolissimi pori nella loro struttura (chiamati nanopori), si potrebbero creare dei sistemi più efficaci di quelli esistenti sul mercato. Un ulteriore vantaggio di queste membrane potrebbe essere quello di rendere meno dispendioso a livello energetico, e quindi a livello economico, i processi di desalinizzazione dell’acqua.

Il grafene è anche un eccellente conduttore elettrico e, per questo, può essere utilizzato nell’ambito dell’elettronica e dell’energia: come si legge dal report, può essere applicato al design di semiconduttori che integrino il grafene assieme al silicio, oppure essere usato per migliorare l’efficienza dei pannelli solari e delle batterie in cui è inserito. In particolare, lo sviluppo tecnologico futuro di queste ultime sarà indispensabile per riuscire a conservare l’energia proveniente da una fonte aleatoria (dato che non è sempre disponibile) come quella solare.

Tutte le applicazioni citate non hanno ancora raggiunto il massimo livello di maturità tecnologica: dato che le fasi della ricerca di base e della validazione della tecnologia in laboratorio sono già state superate, i progressi futuri dovranno puntare al raggiungimento della loro piena operatività e competitività sul mercato.

< Torna indietro
Ambiente, società e tecnologia

Non solo meteo: l’osservazione della Terra come strumento per le grandi sfide globali

L’osservazione della Terra non è una novità: sin dalla seconda metà del secolo scorso gli esseri umani hanno lanciato oggetti in orbita con successo. Perché quindi riportare l’attenzione su una tecnologia così consolidata? Possiamo distinguere almeno due principali motivi: da una parte, il progresso scientifico permette di avere apparecchiature sempre più piccole e di progettazione più rapida e l’avvento di tecnologie digitali sempre più avanzate consente oggi di studiare e sfruttare ancora meglio i dati che i satelliti artificiali raccolgono; dall’altra le urgenti sfide globali e gli obiettivi di sviluppo sostenibile possono essere meglio compresi e affrontati grazie all’osservazione della Terra dallo spazio.

I primi satelliti artificiali (e non solo)

Lo sviluppo dei satelliti artificiali non sarebbe stato possibile se non fosse stato preceduto da secoli di riflessioni teoriche e ricerca scientifica di base. Grazie ad esse e alla ricerca applicata si è arrivati nel 1957 al lancio in orbita del primo satellite artificiale (che fu anche il primo oggetto a trasmettere un segnale radio dallo spazio) lo Sputnik 1.  Questo ha rappresentato l’inizio di un’era di sperimentazioni sulle effettive possibilità di applicazione della tecnologia satellitare all’osservazione della Terra: Tiros-1, lanciato dalla NASA nell’aprile del 1960, è stato il primo di una serie di satelliti, legati all’omonimo programma, che hanno permesso per la prima volta di elaborare dati raccolti dallo spazio per ottenere previsioni del meteo corrette. Le tecnologie utili a questo scopo non si fermano ai satelliti: le informazioni raccolte dai droni, dalle stazioni di monitoraggio a terra e tramite tecniche di campionamento con sensori in situ (strumenti di rivelazione situati in prossimità del luogo di osservazione) sono integrate ai dati raccolti dallo spazio per ottenere una visione quanto più globale e accurata possibile dell’oggetto di studio.

Perché osservare la Terra oggi?

L’osservazione della Terra è fondamentale per monitorare molti altri parametri di rilevanza ambientale, sociale ed economica e per questo è ritenuta importante anche per raggiungere gli SDGs. I progetti ispirati dall’Agenda 2030 sono diversificati e numerosi: molti di essi sono volti al monitoraggio costante, all’interpretazione e alla previsione dei cambiamenti degli ecosistemi e mirano alla produzione di informazioni utili per il lavoro dei decisori politici. Un esempio è il progetto “Ocean Color Climate Change” di ESA (Agenzia Spaziale Europea): si basa sull’osservazione sperimentale del cambiamento di colore subito dagli oceani e sulla sua correlazione con la variazione della concentrazione della clorofilla nell’acqua, che a sua volta varia a causa dei cambiamenti nelle popolazioni di fitoplancton. Quest’ultimo è di vitale importanza per l’ecosistema marino, ma una sua crescita anomala o una sua drastica diminuzione danneggiano le altre specie: per questo si monitora attraverso i satelliti la variazione delle onde elettromagnetiche riflesse dalla superficie oceanica e si elaborano modelli che permettano di prevedere scenari futuri. Esistono moltissimi altri esempi di applicazione dell’osservazione tramite satelliti artificiali, integrata con misurazioni a terra o indagini statistiche locali, legati agli SDGs: è possibile misurare la concentrazione di inquinanti atmosferici, raccogliere di informazioni sulle zone del mondo in cui l’accesso a fonti di energia sicure ed affidabili non è garantito, prevedere i possibili disastri naturali ed elaborare strategie di prevenzione dei danni più gravi, in un’ottica di adattamento agli effetti del cambiamento climatico attuali e inevitabili. Anche per questo la previsione del meteo, una delle prime applicazioni della tecnologia satellitare, rimane indispensabile.

L’elaborazione dei dati satellitari

Lo sviluppo di tecnologie di intelligenza artificiale e machine learning ha permesso di rivoluzionare il mondo dell’osservazione delle Terra, consentendo l’elaborazione di un numero elevatissimo di dati in informazioni fruibili. Se prima i dati satellitari potevano essere interpretati solo dall’essere umano, oggi è possibile non solo decifrare i dati ed elaborare informazioni in tempi più brevi (sempre nel limite consentito dalle leggi fisiche) ma anche avere un’accuratezza migliore garantendo modelli di previsione più precisi.

Il numero maggiore di informazioni a disposizione e la necessità di agire su più fronti per rispondere ai problemi nel nostro secolo apre il mondo spaziale dell’osservazione terrestre a nuovi player. Sono infatti diversi i progetti attivi che raccolgono dati ed elaborano informazioni mettendoli a disposizione di tutti in modo da incentivare anche iniziative private. Tra questi, il programma di osservazione satellitare dell’Unione Europea Copernicus mette a disposizione dei suoi utenti i dati raccolti da una famiglia di satelliti dedicati e da sensori in situ. In questo modo possono nascere progetti come quello di Forestry Analyzer, che si prefigge l’obiettivo di elaborare algoritmi per il monitoraggio e la previsione dei pattern di deforestazione attraverso strumenti di intelligenza artificiale. Un’altra possibilità fornita dalle rilevazioni dei satelliti artificiali e con l’ausilio delle tecnologie di intelligenza artificiale è lo sviluppo di progetti nel settore dell’agricoltura. Con l’aumentare della temperatura sul Pianeta e con la sempre più scarsa disponibilità di acqua dolce è fondamentale mettere in atto misure per ottimizzare la quantità di acqua usata per le coltivazioni: attraverso la rivelazione da parte dei satelliti della radiazione infrarossa emessa delle piante e la sua successiva elaborazione è possibile ricavare informazioni sullo stato di stress idrico e fornire acqua nel momento più necessario.

Secondo le previsioni di Citigroup nel documento The Dawn of a New Age il valore del mercato della space economy è destinato a crescere: entro il 2040 potrebbe valere mille miliardi di dollari con un drastico calo dei costi di lancio fino a 30$/kg di carico. Sebbene le tecnologie sviluppate allo scopo di osservare la Terra siano nate molti decenni fa, non smettono di essere migliorate grazie alla ricerca scientifica e continuano a essere una risorsa importante per rispondere alle sfide contemporanee, fornendo grandi opportunità in un mercato ancora per la maggior parte inesplorato.

< Torna indietro
Marketing & Social Media

L’importanza del Crisis Management in un mondo in difficoltà

Il periodo di crisi socioeconomica che stiamo attraversando dimostra un dato di fatto: le organizzazioni devono non solo saper gestire ogni fattore di instabilità, ma prevedere anche eventuali criticità future. Il rapporto con gli stakeholder si è evoluto negli anni: è ormai necessario venire incontro agli interessi di tutti i gruppi, non solo degli azionisti. Nella maggior parte dei casi, si può essere pronti per una potenziale crisi, se si ha un comparto di Risk Management abbastanza efficiente. Tuttavia, non è possibile stabilire quando e se si manifesterà davvero un evento di tale portata. L’impatto può essere più o meno marcato a seconda di vari fattori, connessi alla risposta dell’azienda: vanno considerate come possibili conseguenze danni d’immagine e contrazione dei profitti, oltre che eventuali ripercussioni legali. Il Crisis Management è, quindi, un ciclo continuo di attività legate alle pubbliche relazioni, volto a definire strategie, azioni e successivi miglioramenti.

Una crisi si può manifestare attraverso tre livelli di rischio: in genere, questi possono anche presentarsi in contemporanea. Il problema più comune è quello che affligge l’equilibrio finanziario, per poi passare alla reputazione dell’impresa. La minaccia più importante riguarda la sicurezza pubblica, dove è coinvolta l’incolumità di una o più persone. In ciascuna di queste situazioni è di vitale importanza la comunicazione, che deve essere coerente e costante prima, durante e dopo la crisi. È buona pratica agire con una risposta veloce, empatica, chiara e concreta. Se mancano questi fattori, il messaggio sarà fallace e darà spazio ad ulteriori speculazioni sulla vicenda, che non faranno altro che aggravare la reputazione del brand. Considerando poi l’effetto generato dal passaparola sui social, è meglio essere pronti ad ogni possibile evenienza.

 

Come non farsi trovare impreparati

Non si può affrontare una qualunque crisi senza una pianificazione adeguata. In primo luogo, è importante identificare le minacce più probabili che potrebbero riguardare ciascun gruppo di interesse. Bisogna stabilire poi i canali di comunicazione più adeguati e le risorse a disposizione, dai luoghi di lavoro ai sistemi informativi utilizzati. Altro aspetto da non sottovalutare è la scelta del team di crisi interno il quale, soprattutto nelle multinazionali, dovrebbe valorizzare differenti nazionalità e culture, per avvicinarsi a punti di vista diversi. In quest’ottica, risulta necessaria una gerarchia ben precisa, con ruoli e compiti prestabiliti, per poter agire in maniera uniforme e incisiva. Un gruppo strutturato presenta al suo interno alcune figure chiave, dal leader con funzione di coordinamento al portavoce, un comunicatore esperto che si espone in prima persona al pubblico. Questo gruppo intreccia diverse discipline e dipartimenti, dal management al personale di marketing, fino ai legali. Inoltre, l’azienda dovrebbe considerare la possibilità di coinvolgere anche professionisti esterni, che possano coordinare e formare il gruppo. Per quanto riguarda poi il lato giuridico, è meglio non concentrarsi troppo sulla paura di controversie: questa ricadrebbe sulla composizione del team e quindi anche sul suo operato. Oltre a ciò, un altro passo importante è rendere efficienti i flussi d’informazione, per fare in modo che le comunicazioni interne avvengano in pochi momenti e dal vivo, così da incoraggiare il lavoro di gruppo e accorciare i tempi. Diventa utile lavorare su un piano di riserva, nel caso in cui vengano meno alcune risorse strategiche. È anche necessario un controllo periodico delle informazioni riguardanti il brand, sia offline che online.

 

Affrontare la crisi, evitando gli errori più comuni

Nel periodo che intercorre la crisi, bisogna prestare ancora più attenzione alla comunicazione verso le parti prese in causa. Partendo dalle analisi fatte durante la pianificazione, è necessario definire i destinatari e i temi materiali a cui si sono dimostrati sensibili. Come già anticipato, è bene lavorare con cura sul contenuto, in modo tale che il messaggio sia comprensibile e colmi la mancanza di competenza degli stakeholder sul tema. Una dichiarazione d’apertura empatica e orientata all’azione permette di mostrare credibilità e autorevolezza ed evitare che si estenda la deriva d’immagine del brand. Da questo punto di vista, le scuse devono apparire sincere e devono prendersi la responsabilità dell’evento. È sempre meglio non fermarsi alle sole parole, ma dimostrare di aver assimilato l’errore con azioni volte in direzione opposta: iniziative di Corporate Social Responsibility hanno un impatto molto più profondo rispetto a semplici dichiarazioni superficiali. Inoltre, le imprese dovrebbero scegliere con cura i trend portati avanti nelle campagne pubblicitarie. Portare argomenti molto sensibili al pubblico (come la salute e i diritti civili) rischia di creare la percezione di svalutare il messaggio per fini promozionali. Perciò, è meglio allontanarsi da questo tipo di temi, o al massimo prestare una profonda attenzione ad essi ed alle reazioni che possono suscitare.

 

Il lavoro non è terminato: la valutazione post-crisi

Quando sta rientrando l’emergenza si ha un ritorno della gestione ordinaria delle attività. La mancanza di pressione di media ed opinione pubblica lascia all’impresa lo spazio per ragionare sul proprio operato e sugli aspetti da migliorare per il futuro. Si arriva così a valutare tempi di risposta, segnali di allerta e reazioni del pubblico. Attraverso una dichiarazione di chiusura, si può stabilire come è cambiata la realtà aziendale dopo questa situazione. Questo processo di analisi verrà poi assimilato nella fase di prevenzione strategica, per essere pronti per un nuovo intervento.

In generale, le crisi nascono principalmente da cause interne all’impresa, ossia dall’errore umano: basti pensare a molti casi di dichiarazioni del personale o di pubblicità che possono essere fraintese. Queste possono essere risolte solo se si dimostra di comprendere realmente il sentimento del pubblico e se ci si muove rapidamente per rimediare all’errore, per quanto possibile. Tuttavia, problematiche come la pandemia e il conflitto in Ucraina derivano da cause esterne: eventi di questo tipo producono un danno molto più marcato, dato che colpiscono un intero ecosistema di imprese e si ha minor margine di preparazione. In questo caso, è sempre più importante saper anticipare i cambiamenti, analizzando quei fattori che possono mettere in difficoltà l’assetto organizzativo. Gli avvenimenti degli ultimi due anni sono la prova lampante di come le crisi possano colpire nel profondo tutte le realtà, dalle multinazionali alle piccole e medie imprese.

< Torna indietro
Ambiente, società e tecnologia

Dalla ricerca di base al trasferimento tecnologico: intervista a Fabrizio Tubertini

Siamo circondati dall’innovazione digitale: abbiamo potuto constatarlo ancora una volta al Web Marketing Festival, che si è tenuto dal 16 al 18 giugno presso la fiera di Rimini. Nonostante le spinte innovative non manchino, sorgono alcuni problemi: cosa succede se queste nuove soluzioni tecnologiche non vengono recepite dall’intero mondo dell’impresa? Cosa accade se all’interno di un paese come l’Italia manca la consapevolezza del ruolo che la ricerca di base dovrebbe avere?

Abbiamo posto queste ed altre domande sul tema del trasferimento tecnologico a Fabrizio Tubertini, professionista Head of Industrial Liaison dell’Istituto Italiano di Tecnologia (IIT).

 

Per iniziare, che cosa significa trasferimento tecnologico e come viene declinato dall’IIT?

Il trasferimento tecnologico è la traslazione dell’attività di ricerca, con diverse applicazioni, verso il mondo dell’industria. L’Istituto Italiano di Tecnologia ha due missioni istituzionali la ricerca di base e appunto il trasferimento tecnologico. Questo fa sì che noi siamo molto focalizzati sul trasferimento tecnologico: i nostri ricercatori riconoscono come punto fondamentale che la loro ricerca dovrebbe essere applicabile all’industria, pur mantenendo uno sguardo di lungo periodo e generando innovazione non sempre immediata.

 

Durante gli interventi del festival è emerso come la digitalizzazione debba diventare trasversale a tutte le scienze: a volte immaginiamo scienziati alle prese con provette e intenti a mescolare sostanze manualmente, ma sono stati fatti esempi che mostrano come le nuove metodologie stiano diventando fondamentali anche nelle discipline non prettamente informatiche o ingegneristiche. Che ruolo ha quindi la digitalizzazione?

Ci sono due livelli di cui si può discutere: il concetto di digitalizzazione più diffuso e legato al senso comune si traduce in una semplificazione dello scambio di informazioni a livello nazionale e internazionale tra laboratori diversi. Le collaborazioni scientifiche hanno sicuramente beneficiato di questo scambio di informazioni, ma la vera differenza nella digitalizzazione sarà poter disporre di un “motore” di intelligenza artificiale comune a tutte le discipline. Anche un chimico – ad esempio – oggi ha la possibilità, attraverso l’AI, di testare sinteticamente, tramite simulazioni, determinate reazioni di interesse; grazie alla capacità di calcolo che stiamo acquisendo possiamo arrivare a fare prove sperimentali o test clinici, in vitro o addirittura su animali o sull’essere umano, su un numero di campioni già selezionato, in maniera più efficiente e meno costosa. In realtà tutte le discipline oggi stanno traendo vantaggio dalle innovazioni emergenti nell’ambito del machine learning e i prossimi anni continueranno ad essere fortemente caratterizzati da questa attività.

 

Se da una parte le startup sono intrinsecamente propense a ricercare nuove soluzioni tecnologiche, come si può far arrivare l’innovazione alle piccole e medie imprese?

Questo è un argomento che meriterebbe un’enciclopedia di approfondimento! Se da una parte ci sono vari tipi e sfumature di innovazione, tra cui la ricerca e l’innovazione in azienda, la difficoltà normalmente è di natura economica. In Italia le aziende, che tendono a essere piccole e medie imprese, vedono le sfide tecnologiche dell’innovazione come investimenti di incerto ritorno. Questo le frena: quando poi incontrano l’innovazione giusta ci si pone il problema di portarle su mercati che sono sempre più globali, dove non basta essere più forte del competitor che sta dall’altra parte della strada o del paese, dato che ci si scontra subito con i colossi internazionali. Nel nostro lavoro, naturalmente, ci relazioniamo con ogni tipo di azienda e cerchiamo di cogliere tutte le occasioni, fornite da fondi pubblici sia domestici che UE a disposizione delle aziende, per agevolare la traslazione della ricerca verso l’industria.

A livello nazionale si potrebbe provare a rilanciare il tema dei distretti industriali, dato che in Italia ne esistono ancora più di 150 attivi: sono aree territoriali specializzate in determinate produzioni, che potrebbero essere già veicolo di innovazione verticale se si aggregassero nell’accesso all’innovazione, sostenendone i costi frazionati su molti soggetti e con un beneficio a favore di tutti gli attori coinvolti. Questo è un tema che non possiamo risolvere noi come come singoli promotori dell’innovazione, ma che riteniamo potrebbe essere un agente catalizzante per il processo

 

Quanto è diffusa la consapevolezza che la ricerca di base possa portare benefici anche economici alle imprese?

La consapevolezza purtroppo non è così diffusa, ma abbiamo dati importanti di una diretta correlazione tra quanto uno stato investe in innovazione ed il ritorno in termini economici e di impatto sociale. Come accennavamo durante l’intervento sul PNRR (il “Piano Nazionale Ripresa e Resilienza”) e sul Tech Transfer, anche il numero di dottorati che vengono completati in un determinato Paese è sintomo di quanto quella nazione investa in innovazione: il dottorato è un percorso di ricerca, ma – altresì – un modo, nel medio periodo, per portare conoscenza in azienda. Incentivare la ricerca dà un ritorno, solitamente di medio o lungo termine: le politiche di investimento nell’innovazione hanno bisogno di tempi adeguati per portare frutti ed il PNRR è un’occasione importante, per il nostro Paese e per l’Europa, di dare un forte impulso alla ricerca ed alla traslazione verso l’industria rilanciando la nostra competitività internazionale.

 

Quali altri elementi mancano per raggiungere l’obiettivo in Italia?

La formazione delle giovani leve del Paese è una delle chiavi di volta di lungo periodo: siamo già, per alcuni aspetti, in deficit di risorse umane specializzate per colmare la domanda crescente di profili con formazione STEM. Se pensiamo ai bambini e alle bambine delle elementari di oggi per prepararli efficacemente alle professioni del futuro dovremmo mettere inconto di insegnare inglese più metodicamente ed inserire materie come il coding: così facendo probabilmente, tra 15 anni avremmo persone neodiplomate con una formazione di base che include già degli argomenti che saranno basilari per i lavori di domani che oggi possiamo solo immaginare. Altro tema fondamentale è quello dell’educazione continua: oggi non si può più immaginare di svolgere una qualsiasi attività professionale senza che questa muti sensibilmente nel tempo – grazie all’impatto positivo delle nuove tecnologie ad esempio – senza mai aggiornarsi o, addirittura, reinventarsi, al contrario di quanto è stato per le generazioni che ci hanno preceduto. Il mondo non ci permetterà più di rimanere ancorati a dei cliché così rigidi e dovremo tutti evolverci in continuazione, con il beneficio che ci allontaneremo sempre di più dai lavori usuranti, pericolosi e noiosi, perché quei lavori saranno svolti, per noi o sotto il nostro controllo, da robot o macchine.

 

A proposito di questo, un altro tema che genera dibattito e talvolta preoccupazione è l’automazione del lavoro: ma è un timore fondato?

Mi permetto di dire che la generazione z vivrà un periodo, presumibilmente, di abbondanza di offerta lavorativa. La vera sfida sarà quanto saremo veloci tutti a convertirci sulle nuove esigenze ed eventualmente “reskillarci” e riposizionarci. Sarà possibile che vivremo anche un momento di “gap” tra le esigenze della domanda e quella dell’offerta di risorse specializzate, un tema che si sta già affacciando per affrontare le sfide del PNRR.

In conclusione, la pianificazione di lungo periodo sarà un elemento determinante per sfruttare al meglio tutte le risorse che verranno messe a disposizione del nostro Paese.

< Torna indietro
Marketing & Social Media

Behavioral Economics: quando le scelte di pancia governano il nostro portafogli

Siamo abituati a descrivere l’uomo come un animale razionale ma riconosciamo anche che spesso molte delle sue azioni non possono essere definite tali. Questo vale persino a proposito della pulsione con cui molti individui affrontano le loro scelte consumistiche.

La “behavioral economics” è una branca dell’economia che si occupa di studiare i fattori sociali, psicologici ed emotivi che influenzano le decisioni umane in relazione al comportamento consumistico e finanziario.

Nonostante Adam Smith, padre dell’economia politica classica, ne avesse già accennato verso la fine del 1700, intere generazioni di economisti si sono rifiutati di affrontare il problema finchè la behavioral economics è balzata agli onori della cronaca grazie all’interesse suscitato dall’assegnazione di alcuni premi Nobel che l’hanno applicata a svariati campi: marketing, finanza, scienze politiche e sociali.

Di fatto, la behavioral economics non nega i capisaldi delle teorie fino ad ora postulate ma aggiunge ulteriore complessità alla loro interpretazione. Per trovare un parallelismo pensiamo alle leggi sulla gravità postulate da Newton: sono rimaste valide finché il loro campo di applicazione è rimasto confinato al mondo macroscopico ma quando si è giunti allo studio delle particelle elementari si sono rivelate non applicabili. La stessa cosa avviene nel campo delle teorie economiche classiche che si rivelano esatte in macroeconomia, quando si approfondiscono verso il particolare non lo risultano più.

Vediamo nello specifico di che cosa si tratta con alcuni esempi.

Per la legge della domanda e dell’offerta quando il prezzo di un articolo è molto basso gli individui tendono a comprarne in minore quantità e questo è un comportamento razionale dettato dal fatto che il prezzo viene giustificato con una bassa qualità. Un esperimento effettuato in California ha dimostrato che quando i clienti di un ristorante assaggiavano un vino a loro insaputa scadente ma venduto ad un prezzo molto alto lo ritenevano necessariamente di alto livello.

Rimanendo nell’ambito della comunicazione commerciale e del marketing, un alimento light con solo il 25% di grassi sarà più venduto di uno con il 75% di grassi in meno; un biglietto della lotteria che propone un vincitore su 1000 sarà più acquistato di uno che dichiara 999 perdenti a fronte di un vincitore solo; un abbonamento ad un fitness club che costa solo un euro al giorno sarà più allettante di uno che costa 365 euro all’anno. Un qualsiasi bene di consumo che costi qualunque cifra “ ,99 cent” ci darà l’impressione di farci risparmiare parecchio rispetto ad un altro che costi cifra tonda.

A questo punto si potrebbe pensare che la behavioral economics serva solo per abbindolare i consumatori ed invece non è così: la “Nudge theory” ovvero la teoria del pungolo, meglio conosciuta nella nostra lingua come “Teoria della spinta gentile”, utilizzando metodi di comunicazione e azioni virtuose, incoraggia i consumatori senza che loro se ne rendano conto ad effettuare scelte vantaggiose per le loro tasche e per la loro salute. Molti programmi, soprattutto negli USA, si sono rivolti infatti alla lotta contro il rischio di gravidanze precoci nella popolazione adolescente o a quella contro l’obesità.

Soprattutto nell’ultimo mezzo secolo, il comportamento umano in relazione ai beni di consumo e alle strategie di risparmio è diventato alquanto irrazionale fino a culminare nella crisi economico finanziaria del 2008. In questo senso la behavioral economics ha molto da dirci aiutandoci nel comprendere come e perché prendiamo alcune decisioni molto importanti e con ripercussioni sul futuro dei nostri portafogli. Considerare le emozioni, anziché negarle, ci aiuta a comprendere come noi stessi ci comportiamo in maniera realistica e non semplicemente appellandoci a dei modelli che ci suggeriscano le scelte più razionali da fare.

< Torna indietro
Marketing & Social Media

Neuromarketing al WMF: strumenti per distinguersi nell’epoca del deficit d’attenzione

Al giorno d’oggi diventa sempre più difficile per le aziende catturare l’attenzione del proprio target di riferimento, dato che queste devono farsi notare in un lasso di tempo sempre più ristretto.

In questo contesto subentrano gli studi introdotti dal Neuromarketing, che aggiungono conferme alla strategia comunicativa grazie alle neuroscienze: l’obiettivo finale è prevedere e influenzare il processo d’acquisto dei consumatori. Questo tema è stato trattato il 16 giugno al Web Marketing Festival di Rimini da Giuliano Trenti, presidente di NeurExplore, un’agenzia specializzata nell’applicazione delle scienze comportamentali al marketing.

Il suo speech ha spaziato su aspetti strategici diversi: il primo è il contagio emotivo. Una buona comunicazione è in grado di trasferire emozioni al pubblico destinatario del messaggio, tramite coinvolgimento e persuasione. Secondo recenti studi, in specifiche situazioni d’acquisto può essere utile utilizzare quelle che Trenti descrive come “parolacce”, al fine di trasmettere fiducia e veridicità nella comunicazione. Tuttavia, è importante non andare oltre un limite di tre parole: si ha il rischio, infatti, di ottenere l’effetto opposto e allontanare il consumatore. Il fattore cruciale è dato dal contesto decisionale: diventa quindi fondamentale intercettare meccanismi attrattivi adatti al proprio target che vadano a stimolare il sistema delle ricompense attraverso il rilascio di dopamina. All’atto pratico, è stata analizzata la reazione scaturita dalle recensioni: l’esaltazione delle qualità dei propri prodotti, senza mettere in mostra commenti positivi di terze parti, rende il potenziale cliente meno propenso all’acquisto.

Il secondo elemento analizzato è stata la nostalgia, ossia il sentimento che unisce felicità e tristezza. È stato dimostrato che questa sensazione ha un marcato effetto positivo, soprattutto quando vengono rievocate esperienze comuni del passato: lo storytelling, accompagnato da un elevato rilascio di dopamina, genera una maggiore disponibilità ad acquistare. Una narrazione che fa leva sulla nostalgia produce risultati migliori rispetto ad una con mera finalità informativa, incentrata unicamente sulle qualità del prodotto.

Un altro argomento trattato è stato l’aspetto formale dei contenuti. Un caso particolare è dato dall’utilizzo di immagini di bambini o animali, che generano il cosiddetto “effetto tenerezza” in chi le guarda. Questo accorgimento ha molto successo nel coinvolgere le persone in iniziative umanitarie e sociali, ma è anche utile nel far tollerare maggiormente i disservizi e i malfunzionamenti. Inoltre, i video verticali risultano più fruibili al pubblico, soprattutto da mobile: è quindi importante adattare i formati delle ads per ottenere una maggiore conversione. Oltre a ciò, è stato constatato che per un e-commerce è fondamentale tenere a mente che la presentazione dinamica di un prodotto, con l’aggiunta della rotazione, influenza di gran lunga le scelte d’acquisto rispetto ad una visuale statica.

Dal punto di vista dei social, è stato poi analizzato il profilo degli influencer e delle metriche. Per quel che riguarda i follower, i micro-influencer vengono percepiti più affidabili rispetto a quelli con un seguito maggiore, dato che si avvicinano di più al loro pubblico e hanno una maggiore probabilità d’influenzare le sue scelte. Inoltre, nell’ottica della previsione di un acquisto la quantità di commenti rappresenta il segnale più importante da considerare: è necessario, perciò, porre l’attenzione sulla cura del lato testuale del contenuto, in modo tale da coinvolgere e stimolare l’interazione. Quest’ultimo tema è legato al punto successivo del discorso di Trenti: per creare nuove abitudini sostenibili e stimolare un gruppo a compiere una determinata azione, possono essere utilizzati alcuni meccanismi di grande efficacia. Tra questi, si hanno la riprova sociale e la peer pressure, entrambi riconducibili alla tendenza delle persone ad essere influenzate dal comportamento di altri soggetti simili a loro.

L’insieme dei fattori esaminati sono delle leve determinanti, soprattutto quando il consumatore non ha un’idea chiara di quale sia la decisione migliore da prendere: in questo contesto, la scelta del consumatore è pienamente influenzabile. Intervengono quindi tre bias cognitivi: l’effetto von Restorff, basato sull’associazione di un elemento insolito ad altri simili tra loro; l’avversione agli estremi in un range di scelte, che insieme all’effetto esca indirizza l’acquisto verso un’opzione specifica; il prezzo come parametro per definire l’aspettativa di piacere, a causa del quale un’offerta più costosa è ritenuta di qualità migliore. Conoscendo tutti questi accorgimenti, il Neuromarketing può fornire alle aziende degli strumenti aggiuntivi per potersi distinguere all’interno del proprio settore e guidare il target di riferimento nel percorso decisionale.

< Torna indietro
Ambiente, società e tecnologia

La settimana lavorativa di quattro giorni: meno stress, più efficienza

Supponiamo per un momento che sia una normalissima domenica sera e che tu sia disteso sul divano a scrollare Instagram oppure sul balcone a goderti l’ultimo timido raggio di sole che, soffuso, accarezza gli spigoli dei palazzi.

Anche se magari è stata una bella giornata e c’è ancora un tiepido crepuscolo, senti una strana (ma nota) sensazione di affanno nel petto, che fa immediatamente svanire quella ben costruita tranquillità in cui finalmente ti illudevi di essere avvolto. Lo stesso fatto che sia domenica sera, in realtà, induce di default la tua mente a proiettarsi al lunedì mattina del giorno successivo: d’improvviso, la tua normalissima serata si carica di un clima di sospensione dal retrogusto amarognolo, in cui le angoscianti prospettive future, che caratterizzano l’inizio della nuova settimana, occupano violentemente lo spazio del presente, già oberato dal peso dell’attesa.

 

In un attimo, stai già pensando alla colazione del giorno dopo, al viaggio in treno o al traffico di ritorno dall’ufficio, e la tua tranquilla domenica sera è da buttare.

Mentre cerchi una via di fuga tra il labirintico susseguirsi di pensieri, finalmente realizzi: domani non devi andare a lavoro, perché la tua “settimana lavorativa”, in realtà, dura solo 4 giorni.

 

Partiamo da qualche dato

In Italia (preparatevi) lavoriamo molto, almeno come quantità: si stima infatti, come pubblicato dall’OCSE che una persona italiana lavori in media 33 ore alla settimana, cioè ben tre ore in più rispetto alla media europea di trenta ore. In Germania, per esempio, le ore di lavoro sono mediamente ventotto ore e nei Paesi Bassi ventinove.

Il fatto di lavorare molto però di per sé non implica affatto una buona qualità o produttività, anzi.

Le statistiche dicono che, in particolare dopo la pandemia, i casi di stress ed ansia siano notevolmente aumentati. Insieme ad essi, hanno subito una drastica impennata anche i casi di burnout, una sindrome recentemente riconosciuta dall’OSM che consiste in una condizione di esaurimento emotivo, depersonalizzazione e derealizzazione personale dovuta all’azione sinergica di vari fattori, tra cui il contesto lavorativo.

A sostenere questa tesi è una ricerca condotta da BVA Doxa per Mindwork, i cui risultati sono stati riportati sul sito di Ansa.it. Dallo studio emerge che circa il 50% degli italiani soffre di malessere psicologico sul lavoro. In Giappone, per esempio, esiste il “karoshi” per indicare proprio la “morte per il troppo lavoro”.

Alla luce di queste evidenze, risulta sempre più urgente non solo comprendere la condizione lavorativa in cui si ritrova costretta una grande parte della popolazione, ma anche attivarci per cambiare le cose.

Se è innegabile che il lavoro costituisca una fetta importante (per non dire la maggior parte) della nostra vita, risulta quantomeno necessario che ognuno di noi abbia la possibilità di instaurare un rapporto sano e proficuo con la propria occupazione, senza dover essere costretto a compromettere la propria salute mentale per portare a casa la cena.

Attualmente, la settimana lavorativa di quattro giorni, senza alcun taglio allo stipendio, è stata avviata in molti paesi, rilevando complessivamente un impatto positivo per entrambe le parti implicate.

 

L’esperimento e i compromessi

I vantaggi della giornata lavorativa di 4 giorni sono molti, sia per il personale che per le audaci aziende coinvolte. In molti paesi dell’Unione Europea, tra cui Inghilterra, Belgio e Scozia (e prossimamente anche la Spagna), sono stati condotti degli esperimenti pilota della durata di almeno sei mesi in cui i dipendenti hanno avuto la possibilità di scegliere se intraprendere un percorso lavorativo di quattro giorni.

A tal proposito, Repubblica ha riportato che, all’inizio di giugno, nel Regno Unito è stato avviato il più grande esperimento al mondo per testare la settimana lavorativa ridotta, senza alcun taglio alla busta paga.
Il progetto coinvolge più di 3000 dipendenti e 70 aziende ed è condotto in collaborazione con le prestigiose Università di Oxford e del Boston College. Lo scopo dell’iniziativa è infatti proprio quello di verificare l’impatto e gli effetti che la riduzione del monte ore, a parità di retribuzione, può avere sulla produttività aziendale e sul benessere del personale.

Il concetto di base è che, lavorando per meno giorni, i dipendenti siano meno stressati e riescano a sfruttare meglio i tempo a disposizione, ottimizzando le prestazioni e risultando quindi più efficienti e produttivi.

Studi condotti in Giappone hanno già dimostrato i grandi vantaggi di questo nuovo modo di vedere ed organizzare il lavoro: al termine del progetto, i lavoratori erano più felici ed il 40% più produttivi, riscontrando un miglioramento dell’equilibrio tra lavoro e vita privata, oltre che una riduzione massiccia dei casi di stress e burnout.

É evidente quindi come la produttività non dipenda da quanto lavoriamo, ma dalla qualità e dal mindset con cui il lavoro viene affrontato.

 

La riduzione della canonica settimana lavorativa sembra quindi impattare molto positivamente sulla salute mentale dei dipendenti, migliorandone la felicità e comportandone anche un aumento della produttività durante le ore di lavoro. Lavoratori più motivati ed efficienti non possono quindi che avere un impatto positivo sull’azienda. Tra gli effetti positivi, si annovera anche un potenziale impulso al tasso di occupazione, oltre al fatto che questa possa contribuire all’eliminazione del gender-gap, cioè il divario (in primo luogo salariale) che tutt’ora esiste tra uomini e donne. Secondo il World Economic Forum infatti, l’aumento del tempo libero sia per gli uomini che per le donne garantirebbe ad entrambi i genitori di potersi occupare dei figli senza essere costretti (in particolar modo le donne) a rinunciare al lavoro o a dover ricorrere al part-time.

 

Vivere per lavorare o lavorare per vivere?

L’equilibrio tra lavoro e vita personale è di fatto il risultato di un abile gioco tra priorità e dignità della vita.

Si spendono ormai fiumi di parole per spiegare quanto la nostra esistenza sia diventata tremendamente frenetica, connessa e digitalizzata: non abbiamo un attimo per fermarci, respirare e riflettere, mentre sognamo di diventare ubiqui.

Siamo cresciuti in un contesto socioculturale che, nella maggior parte dei casi, ci ha sempre insegnato a rendere il lavoro una priorità, secondo il motto: “Prima il dovere, poi il piacere”.

Il concetto che, negli anni, abbiamo costruito del lavoro ha però progressivamente acquisito dei contorni sempre più cupi e distorti: focalizzandoci sulla necessità di trovare un’occupazione che ci garantisse di (soprav)vivere, abbiamo tralasciato la possibilità di svolgere una professione che rispecchiasse realmente noi stessi e le nostre inclinazioni. I turni opprimenti, gli orari fissi e gli straordinari sottopagati sono condizioni che certamente non migliorano questo rapporto già molto complesso ed incrinato.

Nonostante sia auspicabile riuscire a trovare un lavoro che ci renda felici, talvolta accade che le aspettative vengano deluse, costringendoci in delle realtà non sempre soddisfacenti, come testimoniano i risultati di un’analisi condotta dell’Istat. L’elemento maggiormente impattante in questa logica è il concetto di “lavoro totalizzante”, secondo cui la nostra persona dovrebbe esaurirsi completamente all’interno della mansione svolta. Spesso però, passioni, interessi ed altri slanci vitali rimangano tagliati fuori dal nostro panorama lavorativo e vengono relegati in quel famoso bacino del “tempo ibero”, che diventa sempre più esiguo e ridotto.

 

Se è chiaro che non siamo persone monolitiche, in quanto abbiamo un’anima ricca di sfaccettature in continua evoluzione, al lavoro, che costituisce gran parte della nostra esistenza, spetta il compito di accompagnarci in questo processo di crescita ed adattamento.

Se è vero che le potenzialità lavorative si stanno progressivamente ampliando e diversificando, coprendo uno spettro sempre più ampio di inclinazioni umane, è anche necessario che le modalità di erogazione del lavoro si conformino ad una società più fluida e flessibile, in continua evoluzione.

 

La macchina economica deve perciò venire in contro a queste nuove esigenze, adattandosi ad una matrice umana che altrimenti, come magma, fonderà le gabbie che attualmente gli sono imposte.

< Torna indietro
Entertainment, videogame e contenuti

Il metaverso spiegato al Web Marketing Festival

Il metaverso, come lecito aspettarsi, è stato uno dei temi caldi del Web Marketing Festival di quest’anno. Noi di iWrite abbiamo deciso di riassumere i contenuti dei principali panel sull’argomento in questo articolo speciale dedicato all’evento di Rimini.

 

Metaverso e videogiochi: sono concetti così differenti?

Nel suo panel, “Metaverso Brand e Gaming: un nuovo ecosistema”, Matteo Favarelli, CEO di AnotherReality, ha presentato diverse nozioni di base sul concetto di metaverso e come questo sia essenzialmente figlio del gaming.

Secondo Favarelli, nonostante esistano più definizioni di metaverso, il concetto fondamentale è che il metaverso è quel “luogo” in cui digitale e reale si fondono diventando un tutt’uno. Il metaverso sarà, quindi, il punto di interazione tra il digitale e il fisico, in cui saremo sempre connessi. Ciò è già possibile tramite gli smartphone ma, il passo successivo sarà la rimozione di questo intermediario tramite tecnologie immersive che avremo solo con i futuri modelli di dispositivi VR e AR. Per quanto riguarda ciò che abbiamo oggi, la base del metaverso è costituita da mondi sociali virtuali, che più semplicemente possiamo etichettare come videogiochi. Tramite questi ultimi, infatti, i brand si stanno avvicinando e stanno provando a investire nel metaverso. Esistono tre modalità tramite le quali i brand possono utilizzare commercialmente i videogiochi. La prima e più classica, è l’inserimento di un classico adv nell’ambiente virtuale. Il secondo modo è creare dei mondi dedicati o dei micro-livelli all’interno di un gioco. Mentre la terza e più dispendiosa opzione è la creazione di mondi verticali ad hoc. Dal punto di vista dei giocatori, c’è stata un’evoluzione dal pay-to-play, al free-to-play e, oggi, al play-to-earn, in cui gli utenti giocano per guadagnare. Nel momento in cui tutti saremo nel metaverso – e quindi sempre connessi – saremo giunti alla fine dell’attuale evoluzione tecnologica. Bisogna iniziare a distogliere lo sguardo dallo smartphone e iniziare a considerare che, tra una quindicina di anni, accederemo al web non piegando il collo ma guardandoci attorno.

 

Sicurezza e diritti: nuove sfide per la tutela degli “umani digitali”

Durante il loro panel dal titolo “Prossima frontiera metaverso, tra sicurezza e diritti umani”, Marco Magnano e Valentino Megale, rispettivamente presidente e vice-presidente di XRSI Europe, hanno parlato di aspetti del metaverso quali diritto e sicurezza.

 

Nella prima parte del panel, Magnano ha iniziato mettendo subito in chiaro che il metaverso non esiste ancora. Oggi, infatti, esistono singole piattaforme: isole sconnesse le une dalle altre, ognuna delle quali in competizione per diventare il metaverso di riferimento. Per definire cosa sia il metaverso bisogna, innanzitutto, definirne la base, l’ethos. Con questo termine, Magnano si riferisce all’insieme ad aspetti in comune con il “mondo reale” quali etica, diritti, politica, economia e governance. Si passa, poi, a definire le infrastrutture – e quindi gli aspetti tecnici-tecnologici legati a hardware e software – che dovrebbero portare a un’adozione di massa e un’interoperatività del metaverso. L’obiettivo finale dovrebbe essere il raggiungimento di una situazione in cui, con relativa facilità, si possa accedere a ogni metaverso tramite un client unico. Ma tutto ciò come impatterà con la nostra realtà? Per prima cosa la produzione (e condivisione) dei dati aumenterà smisuratamente, a causa della “cattura continua della realtà” che le tecnologie immersive consentono. Stando a uno studio di laboratorio condotto da XRSI, 20 minuti in VR completa generano circa 2 milioni di dati registrati tra dati tradizionali (login, percorsi di navigazione) e dati legati ai movimenti del corpo e degli occhi. Inoltre, il continuo miglioramento dell’efficienza di questi algoritmi consente di registrare dati biometrici non richiesti, quali asimmetrie corporali e, per esempio, utilizzo di droghe, ma che potrebbero essere particolarmente utili per monitorare la salute di chi utilizza tecnologie immersive. È facile intuire, quindi, quanto tutto ciò ponga delle nuove sfide in tema di sicurezza: è nata una nuova potenziale superficie di attacco per hacker e malintenzionati. Tramite VR e AR si possono, infatti, subire nuovi tipi di attacchi informatici quali:

  • Tracker attack: non esclusivo degli ambienti immersive ma particolarmente più efficace con questi, consente di sfruttare la natura permissiva dei sistemi VR e di prendere il controllo delle videocamere del dispositivo
  • Chaperone attack: fa si che si modifichino i confini virtuali della gabbia virtuale (il sistema che consente di non allontanarsi troppo dal punto di partenza mentre si usa un dispositivo VR), creando pericoli per l’utente e chi gli sta attorno
  • Human joystick attack: viene sfruttato lo scollamento tra ciò che l’utente vede e il luogo in cui si trova, l’hacker ne prende di fatto il controllo inducendo determinati movimenti tramite ciò che l’utente vede in VR
  • Overlay attack: vengono visualizzate immagini esterne sovrapposte alla visione dell’utente, di fatto sono un nuovo tipo di ransomware.

 

È abbastanza chiaro che, in questo contesto, diventa fondamentale ragionare su quali strumenti si possano usare per tutelare i diritti degli utenti nel metaverso. Per far ciò, Magnano identifica tre parole chiave su cui  basarsi: identità (quella digitale è diversa da quella fisica), proprietà (l’identità dovrebbe essere interoperabile e decentralizzata) e protezione (servono leggi e strumenti per tutelare l’identità degli “umani digitali).

 

Nella seconda parte del panel, Valentino Megale si è concentrato su un ulteriore aspetto di criticità legato alla tutela dei diritti nel metaverso: la protezione di bambini e ragazzi. Con la diffusione nel mercato di massa di visori economici, infatti, non è raro che minori entrino in contatto con tecnologie immersive. La realtà virtuale è, per definizione, meno controllabile di quanto lo siano i dispositivi che abbiamo conosciuto finora: per farla semplice, un genitore può facilmente controllare di che tipo di videogiochi fruisca o che video guardi suo figlio sul televisore o sul tablet, mentre è più complesso avere accesso a ciò che vede e fa in realtà virtuale. Le aziende si trovano, quindi, in una posizione privilegiata per monitorare i comportamenti di una fascia di popolazione particolarmente debole. Senza contare che si sta parlando di una tecnologia cognitiva che viene fornita a un pubblico ancora emotivamente e cognitivamente debole. I minori possono entrare in contatto con rischi associati al contenuto (contenuti sessuali o violenti), al contatto (abusi e stalking), alla condotta (molestie e cyberbullismo) e alle transazioni (phishing e furto di dati). Una tecnologia cognitiva come quella VR può portare, quando utilizzata da individui il cui sviluppo cognitivo è ancora in corso, a sviluppare bias cognitivi, a disturbi quali il Proteus Effect, in cui il minore tende a comportarsi come il proprio avatar anche all’esterno dell’ambiente virtuale, e gli After effects che portano a distorcere i movimenti del bambino dopo l’utilizzo del visore. Tutte queste criticità possono essere limitate, principalmente, sensibilizzando genitori ed educatori, e coinvolgendo le imprese e i policy maker. XRSI sta cercando di sviluppare alcune linee guida assieme a questi soggetti attraverso il progetto Metaverse Child Safety Framework.

 

Quando il calcio incontra il Metaverso

Gabriele Bernasconi ha presentato un case study realizzato dalla sua azienda, Genuino, presentando una strategia molto interessante per una squadra di calcio italiana che si è affacciata per la prima volta al mondo degli NFT e del metaverso.

Lo speaker è partito dalla spiegazione del concetto di possesso, fondamentale in quanto la necessità  dell’uomo di possedere cose si sta trasformando da oggetti fisici a oggetti virtuali. Non a caso, le persone non comunicano solo con le parole ma lo fanno anche attraverso quello che possiedono. Neymar, per esempio, ha acquistato un NFT che ha poi utilizzato come stampa per i suoi vestiti solamente per entrare all’interno di una nuova  community.

Oggi quindi possedere questi asset digitali ha assunto molta importanza, e ha permesso di passare ufficialmente da un collezionismo fisico a uno digitale.

 

Per pensare e mettere in pratica una strategia come quella che racconteremo, è fondamentale essere consapevoli dell’importanza della connessione tra mondo fisico e digitale, e partire con l’idea di voler costruire qualcosa di nuovo finora mai visto.

Genuino, l’azienda dello speaker, ha deciso di focalizzarsi proprio su questo tipo di connessione per soddisfare la richiesta della squadra di calcio.

 

Il progetto in questione ha visto protagonista la squadra di calcio della Fiorentina ed è stato realizzato in occasione dei 95 anni dalla fondazione del club. Per celebrare questo traguardo sono state pensate tre strategie specifiche che hanno visto come obiettivo principale la costruzione di una collezione di oggetti digitali collegati a quelli fisici da vendere ai tifosi della squadra.

Il primo obiettivo è stato la ricostruzione da zero in 3D di tutte le maglie realizzate dalla squadra dal 1926 ad oggi, un numero non indifferente. In seguito, è stata avviata una collaborazione con una scuola di comics di Firenze. Attraverso i loro artisti sono state create delle opere che sono diventate poi degli NFT. Infine, è stato curato e sviluppato il lato della soddisfazione del cliente.

In pratica, sono stati realizzati più di mille contenuti digitalizzati e sono stati inseriti all’interno di pacchetti online da vendere agli utenti.

Ma perché un tifoso avrebbe dovuto acquistare un NFT della sua squadra di calcio? La risposta è stata per stare più vicino alla propria squadra e avervi un accesso più diretto.

Il risultato di questo progetto? I pacchetti hanno riscontrato un successo enorme, il tasso di conversione è stato molto alto, tanto che il 15% degli utenti della piattaforma hanno acquistato i pacchetti. Ma l’aspetto più interessante di questa storia è il fatto che la maggior parte degli utenti che hanno acquistato questi pacchetti appartenevano ancora al web 2.0, quindi non avevano mai avuto a che fare con queste nuove tecnologie.

Il successo di questo progetto e la lezione da imparare è il fatto che è possibile abbattere limiti ancora evidenti che separano le persone da NFT e Metaverso.

La chiave per riuscire a portare questi utenti all’interno di una piattaforma così diversa è stata  il processo di educazione, in quanto è necessario come prima cosa spiegare in maniera chiara all’utente come funziona.

Per contrastare il fatto che solo l’1% della popolazione sa cosa siano gli NFT, hanno deciso di lavorare sull’autenticazione utente, ovvero utilizzando il metodo tradizionale di username e password per entrare nella piattaforma e successivamente hanno creato un ponte per permettere agli utenti di acquistare con una carta di credito la criptovaluta della piattaforma per acquistare gli NFT. In questo modo è stato molto più semplice per loro raggiungere un target ancora poco pratico con queste tecnologie.

< Torna indietro
Ambiente, società e tecnologia

È possibile trasformare le città italiane grazie all’innovazione digitale?

Sebbene le nuove tecnologie digitali portino benefici concreti e visibili in moltissimi ambiti, non sempre è facile implementarle: è il caso delle città italiane, di cui si è discusso durante il Web Marketing Festival, che si è tenuto a Rimini tra il 16 e 18 giugno. Durante i panel abbiamo ascoltato l’esperienza diretta di sindaci e tecnici provenienti da contesti urbani molto differenti, ma uniti nella ricerca di strategie per far diventare pervasive e fruibili da tutti le soluzioni digitali nelle città.

Perché è difficile portare l’innovazione digitale nelle città italiane?

I problemi che sono stati posti sono ancora privi di una soluzione definitiva, perché spesso sono connaturati alla struttura della tipica città italiana: nel suo intervento Maurizio Carta (potete leggere la sua intervista qui), architetto e urbanista, l’ha definita “novecentesca”. Se da una parte il patrimonio culturale e artistico italiano è intrinsecamente legato ai centri urbani e c’è accordo nell’intento di preservarlo e valorizzarlo, dall’altra è difficile, in un contesto simile, rivoluzionare l’infrastruttura di una città per farla diventare davvero smart. Si rischia perciò di limitare le innovazioni possibili a “protesi digitali” sul corpo di una città che non diventa digitale a sua volta.

Inoltre bisogna creare l’infrastruttura necessaria per organizzare, interpretare e sfruttare al meglio i dati. Per questo è fondamentale che le grandi città, che hanno già visto avviare progetti di digitalizzazione, guidino i piccoli comuni nel percorso dell’innovazione. Un esempio in questa direzione è stato portato da Massimo Bugani, assessore all’agenda digitale di Bologna: l’inaugurazione annunciata di un nuovo percorso formativo I.T.S. (cioè di istruzione tecnica superiore) sulla cyber-sicurezza ha portato alla nascita di progetti pilota anche nei comuni dell’area metropolitana di Bologna.

Gemelli digitali delle città: che cosa sono e perché ne abbiamo bisogno?

Come si utilizzano grandi quantità di dati per migliorare le città? Immaginate di poter conoscere preventivamente come la realizzazione di un nuovo complesso avrà effetti sulla città (anche a livello di sostenibilità ambientale) o quali danni potrebbero verificarsi in un cantiere: questo è possibile grazie a un gemello digitale, cioè una “rappresentazione virtuale di un’entità fisica o di un sistema anche complesso”. Si tratta di un modello che può esistere e rappresentare in modo sempre aggiornato la realtà grazie alla raccolta e all’elaborazione costante dei dati provenienti dal sistema che bisogna riprodurre (nel caso delle città, da un cantiere, dalla rete stradale etc.). Grazie ai dati è possibile, con simulazioni condotte dal e sul gemello digitale stesso, predire futuri danni e così progettare interventi di manutenzione preventiva, oppure rimodulare un intervento sulla città in base alle nuove informazioni ottenute. Tutto questo non sarà però possibile se non sarà garantita l’installazione diffusa di sensori che registrino continuamente tutte le informazioni necessarie a conoscere lo stato della città e la presenza, all’interno delle amministrazioni comunali, di tecnici specializzati nel trattamento dei dati.

È possibile un “Rinascimento” per i borghi italiani?

Come è possibile valorizzare anche i centri urbani che non hanno una vocazione per la digitalizzazione paragonabile a quella delle metropoli, come i borghi? Concentrare tutti gli sforzi sul turismo tradizionale non è più sufficiente: è necessario digitalizzare i servizi culturali e turistici rivolti ai viaggiatori e fare sì che questi servizi siano connessi e condivisi tra borghi vicini, così che la possibilità di visitare territori collegati sia agevolata e incoraggiata. Ma ancora non basta: durante il Web Marketing Festival è stato proposto e discusso il tema dei borghi come meta per i nomadi digitali, cioè professionisti “che svolgono un’attività lavorativa altamente qualificata attraverso l’utilizzo di strumenti che consentono di lavorare da remoto”.

Rispetto alle grandi metropoli, i borghi potrebbero diventare il posto ideale per il loro benessere fisico e mentale, e a loro volta i nomadi digitali potrebbero portare innovazione sul territorio. È necessario però che l’infrastruttura digitale dei borghi si adegui alle loro necessità lavorative, per esempio tramite la connessione ultraveloce.

Uno dei concetti fondamentali emersi dalla riflessione sulle città al Web Marketing Festival è la specificità di ogni contesto urbano: solo adattando le soluzioni che la digitalizzazione offre caso per caso è possibile portare un’innovazione che sia utile per tutti.

< Torna indietro
Ambiente, società e tecnologia

La blockchain come mezzo per la sostenibilità: un rapporto in evoluzione

Un approccio sostenibile nella produzione e nel consumo deve diventare un pilastro portante per la società moderna. Non esiste, infatti, futuro che non sia gentile con il Pianeta, con gli animali e le persone e la situazione attuale di siccità lo conferma. Tutti (singoli cittadini, imprese e governi) devono intraprendere azioni per raggiungere l’obiettivo comune di sviluppo sostenibile.

Piccoli segnali positivi arrivano dai consumatori: i dati raccolti dall’Osservatorio per la Coesione e l’Inclusione Sociale nell’indagine avviata nel 2018 sul consumo responsabile mostrano che più del 60% degli intervistati si dichiara consumatore responsabile; sui social cresce la sensibilità al tema e sugli scaffali l’offerta. Dall’altro lato, però, una ricerca condotta da Astarea nel 2020 mostra che 1 consumatore su 5 non è in grado di riconoscere il greenwashing (per approfondire il tema della comunicazione sostenibile e il fenomeno del greenwashing si rimanda a questo precedente articolo della nostra redazione).

Sempre più imprese, in accordo con la crescente domanda di mercato e con le direttive europee, si stanno muovendo verso una produzione responsabile, con una filiera controllata ed etica, secondo le linee dell’Agenda 2030. Le imprese che si approcciano alla sostenibilità devono compiere un percorso non necessariamente lineare e in cui sono diversi sia gli aspetti che si possono tenere in considerazione all’inizio sia gli strumenti che si possono usare.

Durante il Web Marketing Festival, noi di iWrite abbiamo assistito al talk di Walfredo della Gherardesca, CEO e co-founder di Genuine Way, una start up ticinese che attraverso la blockchain fornisce un mezzo alle imprese per certificare la propria filiera di produzione. Ma in che modo la blockchain può essere utile a un’impresa che intraprende un cammino verso la sostenibilità?

La blockchain è una raccolta di dati in blocchi, concatenati e decentralizzati, con la caratteristica unica di essere immutabili. Una volta inseriti dei dati all’interno della blockchain nessuno ha il potere unilaterale di modificarli, alterarli o rimuoverli. Queste sue caratteristiche la rendono sinonimo di trasparenza e responsabilità e può essere applicata a diversi ambiti. Per quanto riguarda la sostenibilità, la blockchain può essere utilizzata dalle imprese come ulteriore mezzo per certificare le proprie azioni positive, in modo da arrivare direttamente al consumatore, ad esempio con un QR code apposto sul prodotto stesso che, una volta scansionato, racconta la storia del prodotto stesso, dalle materie prime allo scaffale. Ovviamente mettere informazioni sulla blockchain non significa necessariamente garantire la veridicità delle informazioni ma fornisce trasparenza a lungo termine, rimanendo a disposizione come archivio. Genuine Way per evitare l’autoreferenza delle informazioni immesse si basa su operatori autenticati terzi, di cui un’impresa normalmente già si avvale: fornitori, fornitori dei fornitori, provider dell’energia elettrica e altri. Questo approccio si fonda sulla teoria della multiplication of accountability, per cui moltiplicare le responsabilità diminuisce la possibilità di fare greenwashing.

 

Il legame tra blockchain e sostenibilità è in evoluzione, sia per la blockchain stessa che è un sistema molto energivoro, sia per il legame con le realtà presenti. Questo è solo uno dei modi in cui blockchain e sostenibilità si fondono ma il loro rapporto è destinato a modificarsi con il radicarsi di questi due aspetti nella nostra società.

 

< Torna indietro
Ambiente, società e tecnologia

Il consumo è sempre più green: spunti di riflessione dal Web Marketing Festival

Se si interrogasse il dizionario online dei sinonimi e dei contrari, i primissimi termini suggeriti al posto di “sostenibilità” sono tollerabilità e sopportabilità.  Non è un caso che il concetto di sviluppo sostenibile sia stato anticipato di qualche anno dal “Rapporto sui limiti dello sviluppo”.  All’interno di questo libro veniva descritto, per la prima volta, l’esito di una simulazione al computer che aveva lo scopo di valutare le interazioni fra popolazione mondiale, industrializzazione, inquinamento, produzione alimentare e consumo di risorse. In particolare, veniva messo in evidenza che la crescita produttiva illimitata avrebbe portato allo smodato consumo delle risorse energetiche e ambientali con un irreversibile deterioramento del pianeta.

Quindi, il concetto di sostenibilità nasce dall’esigenza di individuare un prima, caratterizzato da un modello di sviluppo che se perpetuato avrebbe reso la nostra presenza nel mondo intollerabile, e delineare un dopo che, auspicabilmente, doveva essere basato su di un nuovo paradigma di sviluppo non solo diverso ma, per certi versi, opposto a quello antecedente.

 

La rivoluzione dal basso

Consumate quasi tutte le risorse a disposizione del genere umano e giunti al punto di pagarne le drammatiche conseguenze, lo sviluppo sostenibile, inteso come processo in grado di assicurare «il soddisfacimento dei bisogni della generazione presente senza compromettere la possibilità delle generazioni future di realizzare i propri», è diventato una necessità. Oggi tutte le aziende sono chiamate a muoversi in tale direzione. Proprio in quest’ottica, nel 2015, le Nazioni Unite hanno pubblicato l’Agenda 2030, “un piano d’azione per le persone, il Pianeta e la prosperità”, che possa fungere da faro per le persone, per le aziende e per le nazioni.

La pandemia ha modificato la sensibilità dei primi anelli di questa catena. I consumatori, ora più attenti verso le tematiche ambientali e sociali, vogliono essere sempre più protagonisti del cambiamento. La conferma arriva anche dai dati citati da Americo Bazzoffia durante il suo intervento al WMF: in Italia, 7 consumatori su 10 hanno rivalutato il proprio modo di fare acquisti e addirittura il 39% dei consumatori è disposto a pagare fino a un 10% di più per prodotti sostenibili. Questo nuovo interesse spinge le aziende non solo a intraprendere una strada sempre più “green” ma anche a comunicare sempre meglio la loro sostenibilità.

 

Attenzione al greenwashing

Diversi studi dimostrano che il consumatore odierno è più sensibile, più competente e quindi più attento. Questo significa che la comunicazione della sostenibilità deve essere corretta, veritiera, attendibile, chiara, rilevante e coerente. Nasce per questo l’esigenza dell’affermazione del “claim etico” che si discosta dal playoff emozionale che negli anni scorsi tanto è stato utilizzato e che per lungo tempo ha generato grandi fenomeni di greenwashing.

Ad oggi, anche se non è presente ancora una normativa puntuale sull’argomento, è richiesto che i messaggi contenuti nella comunicazione siano sostenuti da evidenze e il produttore deve sempre consentire al consumatore di effettuare la verifica delle asserzioni con cui presenta il prodotto, per evitare di essere chiamato a rispondere davanti all’autorità nazionale a ciò designata di essere protagonista di una pratica commerciale sleale, con tutte le conseguenze negative sull’immagine aziendale che ciò può comportare. Qualora si ritenga di essere dinanzi a un sospetto caso di greenwashing, in Italia, è possibile rivolgersi all’Autorità garante della concorrenza e del mercato, successivamente instaurare un giudizio civile e segnalare il caso all’Istituto dell’autodisciplina pubblicitaria. Almeno questo è l’iter perseguito lo scorso novembre nella prima sentenza per greenwashing in Italia.

 

Costruire la sostenibilità

Come visto in precedenza, il principio di sostenibilità si basa non solo sul rispetto intragenerazionale ma anche su quello intergenerazionale. Dunque ciascuno è chiamato ad agire secondo le proprie possibilità. L’aumento del fenomeno consumo-sostenibile sprona le aziende a una maggiore attenzione verso determinati temi e le spinge a competere non solo attraverso il prodotto o servizio fornito ma anche sulla capacità di comunicare e rendere verificabile il loro operato.

Proprio a questo punto entrano in azione gli enti di certificazione e le agenzie comunicative. Ai primi viene chiesto di controllare che i beni e i servizi siano prodotti o distribuiti secondo norma di legge mentre ai secondi viene chiesto di generare claim etici che non solo muovano il consumatore all’azione ma che siano in grado di informare correttamente e di comunicare la correlazione positiva che intercorre tra l’acquisto di un determinato bene o servizio e il suo impatto all’interno dell’ecosistema economico, sociale e ambientale.

< Torna indietro
Entertainment, videogame e contenuti

Cosa si aspettano i genZ dai brand? Intervista a Daniele Chieffi

Durante il Web Marketing Festival di quest’anno a Rimini, Daniele Chieffi ha tenuto, assieme a Nicolò Cappelletti, un panel dal titolo “In Brand veritas. Strategie e linguaggi di branding a misura di GenZ”. Il panel in questione presentava i risultati di uno studio su ciò che si aspettano e desiderano gli appartenenti alla GenZ – ovvero coloro nati tra il 1995 e il 2010 – dai brand. Abbiamo avuto modo di intervistare Chieffi, giornalista, saggista, docente universitario e fondatore dell’agenzia di comunicazione strategica Bi Wise, e di discutere con lui alcuni dei punti salienti dello speech.

 

Che genere di consumatori sono i GenZ, cosa si aspettano, cosa prediligono e cosa pretendono dai brand?

Questa è la domanda focale da porsi. Dalla ricerca che abbiamo presentato al Web Marketing Festival, emergono alcuni movimenti molto forti che sono un po’ la risposta a questa domanda che si pongono tutti i brand. Gli appartenenti alla GenZ amano i brand che parlano in maniera semplice e ironica. Con semplicità non si intende tanto il linguaggio in quanto tale, ma la struttura concettuale: non solo del singolo messaggio ma proprio del modo in cui si comunica. Semplicità vuol dire essenzialità, andare dritti al punto, essere chiari e sintetici. Ironia, invece, non è sarcasmo, ma la capacità di essere autoironici, non prendersi troppo sul serio.

Dopo di che, c’è un secondo elemento che è quello del purpose: come il brand si deve percepire ed essere percepito all’interno della società. Il brand deve, quindi, avere un impatto sociale, facendo qualcosa di concreto per la comunità che vuole presidiare. Deve, inoltre, essere sostenibile sia dal punto di vista ambientale che sociale.

La terza dimensione a cui fanno attenzione i GenZ è quella legata al modo in cui il brand viene percepito. Deve essere percepito come un brand in grado di essere accanto ai propri stakeholder quotidianamente. Tutto ciò da una visione decisamente strutturata di un brand che è fortemente soggettiva: brand che sono molto percepiti come soggetti e molto poco come aziende. Da questi tre aspetti nascono tutta una serie di aspettative.

 

Quindi, come si traduce a livello operativo l’approccio delle aziende nei confronti dei GenZ? Quali brand funzionano e perché?

L’approccio è quello di un brand che entra in comunicazione con la propria community, audience e stakeholder. Entra in conversazione partendo dall’ascolto. Quindi non partendo da ciò che è importante per l’azienda, ma da ciò che è importante per la comunità a cui si rivolge. Deve completamente cambiare approccio perché si deve sintonizzare sulle sensibilità di cui abbiamo parlato prima. Stando alla ricerca, tra i brand che spiccano tra i preferiti dai GenZ troviamo Apple, IKEA, Gucci, Durex e Coca Cola. Tutti questi brand hanno in comune l’essere stati in grado di interpretare meglio e rispondere in maniera netta e forte a queste nuove sensibilità.

 

Parlando di questo approcci conversazionale, nel panel si è parlato di passaggio dal concetto di “community” a quello di “famiglia”, cosa significa? Che implicazioni ha sulla comunicazione di marca?

Quello che abbiamo percepito è che dalla community, che era un gruppo di persone indistinto che si radunava attorno a un’esigenza o un’interessa, si è passati a qualcosa di più emozionale, di più vicino. Il concetto di famiglia non è, ovviamente, legato alla classica concezione della famiglia nucleare ma, piuttosto, vuole rappresentare una dimensione di sostegno reciproco. C’è proprio una sensazione di voler essere parte di una comunità che va oltre all’avere un interesse in comune ma che implica anche il supportarsi a vicenda. Ciò implica, secondo me, che i brand devono essere attivi, fare qualcosa di concreto per sostenere sia i propri clienti che la società tutta.

 

Una criticità che è emersa durante il panel è legata alla idiosincrasia tra la preferenza per i brand attivi nel campo della sostenibilità ambientale e sociale e l’assenza di enti che si occupino esclusivamente di queste tematiche (come, ad esempio, Emergency). Crede che possa essere una problematica? Come se la spiega?

Secondo me, i concetti di sostenibilità e di impatto sociale sono ciò che viene richiesto un po’ a chiunque. Tuttavia, chi ne fa un business o una missione viene percepito differentemente. Questo significa che, in realtà, ciò che importa è come i brand riescono a costruire la propria identità all’interno della comunità. Evidentemente, gli enti no-profit e le ONG non sono riusciti e non stanno riuscendo ad interpretare al meglio questo tipo di posizionamento. Ciò, inevitabilmente, li porta un po’ fuori dal percepito della GenZ.

 

Guardando ancora oltre: le imprese hanno già iniziato a studiare i comportamenti della generazione successiva, alpha? Sono già riscontrabili differenze nei comportamenti tra GenZ e GenAlpha? Quanta fatica stanno facendo le imprese per cercare di capire queste due generazioni?

È ancora molto presto per dirlo. Sicuramente la GenAlpha è molto diversa perché molto più calata in una dimensione di infosfera di quanto lo sia la GenZ. Mentre, quest’ultima, ha vissuto il digitale nel suo sviluppo, la GenAlpha è nata in un mondo in cui il digitale è stato fin da subito un tutt’uno col mondo in cui vivono. E, quindi, la prima differenza che possiamo riscontrare è con percepisco la differenza tra digitale e analogico come la percepiamo noi generazioni precedenti. Le aziende stanno facendo, già, molta fatica nel capire come comunicare con la GenZ a causa del radicale cambiamento percettivo. Non si tratta più di comunicazione ma di relazione. Tutte le aziende stanno investendo in questo anche se, ancora, non si giunti a una soluzione definitiva. Per quanto riguarda la GenAlpha, invece, l’impegno da parte delle aziende è ancora a bassa intensità nonostante, sicuramente, le più all’avanguardia stanno iniziando a porsi il tema del metaverso che, probabilmente, sarà il modo per intercettare quella generazione che nel metaverso ci crescerà.

iBicocca