< Torna indietro
Ambiente, società e tecnologia

Esplorando i bias cognitivi: scorciatoie mentali e decisioni irrazionali

Dallo sviluppo della coscienza, ovvero la consapevolezza che il soggetto ha di sé stesso e del mondo esterno, gli esseri umani sono in grado di riflettere, progettare, organizzare e prendere decisioni razionali per realizzare scenari futuri anche molto distanti dal presente. Questo è stato uno dei principali fattori che ha permesso agli esseri umani di diffondersi in tutto il globo e prevalere sulle altre specie. Tuttavia, il nostro cervello ha energie limitate e adotta scorciatoie per prendere decisioni. In gergo, si parla di euristiche e bias (Kahneman & Tversky, 1974) volti ad assicurare l’economia cognitiva, ovvero l’uso efficace delle risorse cognitive. 

Dunque, il processo decisionale umano, fondamentale per lo sviluppo economico e sociale, è influenzato da complessi meccanismi cognitivi. Dallo sviluppo della coscienza alla prevalenza di bias cognitivi, l’essere umano si trova costantemente ad affrontare sfide nell’interpretazione e nella valutazione degli eventi, con ripercussioni dirette sull’economia e sulla società. Questo studio si propone di esaminare il ruolo cruciale che i bias cognitivi giocano nel processo decisionale e le loro implicazioni per il mondo economico.

 

Il ruolo dei bias cognitivi nell’elaborazione delle decisioni

I bias cognitivi rappresentano distorsioni nelle valutazioni di fatti e eventi, che inducono le persone a creare una visione soggettiva della realtà. In sostanza, ciò significa che il nostro cervello tende a deformare la realtà costruendo mappe mentali, ovvero stereotipi, in cui si collocano questi bias. Queste distorsioni derivano da esperienze e concetti preesistenti, senza necessariamente avere legami logici validi tra di loro. Ogni giorno, molte delle nostre decisioni sono influenzate da questi bias e stereotipi. Le persone affrontano costantemente questioni, criticità, problemi e scelte, utilizzando un approccio “euristico”, un metodo logico che comprende diverse strategie, tecniche e processi creativi per trovare soluzioni. Infatti, un approccio logico-scientifico può essere impegnativo e insostenibile se applicato quotidianamente a tutte le decisioni, pertanto, il nostro cervello spesso opta per un approccio più rapido. I bias sono, in pratica, scorciatoie che il nostro cervello adotta per risparmiare energia. Queste scorciatoie sono per lo più corrette e ci consentono di interpretare la realtà in modo rapido ed efficiente. Tuttavia, in alcuni casi, possono condurci a errori di valutazione. Quando un processo euristico porta a imprecisioni o errori di valutazione, siamo di fronte a un bias cognitivo.

Analisi e classificazione dei bias cognitivi

Ad oggi, sono stati studiati più di 100 bias e classificati in:

  • i “representativeness biases” sono caratterizzati dalla deviazione dalle regole probabilistiche a favore di opzioni che sono percepite come più rappresentative o più facilmente accessibili;
  • i “wish biases ” sono caratterizzati dall’influenza dei desideri personali sulla presa di decisione;
  • i “cost biases” sono caratterizzati dalla distorsione del valore dei costi o delle perdite nella valutazione delle opzioni;
  • i “framing biases ” sono caratterizzati dall’influenza del contesto circostante sulla decisione;
  • gli “anchoring biases” sono caratterizzati dall’influenza di un valore iniziale di riferimento sulla decisione.

 

Si tratta di categorie di distorsioni cognitive che possono influenzare il processo decisionale in modi specifici, portando a scelte non sempre razionali o ottimali. Di seguito, elenchiamo i bias più comuni:

  • il bias di conferma induce ad accettare e ricordare più facilmente le informazioni che confermano convinzioni preesistenti, ignorando quelle contrastanti. Ad esempio, una persona convinta che le diete drastiche siano la chiave per la perdita di peso potrebbe cercare e dare più credito a studi o testimonianze che confermano questa convinzione, ignorando ricerche che suggeriscono approcci più moderati ed equilibrati;
  • il bias di disponibilità porta a dare maggiore importanza a informazioni immediatamente disponibili, spesso trascurando dati più rappresentativi. Ad esempio, dopo aver sentito una storia di un incidente d’aereo, qualcuno potrebbe evitare di volare percependo il volo come più pericoloso, anche se le statistiche dimostrano che è un mezzo di trasporto molto sicuro;
  • il bias dell’ancoraggio influisce sulle decisioni attraverso un valore iniziale di riferimento, noto come “ancora”. In un negoziato, la prima offerta fatta da una delle parti può influenzare significativamente l’esito. Se la prima offerta è molto alta, le controfferte successive saranno influenzate da questo “ancoraggio”;
  • il bias di attribuzione fondamentale spinge a spiegare il comportamento altrui con attributi personali, trascurando i fattori situazionali, e viceversa per il proprio comportamento. Se qualcuno commette un errore, potremmo tendere ad attribuirlo alla sua incompetenza (attribuzione personale), ignorando possibili fattori esterni, come la mancanza di risorse o la complessità della situazione;
  • il bias di gruppo genera preferenze o pregiudizi verso membri del proprio gruppo rispetto a quelli esterni, contribuendo a stereotipi e discriminazioni. In un contesto di lavoro, potrebbe verificarsi il bias di gruppo quando i membri di un team sopravvalutano le capacità dei propri colleghi, ignorando le competenze di individui provenienti da altri reparti;
  • il bias di conformità inclina a conformarsi alle opinioni della maggioranza, anche a discapito delle proprie convinzioni. In un gruppo in cui la maggioranza sostiene un’opinione, un individuo potrebbe conformarsi a quella visione anche se personalmente in disaccordo, per evitare conflitti o essere accettato dal gruppo;
  • il bias di sopravvalutazione dell’abilità porta a sovrastimare le proprie competenze, noto come “effetto illusione di superiorità”. Ad esempio, un conducente potrebbe sovrastimare le proprie capacità di guida, ritenendo di essere al di sopra della media, nonostante la realtà statistica che la maggior parte dei conducenti non può essere sopra la media in termini di abilità di guida;
  • il bias di retroguardia attribuisce più importanza alle informazioni recenti rispetto a quelle passate durante le decisioni. Per esempio, nel valutare le prestazioni di un dipendente, un supervisore potrebbe dare più peso agli ultimi risultati ottenuti durante un periodo di valutazione, ignorando successi o difficoltà passati;
  • il bias di prospettiva guida le valutazioni basate sulla propria prospettiva, spesso ignorando il punto di vista degli altri. In una discussione politica, una persona potrebbe valutare le proprie opinioni come più valide semplicemente perché rispecchiano la propria prospettiva, ignorando le legittime preoccupazioni degli altri;
  • il bias di selezione si manifesta nella raccolta o interpretazione selettiva delle informazioni per supportare opinioni o convinzioni. Una persona che sostiene una particolare teoria scientifica potrebbe selezionare e presentare solo gli studi che supportano tale teoria, ignorando ricerche contrastanti che potrebbero mettere in discussione le sue convinzioni.

 

In conclusione, l’economia, come la società nel suo complesso, è plasmata dalle decisioni prese dagli individui. Tuttavia, il riconoscimento dei bias cognitivi e la consapevolezza della loro influenza possono contribuire a migliorare la qualità delle decisioni, con impatti significativi sull’efficienza economica e sulla gestione delle risorse. In un contesto in cui la velocità e l’accuratezza delle decisioni sono cruciali, comprendere e gestire i bias cognitivi diventa un elemento essenziale per il successo economico e sociale. Ognuno di noi ha pregiudizi generati dalla propria esperienza di vita e dal proprio tessuto valoriale. In ciascuno di noi, perciò, esiste una zona cieca della nostra consapevolezza: gli studiosi la definiscono il “bias blind spot (E. Pronin, The Bias Blind Spot: perception of bias in self versus others). Esserne a conoscenza è importante per gestirla al meglio e prendere decisioni migliori.

 

Fonti:

< Torna indietro
Ambiente, società e tecnologia

Economia e innovazione digitale: Come si evolvono insieme?

La rivoluzione digitale ha decisamente scosso le fondamenta dell’economia globale, introducendo dei veri e propri cambiamenti sismici e plasmando un panorama in cui l’innovazione tecnologica viene identificata come il motore trainante della crescita economica. Ma in che modo il legame, di per sé intricato, tra l’economia e l’innovazione digitale ha permesso la trasformazione tecnologica delle industrie tradizionali?

 

Il primo incontro

Innanzitutto, occorre prendere in considerazione le dinamiche di produzione, distribuzione e consumo; la ridefinizione di queste ultime è stato un passo fondamentale nella formazione di nuovi modelli di business e nello sviluppo di settori innovativi.

Basti pensare all’e-commerce, tramite la quale aziende come Amazon hanno ridefinito il commercio al dettaglio; o ancora, alla sharing economy, che ha rivoluzionato i settori del trasporto (Uber) e dell’alloggio (Airbnb).

 

Si sta parlando, ad ogni modo, di una trasformazione che, se rapportata al mero percorso di innovazione aziendale, ha permesso alle imprese di diventare più moderne e competitive: il fenomeno dell’industria 4.0, in particolare, ha introdotto, oltre alla connettività tra macchinari, l’analisi dei dati, migliorando l’efficienza e rivoluzionando in maniera impattante il settore.

 

IoT o Internet of Things (trad. “Internet delle cose”) è la terminologia tramite la quale viene indicato questo fenomeno: una vera e propria rete di oggetti e dispositivi tecnologici che permette ad essi sia di trasmettere che di ricevere, da parte di altri sistemi, i dati. Questo primo incontro tra economia e innovazione digitale è stato, forse, il più incisivo: riuscire ad evolversi, esplorando le possibilità date dall’intelligenza artificiale, ha consentito di analizzare i dati aziendali in maniera più semplice e immediata (seppur con una cospicua percentuale di rischio), permettendo alle imprese una crescita più sicura e controllata.

 

Cluster Analysis: svelare le connessioni invisibili tra i dati

La prima innovazione dell’IoT in ambito statistico è nata in seno a una particolare tecnica, denominata cluster analysis (trad. “analisi di clustering”) e utilizzata per raggruppare all’interno di gruppi omogenei gli elementi simili tra loro presenti in qualsivoglia insieme più ampio. Un cluster rappresenta, infatti, un gruppo.

 

Questo primo metodo di analisi dei dati aiuta, senza ombra di dubbio, a organizzare grandi dataset in gruppi di dati più contenuti, uguali tra loro e, conseguentemente, più semplici da analizzare. È interessante notare come anche i sistemi più conosciuti utilizzino da tempo questa tecnica: questo fenomeno riguarda, ad esempio, il funzionamento del motore di ricerca immagini di Google.

 

Tuttavia, anche le aziende utilizzano da tempo la cluster analysis: al fine di adattare le proprie strategie di marketing alle esigenze specifiche di qualsiasi persona, è essenziale suddividere il mercato in segmenti omogenei di clienti, aventi caratteristiche e comportamenti simili tra loro. Si tratta del motivo per il quale le raccomandazioni di prodotti sponsorizzati online, come le pubblicità mirate sui social, differiscono per ogni singola persona.

 

Sentiment Analysis: navigando tra le emozioni digitali

Per antonomasia, tuttavia, quando si parla di analisi dei dati si fa automaticamente riferimento alla cosiddetta sentiment analysis (trad. “analisi del sentiment”), una branca dell’Intelligenza Artificiale che mira a comprendere i testi valutando le opinioni, le emozioni e il tono delle espressioni umane, determinandone un sentiment positivo, negativo o neutro.

Principalmente utilizzata per il monitoraggio della reputazione online, questa seconda tipologia di analisi dei dati consente alle aziende di esaminare le opinioni dei propri clienti sui social media, sulle recensioni e nei forum, facilitando la comprensione del feedback e, nel caso di sentiment negativi, l’adozione di misure correttive. Ma si tratta di un elemento fondamentale anche nel contesto del servizio clienti: è la sentiment analysis che permette di valutare il tono delle conversazioni, consentendo alle aziende di identificare rapidamente i sentiment negativi e di risolvere prontamente gli eventuali problemi.

 

La sentiment analysis viene utilizzata dalle imprese anche e soprattutto per valutare la soddisfazione dei dipendenti: ad oggi risulta difficile, per la salvaguardia di sé stessi e della propria salute mentale, immaginare un contesto lavorativo in cui non si presti attenzione a un clima aziendale ottimale, che consente, poi, un ottimo tasso di produttività. Non a caso, si tratta di un prezioso strumento nella prevenzione delle crisi: rilevando gli eventuali segnali di insoddisfazione è possibile gestire prontamente situazioni più o meno critiche e contribuire a mantenere una reputazione positiva nel mercato attuale, che è molto competitivo.

 

La trasformazione digitale nell’industria manifatturiera

Ad ogni modo, l’adozione dell’IoT, dell’intelligenza artificiale e dell’automazione intelligente sta definitivamente ridefinendo i processi di produzione.

Mentre i sensori IoT integrati consentono la raccolta in tempo reale di dati cruciali, ottimizzando la manutenzione preventiva dei macchinari, prevenendone gli eventuali guasti, migliorando la gestione delle risorse e ottimizzando la produzione, l’automazione intelligente (inclusa la robotica avanzata) permette di aumentare sia la produttività che la flessibilità nelle linee di produzione.

 

Innovazione tecnologica nelle fabbriche: il caso Stellantis

Stellantis, leader nell’industria automobilistica, ha abbracciato l’innovazione tecnologica all’interno delle sue fabbriche tramite l’implementazione dell’industria 4.0. Tramite l’utilizzo del concetto di fabbriche intelligenti, questa azienda ha integrato l’IoT in quella che è la connessione tra le macchine e i sistemi e ha così ottimizzato i processi produttivi, riducendo i tempi di ciclo e aumentando la precisione. La raccolta di dati in tempo reale consente anche una manutenzione predittiva, riducendo i tempi di fermo delle macchine.

 

Risulta chiaro che l’implementazione di queste tecnologie all’interno delle aziende, oltre a ridurre i costi e gli sprechi, crea anche un ecosistema manifatturiero più agile e reattivo alle sfide del mercato: la sinergia tra l’uomo e la macchina diventa sempre più evidente, in un’ottica che delega all’innovazione tecnologica il futuro dell’industria manifatturiera.

 

 

Fonti

 

Cos’è l’IoT e come funziona?

Amazon e il commercio al dettaglio

Il caso Uber: la sharing economy

Airbnb, la regina della sharing economy

Cluster Analysis

Sentiment Analysis

Industria 4.0: Stellantis spinge sulla Cognitive Diagnostics

 

< Torna indietro
Ambiente, società e tecnologia

Il secondo polmone verde del mondo

Il Green Deal europeo punta ad un continente a impatto zero

Nell’ambito del piano ‘NextGenerationEU’ la Commissione europea punta ad un futuro più verde. Come annunciato dalla Presidente Ursula von der Leyen nella presentazione della tabella di marcia ‘Green Deal europeo’, l’Unione Europea punta a diventare un continente a emissioni zero entro il 2050.

Il ‘Green Deal europeo’

Il Green Deal europeo è una tabella di marcia che rientra nel più ampio piano ‘NextGenerationEU’ con il quale l’Unione Europea punta a migliorare le vite dei propri cittadini investendo e sviluppando nuove tecnologie per rendere il futuro più verde, sano, digitale ed egualitario. L’Unione Europea si impegna, fissando come data limite il 2050, a non produrre più emissioni di CO2 di quanto il suo ecosistema non riesca ad assorbire, compensando pienamente l’impronta ecologica dell’uomo.

Il pacchetto ‘Pronti per il 55%’

Con l’adozione integrale del pacchetto ‘Pronti per il 55%’, presentato a luglio 2021, “l’UE potrà raggiungere i suoi obiettivi climatici entro il 2030 in modo equo, competitivo ed efficiente in termini di costi”. Con questo pacchetto contenente misure in merito alla energia, al clima, ai trasporti e alla fiscalità l’Unione Europea mira a ridurre del 55% le emissioni del gas serra entro il 2030 rispetto alle emissioni del 1990. Strizzando l’occhio alle Nazioni Unite in vista della COP28 sul clima e delle elezioni europee del 2024.

La nuova iniziativa: 3 milioni di alberi

Ma l’UE torna alla ribalta sul tema con un piano ambientale che coinvolgerà anche i cittadini. 3 milioni di alberi da piantare entro il 2030 è il target che si è prefissata. Ogni cittadino potrà contribuire piantando un albero o donando ad associazioni che lo facciano per lui. L’albero aggiuntivo, che dovrà portare benefici alla biodiversità e al clima, non dovrà essere parte delle piantagioni abituali e non dovrà costituire una problematica per le condizioni climatiche, del suolo e delle acque.

Per poter registrare l’albero, l’Agenzia europea dell’ambiente, ha sviluppato un’applicazione “Map My Tree” che permetterà in aggiunta di visionare l’andamento delle segnalazione per raggiungere l’obiettivo. Potranno essere registrati gli alberi che rispettino i requisiti imposti dal piano, piantati dal 20 maggio 2020 in poi. Data dell’adozione della strategia da parte dell’UE.

“Chiunque può piantare un albero. Per raggiungere questo ambizioso traguardo, abbiamo bisogno di cittadini europei motivati a piantare alberi e a farli crescere.”

 

Fonti:

commission.europa.eu

learning-corner.learning.europa.eu

environment.ec.europa.eu

next-generation-eu.europa.eu

ec.europa.eu

< Torna indietro
Ambiente, società e tecnologia

Agricoltura nel nuovo millennio: evoluzione dell’agricoltura in risposta ai cambiamenti economici, tendenze di mercato e innovazioni tecnologiche

L’agricoltura nel nuovo millennio ha subito un profondo processo di trasformazione, determinato da una complessa intersezione di fattori economici, richieste del mercato e innovazioni tecnologiche. Questa convergenza di influenze ha modellato un nuovo panorama agricolo caratterizzato da una crescente consapevolezza verso la sostenibilità e la necessità di migliorare l’efficienza operativa.

Uno degli sviluppi più significativi è rappresentato dall’adozione diffusa di tecnologie avanzate, come l’Internet of Things (IoT), l’intelligenza artificiale e la robotica agricola. Queste innovazioni hanno permesso ai coltivatori di monitorare in tempo reale le condizioni dei campi, ottimizzare l’irrigazione, e gestire le colture in modo più preciso ed efficiente. Inoltre, l’uso di droni e sensori ha contribuito a una raccolta di dati più accurata e dettagliata, consentendo una migliore pianificazione delle attività agricole.

Un altro aspetto fondamentale è la sostenibilità che è diventata una priorità fondamentale nel contesto agricolo contemporaneo. I coltivatori stanno adottando pratiche agricole sostenibili, riducendo l’uso di pesticidi e fertilizzanti chimici, e adottando metodi di coltivazione che preservano la salute del suolo. Inoltre, cresce l’interesse per la produzione agricola biologica e per la riduzione delle emissioni di gas serra legate all’agricoltura. Le dinamiche del mercato globale stanno influenzando le scelte degli agricoltori: la crescente domanda di prodotti alimentari di alta qualità e la consapevolezza dei consumatori riguardo all’origine e alla produzione sostenibile stanno guidando le decisioni degli agricoltori nella selezione delle colture e nelle pratiche di produzione.

Impulso verso la sostenibilità

La congiunzione tra sostenibilità e agricoltura biologica è diventata una tematica cruciale, alimentata dalla crescente consapevolezza dei consumatori nei confronti dell’impatto ambientale e della salute associati alla produzione alimentare. L’esigenza di prodotti alimentari sostenibili e biologici ha dato impulso a una serie di cambiamenti nel settore agricolo, con gli agricoltori che stanno abbracciando pratiche più ecologiche per soddisfare questa domanda emergente.

L’impulso verso la sostenibilità ha portato a una significativa riduzione dell’uso di pesticidi e fertilizzanti sintetici nell’agricoltura biologica. Gli agricoltori stanno optando per soluzioni alternative, come il compostaggio, l’utilizzo di concimi organici e il controllo biologico delle infestazioni, al fine di mantenere la salute delle colture senza ricorrere a sostanze chimiche nocive. Questa transizione verso pratiche agricole più ecocompatibili contribuisce non solo a preservare l’ecosistema, ma anche a mitigare gli impatti negativi sulla biodiversità.

 

Un elemento chiave in questo contesto è rappresentato dalla certificazione biologica, che è diventata un prezioso vantaggio competitivo per molti agricoltori. Ottenere la certificazione biologica implica conformarsi a rigorosi standard di produzione che garantiscono il rispetto di pratiche sostenibili e il ricorso limitato o nullo a sostanze chimiche. Questo marchio di approvazione non solo conferisce fiducia ai consumatori che cercano prodotti alimentari salubri e rispettosi dell’ambiente, ma può anche aprirsi a nuovi mercati e opportunità commerciali, sottolineando l’engagement dell’agricoltore verso la responsabilità ambientale. Oltre a ciò, l’agricoltura biologica promuove la salute del suolo e la conservazione delle risorse idriche, contribuendo a preservare l’integrità degli ecosistemi agricoli.


Una rivoluzione di precisione

L’adozione dell’agricoltura di precisione ha rappresentato una vera rivoluzione nell’approccio alla gestione agricola, integrando avanzate tecnologie per ottimizzare ogni aspetto delle operazioni colturali. L’utilizzo di sensori altamente sofisticati, droni all’avanguardia e sistemi GPS ha permesso agli agricoltori di raggiungere nuovi livelli di precisione nella gestione delle colture, trasformando radicalmente il modo in cui vengono pianificate e eseguite le attività agricole. La presenza diffusa di sensori nei campi agricoli consente una raccolta di dati dettagliata e in tempo reale sulle condizioni del suolo, della coltura e dell’ambiente circostante.

Questi dati forniscono una base informativa robusta per prendere decisioni mirate, consentendo agli agricoltori di rispondere prontamente alle variazioni nelle condizioni climatiche e di terreno. I droni, in particolare, ampliano la portata di questa raccolta dati, permettendo una copertura aerea estesa e la rilevazione di anomalie non visibili da terra. Grazie a queste informazioni dettagliate, gli agricoltori possono ottimizzare l’uso delle risorse in maniera mirata ed efficiente. L’irrigazione, ad esempio, può essere regolata in base alle effettive necessità delle colture, riducendo sprechi d’acqua e contribuendo alla sostenibilità idrica. Similmente, la dosatura dei fertilizzanti e l’applicazione di pesticidi possono essere calibrate con precisione, limitando gli impatti ambientali e riducendo l’esposizione delle colture a sostanze chimiche in eccesso.

Questo approccio tecnologico non solo migliora l’efficienza operativa degli agricoltori, ma ha anche un impatto positivo sulla redditività complessiva delle operazioni agricole. L’ottimizzazione delle risorse, la riduzione degli sprechi e la maggiore resilienza alle sfide ambientali posizionano l’agricoltura di precisione al centro di una nuova era agricola, in cui la tecnologia svolge un ruolo chiave nel plasmare un settore agricolo più sostenibile, intelligente ed efficiente.


Manipolazione genetica responsabile

 

L’avanzamento delle innovazioni genetiche e della biotecnologia nel contesto agricolo ha rivoluzionato la capacità umana di potenziare le caratteristiche delle colture per rispondere alle sfide ambientali e alle esigenze alimentari crescenti, in particolare la modifica genetica delle colture sta emergendo come un potente strumento per affrontare le minacce alle produzioni agricole, migliorando la resistenza delle piante alle malattie e agli agenti atmosferici.

Attraverso la manipolazione genetica, gli scienziati possono introdurre specifiche sequenze di DNA nelle colture, conferendo loro caratteristiche desiderate. La creazione di varietà di colture resistenti alle malattie è diventata una priorità, poiché contribuisce a ridurre la dipendenza dagli agenti chimici per il controllo delle malattie e limita la perdita di colture dovuta a patogeni. Un risultato chiave di queste innovazioni è l’aumento della produttività agricola. Coltivare varietà di colture geneticamente modificate può portare a rese più elevate, migliorando la sicurezza alimentare e contribuendo a soddisfare la crescente domanda globale di cibo.

Tuttavia, è importante considerare anche le implicazioni etiche e ambientali associate a queste innovazioni. La gestione responsabile della biotecnologia è essenziale per garantire che gli impatti sulla biodiversità, la sicurezza alimentare e la salute umana siano adeguatamente valutati e mitigati. L’equilibrio tra i benefici delle innovazioni genetiche e le preoccupazioni etiche e ambientali è un aspetto cruciale da considerare nel contesto dell’adozione di queste tecnologie.

Flessibilità e adattamento del settore

Nell’adattamento alle mutevoli dinamiche economiche, gli agricoltori si trovano a fronteggiare una complessa interazione di fattori globali, quali i cambiamenti nei modelli di consumo, le pressioni economiche e le sfide legate al commercio internazionale. La flessibilità e la capacità di adattamento diventano essenziali per navigare in questo scenario dinamico. La diversificazione delle colture, la ricerca di nuovi mercati e la partecipazione a filiere sostenibili sono strategie che gli agricoltori stanno abbracciando per affrontare le incertezze economiche.

In conclusione, la crescente domanda da parte dei consumatori per prodotti alimentari sostenibili ha spinto gli agricoltori verso un cambiamento significativo, abbracciando l’agricoltura biologica come un modo per rispondere a queste aspettative. Questo connubio tra sostenibilità e pratiche agricole ecologiche non solo promuove la salute ambientale, ma si traduce anche in un vantaggio distintivo nell’ambito del mercato alimentare, offrendo una via prospera per il settore agricolo e un futuro più sostenibile per la produzione alimentare globale.

L’agricoltura nel nuovo millennio si configura come un terreno fertile per l’innovazione, la sostenibilità e l’adattamento strategico. Gli agricoltori, in sinergia con le più recenti tecnologie e una prospettiva orientata al futuro, stanno plasmando un settore agricolo più resiliente, efficiente e attento all’equilibrio tra la produzione alimentare e la tutela dell’ambiente.

 

Fonti

agriregionieuropa

wiforagri

blog.osservatori.

abacogroup

 

Credits

Immagine

< Torna indietro
Ambiente, società e tecnologia

Alla ricerca di equilibrio: è possibile riconsiderare le 8 ore di lavoro standard in Italia?

Il Contratto Collettivo Nazionale di Lavoro (CCNL) è identificato dal diritto italiano come la principale fonte normativa in cui i sindacati dei lavoratori e le associazioni dei datori di lavoro concordano le regole che regolamentano il rapporto di lavoro. Si tratta di contratti volti a trattare sia gli aspetti normativi che quelli economici, senza ignorare le disposizioni adatte a regolare le relazioni sindacali.

Le finalità fondamentali di questo contratto, ad ogni modo, riguardano la definizione delle regole per i rapporti di lavoro in specifici settori (che si tratti, ad esempio, dei trasporti o del pubblico impiego) e la disciplina delle relazioni tra le parti firmatarie dell’accordo.

 

Da Owen a Ford: la rivoluzione delle 8 ore

 

L’instaurarsi della giornata lavorativa di 8 ore fu il risultato, nei primi anni del XX secolo, di numerose lotte sindacali, originariamente proposte su un modello di 48 ore settimanali distribuite su 6 giorni.

Nei primi anni della rivoluzione industriale, gli operai potevano arrivare a lavorare fino a 100 ore a settimana. Robert Owen, un influente sindacalista gallese del XIX secolo, introdusse allora il concetto della riduzione delle ore di lavoro giornaliere, con l’obiettivo di dividere la giornata in tre parti uguali: lavoro, svago e riposo.

Fu solo nel gennaio 1914 che questo standard originario venne modificato. Si trattò del momento in cui Henry Ford adattò questa formula a degli studi sperimentali sulla produttività: riducendo le ore lavorate a 40 a settimana su 5 giorni, Ford notò un aumento significativo della produttività, dimostrando che meno ore potevano portare a risultati migliori. Ford ridusse la giornata lavorativa dei suoi dipendenti da 9 a 8 ore, incrementando il salario giornaliero da 3 a 5 dollari.

Cinque dollari per una giornata lavorativa di otto ore è stata una delle più efficaci strategie di riduzione dei costi che abbiamo mai messo in atto”: così Ford giustificò la propria mossa imprenditoriale, dichiarando che l’investimento in salari più elevati avrebbe creato una base solida per lo sviluppo aziendale.

La decisione di pagare salari più alti si rivelò un successo: numerosi storici e analisti, tra i quali Gregory Mankiw, dimostrarono che questa mossa contribuì a consolidare la disciplina, la lealtà e l’efficienza dei lavoratori.

Tuttavia, è evidente che la decisione di introdurre una settimana lavorativa non è nata in virtù di ragioni come la giustizia o il benessere, ma come risposta alla necessità di massimizzare la produttività; l’iniziale benessere dei lavoratori, in quel contesto storico, è emerso come un mero effetto collaterale.

 

L’Italia oggi

 

Ancora oggi, la connessione tra retribuzione e produttività rimane un elemento cruciale per stimolare la competitività dell’Italia. Nel contesto del dibattito sulla riforma del mercato del lavoro è emersa, nel 2011, la proposta di favorire la contrattazione aziendale come strumento chiave per stringere questa connessione, contribuendo così al rilancio della competitività nazionale.

Dal 2013 il contratto collettivo aziendale (CCIA) rappresenta un accordo stipulato dal datore di lavoro e dai rappresentanti dei lavoratori, avente spesso l’obiettivo di modificare le disposizioni del CCNL in base alle proprie esigenze.

Le disposizioni di tali contratti non possono prevedere, di norma, delle condizioni meno favorevoli rispetto a quelle stabilite dalla Legge. Il rapporto tra contratti aziendali e quelli di livello superiore è stato delineato dagli Accordi interconfederali, stabilendo che il contratto di categoria rimane centrale, mentre quello aziendale deve limitarsi a disciplinare argomenti già individuati dal CCNL e a garantire aumenti retributivi legati a miglioramenti di produttività e organizzazione del lavoro.

La produttività e la retribuzione rimangono degli elementi imprescindibili. Ma la domanda rimane sempre la stessa: e il benessere dei lavoratori?

 

Pandemia e nuove esigenze: la nascita dello smart working

 

Il recente fenomeno dello smart working, che rappresenta la possibilità, in determinati settori, di lavorare da casa, ha registrato un aumento della produttività del 15-20%. Ha sollevato, tuttavia, molti interrogativi riguardanti la sostenibilità e l’impatto sul benessere dei lavoratori.

La questione principale, oggetto di numerosi dibattiti successivi al lockdown nazionale provocato dal fenomeno della pandemia, era una: sarebbe stato giusto sfruttare questo “plusvalore” in maniera capitalistica o sarebbe stato opportuno tradurlo, invece, in benefici per i dipendenti, riscontrabili in un’ulteriore riduzione dell’orario lavorativo?

In poco tempo, questo dibattito ha assunto una rilevanza significativa. Uno studio, pubblicato il 12 giugno 2021 sull’European Journal of Investigation in Health, Psychology and Education, offre una visione approfondita su tre aspetti principali: la dedizione al lavoro, il fenomeno del cosiddetto technostress e la mediazione del rapporto tra smart working e benessere.

 

Smart working e dedizione al lavoro

 

L’indagine rivela che durante la pandemia il coinvolgimento attivo dei responsabili delle risorse umane ha influenzato positivamente l’impegno dei lavoratori.

La partecipazione attiva ai cambiamenti organizzativi ha fatto sì che questi ultimi venissero percepiti come il risultato del proprio impegno e non più degli ordini imposti dall’alto: questo fenomeno è emerso come un vero e proprio antidoto alla demotivazione. La ricerca ha evidenziato, inoltre, che una cultura organizzativa positiva potrebbe proteggere da sintomi come lo stress, l’ansia e la depressione. Il desiderio, nel 2021 e in base a tali presupposti, era quello di trasformare una situazione di emergenza in un’opportunità di crescita.

 

Smart working e technostress

 

Technostress è una terminologia che comprende, in maniera simultanea, una varietà di problematiche significative: il sovraccarico tecnologico, la complessità, l’insicurezza lavorativa e l’incertezza. I livelli più elevati  di technostress sono osservabili tra coloro che sono costretti a fare un uso intensivo di dispositivi digitali e di applicazioni di messaggistica istantanea, oltre che tra gli addetti alla gestione delle attività lavorative durante le pause. L’indagine, in questo contesto, sottolinea il ruolo critico della gestione equilibrata tra vita professionale e vita privata, in un’ottica volta a salvaguardare la salute mentale dei lavoratori.

 

I mediatori del rapporto tra smart working e benessere

 

L’autonomia nella scelta di pratiche di lavoro a distanza, le competenze personali e organizzative e la fiducia da parte dell’azienda sono caratteristiche identificate come i mediatori chiave tra smart working e benessere. Tuttavia, anche in questo caso la problematica principale risiede nella gestione dei confini tra tempo personale e orario di lavoro: la necessità è quella di promuovere una comunicazione efficace, delle crescenti relazioni al di fuori dell’orario di lavoro e un vero e proprio supporto psicologico per i dipendenti.

Ne conviene che l’iperconnettività abbia portato anche lo smart working, nei settori in cui questo fenomeno è presente e possibile, verso numerosi ed evidenti effetti negativi: un esempio sono le comunicazioni prolungate fino a tarda notte nel contesto lavorativo.

Questo fenomeno è stato descritto da alcuni come un nuovo presenzialismo, caratterizzato dall’incessante motto “always on“, che può minare la qualità della vita e il benessere dei lavoratori. La riflessione critica si concentra sull’importanza di bilanciare l’efficienza lavorativa con il rispetto per il tempo personale e la salute mentale. Perché non esplorare, quindi, la possibilità di ridurre l’orario di lavoro in maniera da mantenere attive l’efficacia e la produttività?

Secondo le statistiche Istat, in Italia la settimana lavorativa moderna corrisponde, laddove regolamentata, a 33 ore; questo dato supera di 3 ore la media europea, di 4 ore quella francese e di 7 ore quella tedesca. Nonostante ciò, la produttività italiana si posiziona come la penultima in Europa, con un rendimento superiore solo alla Grecia.

Uno studio, condotto da Domenico De Masi e commissionato da Mercedes Italia, riflette a pieno questa dinamica: i dirigenti tedeschi dell’azienda automobilistica, sebbene abbiano un carico di obiettivi superiore del 30% rispetto ai loro omologhi italiani, riescono a lavorare il 30% in meno, ottenendo, al contempo, il 30% di obiettivi in più.

Dal 2014, la Ducati, grazie a un referendum vinto con il 75% dei voti e in collaborazione con i sindacati, ha implementato un piano che impegna i dipendenti per circa 30 ore settimanali (compresi gli eventuali turni nei weekend) e con una quasi totale saturazione degli impianti. Secondo Mario Morgese, il responsabile delle risorse umane dell’azienda, questa iniziativa ha portato a un aumento del 40% nella produttività e a una riduzione dell’assenteismo.

Nel 2019, Microsoft ha effettuato, in Giappone, una prova della settimana lavorativa di 4 giorni. Durante questo periodo, ha concesso ai suoi 2300 dipendenti ben 5 venerdì liberi ad agosto, senza però ridurre gli stipendi. I risultati sono stati sorprendenti: non solo il 92% degli impiegati si è dichiarato più soddisfatto, ma la produttività è aumentata del 40%. Inoltre, è stato registrato un calo del 25% nelle pause, una diminuzione del 23% nell’uso dell’elettricità e una riduzione del 59% nel consumo di carta/stampe.

 

Nuova Zelanda: un passo verso il futuro dei lavoratori?

 

L’esempio più importante e significativo ha avuto sede in Nuova Zelanda, dove il movimento ‘Four Day Week’ ha condotto uno studio sperimentale sulla tattica utilizzata da Microsoft nel 2019.

I risultati hanno mostrato un aumento della produttività, una diminuzione dello stress, un miglioramento dell’equilibrio tra vita e lavoro, un maggiore coinvolgimento e benessere dei lavoratori, un aumento della fiducia e una diminuzione dell’assenteismo, in un’ottica in cui gli stessi manager continuano a sottolineare la priorità del mantenimento della produttività e del raggiungimento degli obiettivi.

 

Verso una rivoluzione lavorativa: sperimentare la riduzione dell’orario per un futuro migliore

Sperimentare queste soluzioni su larga scala, mediante un approccio temporaneo che coinvolga sia il settore profit che il settore non profit, potrebbe rappresentare una strategia ottimale per il benessere dei dipendenti. Davvero non siamo pronti a intraprendere questo cammino?

Fonti

 

Wikilabour – Il CCNL

Indagine: quale relazione esiste tra smart working e benessere del lavoratore?

Wikilabour – il CCIA

Smart working e produttività

Microsoft – Work Life Choice Challenge Summer 2019

The four-day week guidelines for an outcome-based trial – Raising productivity and engagement

Agende piene di impegni: fenomeno dell’always on

Domenico De Masi e la riduzione dell’orario di lavoro

Nuova Zelanda e la settimana lavorativa di 4 giorni

< Torna indietro
Ambiente, società e tecnologia

Inganni etici nell’automazione industriale. I robot minacciano davvero le nostre occupazioni?

Il processo di automazione industriale, intrinsecamente propenso a un’evoluzione continua, affonda le sue radici nell’introduzione pionieristica dei primi dispositivi autonomi nelle fabbriche tessili britanniche; si tratta di una metamorfosi che ha attraversato secoli di sviluppo, culminando, poi, in una fase attuale, in cui la tecnologia si fonde sinergicamente con la produzione industriale. Il focus è posto, in questo caso, sul dibattito riguardante l’impatto occupazionale delle tecnologie di automazione, che costituisce un tema di notevole complessità.

 

Da una parte, la letteratura scientifica presenta numerosi studi che corroborano l’esistenza di una correlazione positiva tra gli investimenti delle imprese in automazione e l’incremento del tasso di disoccupazione. La condizione italiana, per esempio, è stata oggetto di un’analisi approfondita in uno studio, diffuso nel numero di dicembre 2021 della rivista “Stato e Mercato” e intitolato “Rischi di automazione delle occupazioni: una stima per l’Italia”, in base al quale il numero di lavoratori italiani a rischio si collocherebbe tra i 4 e i 7 milioni.

 

In base a questo scenario, che rimane prettamente teorico, l’intento ergonomico di questo processo, cioè quello di sollevare l’uomo da azioni usuranti e abitudinarie, potrebbe essere cambiato. L’automazione odierna non costituirebbe più un mero ausilio all’attività umana, ma anche, molto spesso, un sistema di strumenti in grado di renderla superflua. Tuttavia, la questione in oggetto riveste uno spettro molto più ampio: il mondo del lavoro italiano si confronta con delle sfide diverse, quali la carenza di competenze e la discrepanza tra quelle richieste e quelle disponibili.

 

 

Si tratterebbe, quindi, di una preoccupazione infondata se riguardante la realtà italiana: un altro studio, condotto dall’INAPP nel 2021 e intitolato “Stop worrying and love the robot: An activity-based approach to assess the impact of robotization on employment dynamics”, ha rivelato che in Italia l’introduzione di robot industriali non ha influenzato negativamente il tasso di occupazione, ma ha contribuito a ridurre, seppur in misura contenuta, quello di disoccupazione. Ad aver subito un aumento è stata, invece, la domanda di professionisti legati al ciclo di vita dei robot, che va dalla loro progettazione all’utilizzo effettivo negli stabilimenti.

 

Contrariamente alle ipotesi, quindi, l’obiettivo originario continua a esistere: nei Paesi sviluppati le attività fisiche ripetitive sono state automatizzate, in maniera tale da ridurre il rischio per la salute degli operatori, mentre le attività a contenuto cognitivo elevato continuano a registrare un aumento favorevole.

 

Ad ogni modo, l’obiettivo principale di questo articolo non è esaminare contesti come quello italiano, dove il settore dell’automazione ha avuto uno sviluppo adeguato nel tempo, in linea con le necessità umane. Oltretutto, in questi contesti è necessario evidenziare un aspetto fondamentale, seppur spesso trascurato, che prescinde dalle visioni in merito, siano esse ottimistiche o pessimistiche: nonostante l’applicazione avanzata dell’apprendimento automatico, i posti di lavoro non sono scomparsi. E, probabilmente, sulla base di molti studi, non lo faranno neanche nel prossimo futuro.

 

“Robots and Organization Studies: Why Robots Might Not Want to Steal Your Job” è il titolo di uno studio condotto nel 2019 da Peter Fleming, che  considera la necessità di affrontare delle questioni più ampie, riguardanti la giustizia sociale nella realtà globale. Nello specifico Fleming, nel corso del suo studio, affronta le condizioni di Devi Lal, un uomo residente a Delhi, in India, la cui mansione era stata individuata, in un report del 2012 (Miller, 2012) come il lavoro peggiore del mondo.

 

L’occupazione di Devi era quella del “manual scavenger”. Si tratta di una figura addetta a calarsi senza corde nelle fogne e pulire a mani nude le fogne intasate, immergendosi nudo e per diverse ore tra i rifiuti e i gas tossici. Per questo lavoro Devi veniva pagato l’equivalente in rupie di 3.50 euro al giorno.

 

In base a quanto riporta Fleming, in città come Londra e Oslo la pulizia manuale delle fogne è relativamente rara. E, se una persona venisse incaricata di immergersi in un ambiente tanto deplorevole, si tratterebbe di un tecnico specializzato, adeguatamente equipaggiato e soggetto a degli specifici protocolli di sicurezza e igiene. Questo fenomeno indica una vera e propria discrepanza: “la differenza tra Delhi e Londra -sottolinea Fleming- è il costo della manodopera di Devi: il suo tasso salariale è decisamente inferiore al costo che si potrebbe investire in una macchina”.

 

Tuttavia, la stessa logica caratterizza anche i Paesi più ricchi; si tratta del motivo per il quale un robot, almeno per il breve periodo, non si preoccuperà di pulire le nostre case. L’impiego di persone è semplicemente più economico, soprattutto a causa della presenza di lavoratori di minoranza etnica, che sono sovra-rappresentati nella forza di lavoro sottopagata. I costi di capitale e manutenzione per investire in attrezzature di intelligenza artificiale sono considerevoli e, a tal proposito, le aziende valutano non solo la possibilità di meccanizzare un lavoro, ma, data la disponibilità di manodopera a basso costo, anche l’eventuale vantaggio economico.

 

Una delle principali cause di lavoro precario e stagnazione salariale è stata individuata nella de-sindacalizzazione (Kalleberg, 2011): i datori di lavoro che operano in luoghi che sono rimasti fortemente sindacalizzati hanno un forte interesse nei confronti dell’automazione, soprattutto laddove il sindacato è (o minaccia di essere) militante. È necessario, quindi, analizzare anche quei contesti in cui la sindacalizzazione non esiste.

 

Un esempio è l’azienda di ride-hailing Uber, che ingloba una serie di aspetti fondamentali. Innanzitutto, l’applicazione di Uber comporta un’automazione parziale della mansione, in quanto riduce il livello di competenze necessarie ai tassisti tradizionali, che ricevono una formazione. Inoltre i conducenti, individuati come lavoratori autonomi, ricevono salari significativamente più bassi. Questo accade sia in Europa che negli Stati Uniti ed è il motivo principale per cui i lavoratori di Uber si sono rapidamente sindacalizzati, chiedendo pieni diritti lavorativi.

 

Prendendo in considerazione delle realtà diverse da quelle europee e statunitensi, come l’Egitto, in cui la contrattazione tra commerciante e cliente è molto forte e, in generale, le condizioni dei lavoratori sono peggiori, il rapporto tra paga e soddisfazione dei lavoratori è inversamente proporzionale. Nonostante la paga sia molto bassa, i conducenti di Uber svolgono con piacere il proprio lavoro. Al tempo stesso, dato il particolare rapporto qualità-prezzo, Uber è preferito dai turisti rispetto ai sistemi tradizionali, in quanto è l’alternativa più economica e l’unica soggetta a una regolamentazione.

 

Non sorprende, quindi, il fatto che Uber abbia annunciato un significativo investimento nella tecnologia delle auto a guida autonoma solo nei Paesi in cui i conducenti hanno portato avanti delle rivolte (Morris, 2017).

 

In conclusione, non si può affermare con certezza che il ruolo dell’intelligenza artificiale non avrà alcuna influenza sulle occupazioni in futuro. Rimane però costante la tendenza di alcune aziende, soprattutto quelle che operano nei Paesi più poveri, a voler rimanere ancorate al proprio status quo unicamente a causa del vantaggio economico fornito dalla persistenza dei lavoratori sottopagati.

FONTI

rivisteweb.it

fortune.com

jstor.org

dailymail.co.uk

journals.sagepub.com

oa.inapp.org

< Torna indietro
Ambiente, società e tecnologia

Punti quantici: un premio Nobel dalle molte applicazioni in medicina

Il premio Nobel per la chimica di quest’anno è stato assegnato il 4 ottobre a Moungi G. Bawendi, Louis E. Brus e Alexei I. Ekimov “per la scoperta e la sintesi dei punti quantici”, ottenuti per la prima volta negli anni 80. Si tratta di strutture artificiali, cristalline, semi-conduttrici ed estremamente piccole: le loro dimensioni vanno da alcune unità fino a poche decine di nanometri, che corrispondono a un miliardesimo di metro. Dalle loro dimensioni e struttura dipendono le loro peculiari proprietà, che li rendono potenzialmente utili in moltissimi settori tra cui l’ottica, l’elettronica, l’energia e la medicina.

I punti quantici rientrano a pieno titolo tra le nanotecnologie: uno dei principi teorici fondamentali di questo campo scientifico è il cambiamento osservabile nelle proprietà di un composto a seconda della sua dimensione. Se in una grande porzione di materia notiamo certi fenomeni, a scale molto piccole ne emergeranno altri, principalmente dovuti a effetti quantistici. Molte proprietà possono essere modificate solamente variando la dimensione delle particelle: tra queste, quella di maggiore interesse per i punti quantici è la fluorescenza. In questo fenomeno, una sostanza emette luce a una lunghezza d’onda diversa da quella che ha ricevuto in precedenza. I punti quantici possono dunque assorbire radiazione elettromagnetica ultravioletta e riemettere luce visibile di differenti colori a seconda delle loro dimensioni.

Questa loro caratteristica, assieme alla capacità di trasportare elettroni, li rende utili come componenti all’interno dei moderni display, dei LED o come strumento per il bioimaging (un insieme di tecniche utilizzate per ottenere immagini di tessuti e organi di organismi viventi), dato che la loro fluorescenza può essere molto più intensa di quella di altre sostanze. Ad oggi è possibile ottenere punti quantici di dimensioni desiderate in modo accurato e con tecniche chimico-fisiche relativamente poco costose.

Quantum dots e nanomedicina: quali sono le applicazioni possibili?

Queste strutture cristalline sono spesso formate da metalli pesanti, come il cadmio; sono dunque tossici per le cellule e per gli organismi. Esistono però dei punti quantici formati da strutture di grafene, potenzialmente combinate con altri tipi di composti (procedura che viene chiamata “funzionalizzazione”), che attualmente rappresentano la variante più biocompatibile. Si apre quindi la strada a numerose applicazioni nella branca della nanomedicina, cioè “l’applicazione della nanotecnologia in campo medico”.

Questi punti quantici sono in grado di superare la barriera ematoencefalica (la struttura che “regola selettivamente il passaggio sanguigno di sostanze chimiche da e verso il cervello”), caratteristica che li rende potenzialmente utili nel trattamento di alcune malattie neurodegenerative, come il morbo di Alzheimer. È stato osservato che i punti quantici di grafene possono funzionare come inibitori dell’aggregazione all’esterno dei neuroni della proteina amiloide, responsabile del decorso della malattia.

Un’altra applicazione per i punti quantici di grafene è il drug delivery: queste nanostrutture possono diventare dei veri e propri trasportatori di farmaci affinché essi vengano rilasciati esattamente nel punto desiderato del corpo. La loro stabilità una volta entrati a contatto con i fluidi corporei e la capacità che hanno di conservare i farmaci che trasportano li rendono dei buoni candidati per questa applicazione. Grazie a questo si potrebbe diventare così in grado, per esempio, di rilasciare molecole nelle cellule tumorali senza intaccare quelle normali. Un vantaggio dei punti quantici rispetto ad altri tipi di molecole usate come trasportatori dipende dall’intensa fluorescenza prima descritta: è possibile infatti monitorarne il comportamento all’interno dell’organismo grazie a tecniche di bioimaging.

Tutte queste applicazioni sono ancora in fase di studio e sperimentazione: i punti quantici hanno e potranno avere un grande potenziale tecnologico in molte applicazioni biomediche, così come in altri ambiti.

< Torna indietro
Ambiente, società e tecnologia

Come valorizzare le biomasse di scarto grazie alle bioraffinerie

E se la buccia delle patate e altre biomasse di scarto diventassero una materia prima preziosa da cui ricavare prodotti chimici, combustibili e altri materiali? La valorizzazione delle biomasse di scarto è possibile anche grazie a una serie di approcci sperimentali e industriali che possono essere raggruppati sotto il nome di “bioraffineria”.

Per capire meglio di cosa si tratta, prendiamo come riferimento la definizione data da IEA: “una bioraffineria è un insieme di processi sostenibili volti a trasformare le biomasse in uno spettro di prodotti commercialmente rilevanti”. Le biomasse che possono essere utilizzate vanno da scarti di lavorazione del legno, paglia, amido, fino ad alghe e altri sottoprodotti dell’industria agroalimentare. Queste possono essere trasformate in prodotti chimici di alto valore o combustibili utili per i trasporti ed energia.

Ma quali sono i processi più sfruttati? Le materie prime possono, per esempio, essere gassificate (cioè portate allo stato gassoso), trasformazione che permette la loro scissione in componenti più piccoli, che saranno poi necessari per la sintesi di molecole più complesse. Un altro processo molto sfruttato è la pirolisi, che consente la decomposizione chimica delle materie prime unicamente grazie al calore fornito. Si possono altrimenti condurre una serie di reazioni chimiche che permettano la separazione di tutti i componenti di interesse. Un’ultima via disponibile è quella della fermentazione, che sfrutta la capacità di microrganismi (come batteri) di trasformare grazie al loro metabolismo sostanze come gli zuccheri: in quest’ottica è e sarà molto importante la ricerca su microrganismi GM (geneticamente modificati), il cui metabolismo può essere modificato per ottenere prodotti altrimenti difficilmente raggiungibili con una sintesi chimica.

Come valorizzare la buccia delle patate

A livello teorico, moltissimi tipi di biomasse potrebbero essere processate grazie alle bioraffinerie. Ne esistono però alcune più interessanti e studiate di altre: per esempio, la buccia delle patate. Questo tipo di scarto largamente prodotto a livello industriale può essere fonte di composti interessanti in vari ambiti. Può essere usato non solo come mangime per animali da allevamento o come materia per compostaggio: dalla buccia di patata possono essere estratti, grazie a solventi chimici, delle molecole antiossidanti naturali utili alla conservazione dei cibi (normalmente, antiossidanti sintetici vengono addizionati per garantirne la durata). Si può produrre bioetanolo come combustibile da fonti rinnovabili (si tratta di etanolo in tutto e per tutto, per cui il prefisso “bio” indica solamente la sua provenienza): attualmente la maggior parte del bioetanolo (circa il 60%) deriva dalla fermentazione della scorza della canna da zucchero, ma esiste una domanda in crescita data dalla spinta ad emanciparsi sempre di più dai combustibili fossili. Infine, a partire dalla buccia di patata e dai suoi nanocristalli di cellulosa si sta cercando di produrre una bioplastica, un altro tipo di manufatto concepito per diminuire la dipendenza odierna dai combustibili fossili: ad oggi le sue proprietà meccaniche però non sono ancora ottimali.

L’approccio delle bioraffinerie è quindi utile per valorizzare biomasse di scarto non solo riutilizzandole, ma trasformandole in prodotti ad alto valore aggiunto.

< Torna indietro
Ambiente, società e tecnologia

Perché non dobbiamo preoccuparci per lo sversamento delle acque di Fukushima

Il 24 agosto 2023 in Giappone è iniziato il rilascio delle acque della centrale nucleare in dismissione di Fukushima Dai-ichi. A seguito dell’incidente avvenuto a marzo 2011, che ha causato la fusione del combustibile all’interno del reattore, ne è stato effettuato il raffreddamento con acqua, che ne è rimasta contaminata. In riposta a questa notizia non sono mancati titoli allarmistici, polemiche e dichiarazioni contrarie: ma questi sono davvero giustificati alla luce dei fatti scientifici?

Perché non bisogna preoccuparsi

L’acqua entrata in contatto con il combustibile fuso è stata filtrata grazie a un sistema chiamato “ALPS” (Advanced Liquid Processing System): questa operazione ha reso possibile, grazie a dei processi chimici, la rimozione di 62 radionuclidi, cioè “nuclei atomici instabili che decadono emettendo energia sottoforma di radiazioni”. L’unica specie chimica che non è stato possibile rimuovere è il trizio, un isotopo radioattivo dell’idrogeno. Non dobbiamo però allarmarci: infatti la sua concentrazione nell’acqua di Fukushima è circa 7 volte inferiore al limite fissato dall’OMS per l’acqua potabile, risultato che è stato possibile raggiungere diluendo l’acqua precedentemente contaminata con acqua di mare. L’intero procedimento è stato costantemente monitorato dalla IAEA, l’Agenzia internazionale per l’energia atomica, che ha dichiarato tramite un report scientifico che le misurazioni condotte sull’acqua in Giappone sono state “accurate e precise”. Inoltre, lo sversamento di circa 1 milione di tonnellate di acqua iniziato il 24 agosto durerà circa 30 anni e sarà ulteriormente seguito da IAEA.

Alla luce di tutti i sistemi di sicurezza e delle precauzioni messi in atto, si può affermare che l’impatto di questa operazione sull’ecosistema marino e sulla salute umana sarà del tutto trascurabile e non causerà dunque alcun danno.

< Torna indietro
Ambiente, società e tecnologia

Com’è fatto un metaborgo?

Le possibilità connesse all’avvento delle tecnologie digitali coinvolgono sempre più ambiti, sia economici che sociali: dal gaming alla medicina, dall’industria al settore turistico, in particolare quest’ultimo, dove il metaverso ha trasformato un piccolo paese della Valtellina nel primo Metaborgo d’Italia.

Questo grazie a un progetto innovativo, presentato a Bruxelles in occasione dell’European Tourism Day e inaugurato lo scorso 3 giugno ad Albaredo San Marco, piccolo comune di 300 abitanti in provincia di Sondrio.

Sviluppato dall’azienda Carraro Lab in collaborazione con l’Università di Milano Bicocca, il Metaborgo consentirà ai visitatori, grazie a visori VR da noleggiare in loco o  utilizzando semplicemente il proprio smartphone, di immergersi nella storia di questo piccolo borgo montano; infatti, percorrendo 12 tappe di un tour interattivo, che alterna realtà virtuale e realtà aumentata, si potranno osservare scene di vita quotidiana passata e conoscere le  vicende storiche di Albaredo, con la possibilità, per gli utenti, di incontrare gli abitanti dell’epoca, scoprirne usi e costumi e apprezzare le tradizioni che caratterizzano quest’angolo della Valtellina.

 

L’iniziativa del Metaborgo, secondo Barbara Mazzali, assessore al Turismo della regione Lombardia, “può rappresentare una parte della nuova frontiera del turismo”.

Sono numerose, infatti, le strutture alberghiere, le destinazioni turistiche e le istituzioni museali, tra cui un autentico Museo delle Esperienze di Realtà Virtuale, “La Macchina del Tempo” di Bologna, che, implementando queste soluzioni tecnologiche nelle loro strategie commerciali e di valorizzazione, hanno come obiettivo il miglioramento dell’ambiente di riferimento e la volontà di rendere indimenticabile l’esperienza di turisti e visitatori.

 

Metatourism, inoltre, è stato l’argomento principale anche di convegni e fiere di settore, tra cui l’edizione 2022 della BTO (Buy Tourism Online) di Firenze, dove molti interventi si sono concentrati sulle opportunità e le possibilità offerte dal legame tra turismo e metaverso.

Sono esempi significativi che testimoniano come le tecnologie VR e AR stiano rivoluzionando sempre di più il settore dei viaggi e del turismo.

< Torna indietro
Ambiente, società e tecnologia

Ahi ahi, AI! Le criticità dell’Intelligenza Artificiale

Il 2 giugno ha fatto il giro del mondo la notizia secondo cui, durante una simulazione digitale, l’intelligenza artificiale creata per i droni dell’esercito avrebbe ucciso il proprio operatore, reo di limitarne l’efficacia.

Dagli approfondimenti è emerso che in realtà il colonnello Tucker Hamilton, responsabile delle attività di test sulle AI per l’Aeronautica militare statunitense, aveva raccontato uno scenario ipotetico: un’IA impostata con l’obiettivo di abbattere missili terra-aria, non prima di aver ricevuto l’approvazione da parte di un operatore, potrebbe secondo il colonnello interpretare l’uomo come un ostacolo al raggiungimento dello scopo, e quindi decidere di eliminarlo.

Sebbene il clamore della notizia si sia poi sgonfiato grazie alle dichiarazioni di Hamilton, il pericolo che questa nuova tecnologia possa essere una minaccia per l’essere umano non è certo una novità.

Il 30 maggio 2023 il Center for AI Safety, una nonprofit che si occupa dei rischi che l’intelligenza artificiale porta alla società, ha pubblicato un comunicato secondo cui “mitigare il rischio di estinzione da parte dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”. La sintetica dichiarazione è stata sottoscritta da più di 350 esperti del campo e scienziati, tra cui Bill Gates e diversi membri di società internazionali, come OpenAI e Google DeepMind, ma mancano i rappresentanti di Meta.

Sul sito della nonprofit è presente anche un comunicato stampa collegato in cui la dichiarazione viene paragonata per importanza a quella sui potenziali effetti della bomba atomica fatta da Oppenheimer nel 1949.

Secondo diversi addetti ai lavori, non si tratta di altro che di un’operazione di marketing a basso costo al fine di sviare l’attenzione dalle attuali criticità dell’IA, così come la lettera aperta firmata da diversi operatori del settore, tra cui Elon Musk, in cui viene chiesta una pausa di sei mesi allo sviluppo di tecnologie più sofisticate di GPT-4: se pensano che sia necessario un periodo di stop perché non lo fanno?

Gli attuali problemi legati a IA sono per lo più imputabili alle caratteristiche della tecnologia stessa e all’uso improprio che se ne fa, come l’amplificazione di pregiudizi.

Vediamone alcuni.

In Amazon era stata sviluppata una tecnologia per valutare i curriculum, basata sui profili delle persone assunte negli ultimi dieci anni, secondo un sistema a stelline, analogamente ai punteggi dati ai prodotti dell’e-commerce.  Nel corso del primo anno, l’azienda ha notato come il sistema preferisse gli uomini alle donne: era naturale che fosse così, visto che l’azienda stessa nei dieci anni precedenti aveva preferito candidati maschili.

Gli appassionati di The good wife ricorderanno la puntata in cui una nuova tecnologia che doveva categorizzare le immagini (indicando se rappresentavano una persona, un animale, un oggetto…), classificava i soggetti afroamericani come scimmie: al software era stato insegnato molto bene come individuare un caucasico, ma non altrettanto come farlo con le persone di colore.

Questi sono solo alcuni esempi di come l’IA non possa essere definita di per sè maschilista o razzista: prende decisioni in base agli input ricevuti, che possono avere bias ab initio.

Un professore universitario in Texas ha bloccato la laurea di tutti i suoi studenti perché ChatGPT aveva affermato che tutte le tesi fossero frutto del lavoro di ChatGPT stesso. L’ironia è che sottoponendo all’IA la tesi del professore, anche questa viene classificata come prodotto dell’IA: la tecnologia, infatti, tende a compiacere lo scrivente e a seconda di come è impostato il prompt dà feedback opposti e/o non veritieri (è possibile far affermare che 1+1 fa 5).

Analogamente, negli Stati Uniti la NEDA (National Eating Disorder Association) aveva annunciato il licenziamento del personale che si dedicava alle linee telefoniche di supporto, sostituendo il servizio con un chatbot apposito, Tessa. L’operazione è poi stata bloccata perché l’IA dava risposte pericolose che incoraggiavano per esempio diete restrittive. Non proprio quello che ci si aspetterebbe contattando un’organizzazione che supporta le persone con disordini alimentari.

Insomma, problemi con l’intelligenza artificiale ne abbiamo già da ora, li risolveremo prima di estinguerci?

< Torna indietro
Ambiente, società e tecnologia

“Hey Magi!”: in arrivo l’ultima novità targata Google

Magi, acronimo per Meta-Learning Agent for Human Instruction, si appresta a diventare l’integrazione AI (artificial intelligence) del motore di ricerca più utilizzato al mondo.

Recentemente gli sviluppi della ricerca sull’AI hanno portato alla ribalta ChatGPT, una chatbox in grado di scrivere testi complessi e fornire risposte articolate a moltissimi quesiti. Tutti i colossi del web stanno quindi correndo ai ripari per tenere il passo; Microsoft e Google non potevano essere da meno. Quest’ultimo in particolare negli ultimi mesi ha impiegato a tempo pieno circa 160 sviluppatori per poter presentare alla conferenza sviluppatori I/O 2023 dello scorso 10 maggio buona parte delle novità sulla sua AI. In realtà l’intero progetto di Google prende il nome di Bard, dalla figura del poeta-cantore di gesta epiche della tradizione celtica (soprannome tra l’altro utilizzato per Shakespeare), mentre la sua estensione all’esperienza di ricerca è stata chiamata appunto Magi. Ma vediamo un po’ più nel dettaglio di che cosa si tratta.

L’implementazione dell’AI nella web search engine dovrebbe fornire all’utente un’esperienza più personalizzata di quella attuale andando ad anticipare le sue esigenze attraverso l’integrazione contemporanea di più piattaforme. Un esempio di quanto appena detto, secondo numerose fonti web, potrebbe essere quello che riguarda il settore turismo. Inserendo nella chatbox i termini della ricerca, Google dovrebbe essere in grado di rispondere in un’unica schermata a tutte le domande dell’utente, riportando le migliori offerte per biglietti aerei, hotel, esperienze di viaggio come city tour e ristoranti senza neanche rendere necessario l’utilizzo di altre url. Allo stesso modo, un acquisto on line potrebbe essere effettuato già attraverso Google e senza la necessità di visitare l’e-commerce di un qualsiasi brand. In pratica l’esperienza di ricerca diventerà più una conversazione che un semplice botta e risposta.

E non finisce qui: Google lancerà altri servizi collegati all’AI che andranno a modificare e potenziare quanto già offerto da alcune delle sue APP più gettonate: Earth vedrà un miglioramento delle sue mappe attraverso l’implementazione di una navigazione immersiva che renderà molto più precisi i percorsi. Google Foto verrà invece integrato con Magic Editor, cioè una sorta di Photoshop molto semplificato. Tivoli Tutor sbarcherà sul mercato dei corsi di lingua offrendo la possibilità di conversazioni virtuali e, sempre nella macroarea delle lingue straniere, sarà possibile tradurre una frase parlata in tempo reale grazie ad un traduttore simultaneo virtuale.

Le funzionalità di Magi dovrebbero essere disponibili entro l’estate per buona parte degli utenti degli Stati Uniti e per il resto del globo entro fine anno. Non ci resta che attendere!

iBicocca