Come gli scienziati e i supercomputer potrebbero rendere potabile l'acqua degli oceani
Rimuovere il sale dall'acqua marina è una sfida enorme. Forse i ricercatori hanno la risposta, ma richiederà molta potenza di calcolo.
Aleksandr Noy prevede grandi cose per uno strumento piccolo piccolo. Scienziato ricercatore senior al Lawrence Livermore National Laboratory, Noy ha dedicato gran parte della carriera a perfezionare quell'alchimia che permette di rimuovere il sale dall'acqua di mare, nota con il nome di "dissalazione". I suoi ferri del mestiere sono i nanotubi di carbonio. Nel 2006 Noy ha avuto l'audacia di sposare una teoria radicale: forse i nanotubi, cilindri tanto piccoli da essere visibili solo al microscopio elettronico, potrebbero fungere da filtri per la dissalazione. Tutto sta nella larghezza di questi tubi: l'apertura deve essere abbastanza grande da consentire il passaggio delle molecole d'acqua, ma abbastanza piccola da bloccare le particelle di sale, più grandi, che rendono l'acqua di mare non potabile. Mettendo insieme un numero sufficiente di nanotubi di carbonio, potenzialmente si ottiene la macchina più efficiente del mondo per la produzione di acqua dolce.
Quanto sono piccoli i nanotubi di carbonio?
La maggior parte dei suoi colleghi di laboratorio non crede più che sia fantascienza. "È stato difficile immaginare di far scorrere l'acqua attraverso tubi così stretti", dichiara Noy. Tuttavia, se la teoria dei nanotubi fosse corretta, i vantaggi sarebbero incalcolabili. Molte regioni del mondo stanno già facendo i conti con la carenza di acqua potabile, con 1,2 miliardi di persone (circa un sesto della popolazione globale) che vivono in aree affette da scarsità idrica. La dissalazione può aiutare, ma l'infrastruttura attuale richiede massicce quantità di energia (e quindi molto denaro) per riscaldare l'acqua di mare o per filtrarla con sistemi complessi. Se i filtri con i nanotubi funzionassero, potrebbero ridurre di molto la sofferenza idrica del pianeta.
Il team di Noy ha organizzato un semplice esperimento di filtraggio durato una notte. Il mattino successivo due assistenti hanno notato una pozza sul pavimento del laboratorio: l'acqua era fuoriuscita dai nanotubi così velocemente da far traboccare il piccolo serbatoio adibito alla raccolta del liquido. I ricercatori hanno poi constatato che attraverso i nanotubi di carbonio passano flussi d'acqua sei volte superiori a quelli che passano attraverso i filtri degli odierni impianti di dissalazione.
Così una piccola pozza è diventata una delle più grandi scoperte della carriera di Noy. "L'esperimento è stato interessante", ricorda, "perché nessuno sapeva cosa aspettarsi". Ora che lo sappiamo tutti, rimane una grande sfida che riusciremo a vincere con una potenza di calcolo all'altezza.
Per fortuna, gli scienziati sono sull'orlo di una rivoluzione chiamata "exascale computing" (che nel caso di Google si tradurrà probabilmente in una moltitudine di computer connessi nella cloud). L'exascale farà impallidire i più potenti supercomputer esistenti. Questo tipo di potenza di calcolo estrema sarà una risorsa notevole per i ricercatori impegnati nel capire come far funzionare i nanotubi per filtrare l'acqua su larga scala. Questi tubi, come i miliardi di molecole che li attraversano, sono decisamente troppo piccoli per essere studiati in dettaglio e testare fisicamente diverse varianti è difficile e dispendioso in termini di tempo. La modellazione con computer exascale potrà analizzare meglio questi tubi sottilissimi, accelerando molto la ricerca sulla dissalazione mediante nanotubi. In definitiva, la tecnologia aiuterà a far fronte a molti dei problemi ambientali più spinosi che stiamo vivendo.
La promessa dell'exascale
Una velocità estremamente superiore potrebbe aiutare a vincere sfide un tempo impossibili e condurre a grandi svolte.
Per chi non mastica il gergo della Silicon Valley, il termine "exascale" si riferisce alla potenza della nuova generazione di supercomputer. Un computer exascale potrà eseguire un trilione (un miliardo di miliardi) di calcoli al secondo: quasi 11 volte la potenza del cinese Sunway TaihuLight, il computer più veloce attualmente esistente. Per avere un'idea, la potenza di calcolo dell'exascale è la stessa di circa 50 milioni di laptop interconnessi.
In tutto il mondo è iniziata la corsa alla realizzazione del primo computer exascale, che darà occasione agli scienziati di riscrivere tutto, dalla fisica teorica alle previsioni del tempo a lungo termine, ma è plausibile pensare che tra i primi progetti di ricerca a sperimentare i vantaggi delle aumentate capacità di elaborazione ci sarà anche quello di Noy sui nanotubi.
"Un audace avanzamento sul piano della potenza di calcolo sarà di grande vantaggio per la scienza dei materiali, la scoperta di nuovi farmaci e la chimica", afferma George Dahl, scienziato ricercatore del team Google Brain. Come spiega Dahl, per tutte queste aree di ricerca c'è bisogno di realizzare modelli di molecole al computer, attività che richiede una potenza di calcolo notevole. "Si tratta di elaborazioni molto lente", afferma Dahl, "per ogni singola molecola o materiale da analizzare".
Ma non finisce qui, secondo lui. Se alle simulazioni molecolari si applica il machine learning, che a sua volta migliora con i progressi nella potenza di calcolo, a maggior ragione le potenzialità raddoppiano. "Il machine learning può essere utilizzato con la scienza dei materiali per trovarne di completamente nuovi", dice Dahl.
Sono proprio questi i progressi che faranno mettere a punto metodi per il filtraggio dell'acqua salata migliori e meno costosi. E non è solo in questo modo che i computer exascale potrebbero aiutare ad alleviare le problematiche idriche del pianeta.
Data la sua eccezionale capacità di elaborare anche notevoli quantità di dati, l'exascale computing potrebbe tornare utile anche per progetti il cui lavoro vede in parte coinvolti gli ingegneri Google Noel Gorelick, cofondatore della piattaforma Earth Engine, e Tyler Erickson, consulente senior per gli sviluppatori impegnato sul fronte dell'analisi delle acque per questa piattaforma basata sulla cloud che analizza i dati ambientali su scala globale. Una recente quanto ambiziosa impresa capitanata da Gorelick in collaborazione con il Centro comune di ricerca della Commissione europea ha cercato di creare mappe altamente dettagliate delle acque di superficie del globo terrestre. Esaminando più di 30 anni di immagini satellitari alla luce dei dati di Earth Engine, il team ha potuto mappare (e misurare) l'evoluzione dei bacini idrici della Terra nel corso dei decenni, osservando i laghi scomparsi e i corsi d'acqua prosciugati, ma anche la formazione di nuove riserve idriche. Solo per scaricare l'intera mole dei dati necessari, ci sarebbero voluti tre anni. Un archivio di tutto rispetto, secondo lo stesso Erickson, ma con l'exascale il team potrà raccogliere una quantità di informazioni ancora maggiore a una velocità decisamente superiore, per produrre mappe addirittura più precise.
"Con una potenza di calcolo più elevata, riusciremmo a ricavare dati anche da altre fonti", dichiara Erickson e prosegue osservando che un computer exascale può attingere alla risorsa più sottovalutata del mondo: la "citizen science", ovvero la "scienza dei cittadini". Immaginiamo che il progetto di mappatura delle acque fosse aperto a chiunque possedesse un drone con ripresa video HD. "Avremmo una quantità di dati impressionante", dice Erickson. Gli adolescenti che sorvolano fiumi ed estuari con un DJI Phantom potrebbero caricare video nella cloud di Google; qui, grazie all'exascale, i video verrebbero archiviati con i riferimenti geografici della mappa base del mondo di Google, analizzati ed elaborati in forma di cartografia digitale. Questa democratizzazione della scienza attiva può servire ad aiutare la pianificazione agricola, a preparare le aree geografiche soggette a calamità naturali o persino a monitorare i cambiamenti dell'ecosistema. Per promuovere progetti come questi in altre organizzazioni, nel 2014 Google ha annunciato l'intenzione di donare un petabyte di spazio di archiviazione sulla cloud per i dati sul clima, nonché 50 milioni di ore di calcolo con la piattaforma Google Earth Engine.
Dal canto suo, Dahl si affretta ad aggiungere che incrementare la potenza di calcolo non basterà a risolvere tutte le sfide in ambito informatico, anche se i benefici maggiori potrebbero venire da utilizzi che ancora non immaginiamo. Dahl fa un'analogia con l'invenzione del microscopio, uno strumento che ha consentito nuove scoperte decisive per la vita delle persone. "Magari ci accorgeremo improvvisamente che qualcosa a cui non abbiamo mai pensato può avere una funzione pratica", afferma, "e che ci permetterà di costruire qualcosa di paragonabile al microscopio: uno strumento tutto nuovo che, a sua volta, renderà possibili scoperte inedite".
Solo il 3% delle acque terrestri è fatto di acqua dolce e potabile.
E noi possiamo disporne solo in minima parte.
L'High Performance Computing, ovvero il calcolo ad alte prestazioni, si misura in FLOPS. Questa metrica può essere applicata a qualsiasi computer, da un normale laptop al supercomputer più veloce del mondo. Più FLOPS equivalgono a una maggior velocità; una maggior velocità equivale a una risoluzione superiore, ovvero alla possibilità di vedere le cose più in dettaglio; una risoluzione superiore equivale a immagini simulate al computer più precise, come anche le previsioni che ne conseguono. Questo è particolarmente utile per realtà come il NOAA (Amministrazione Nazionale Oceanica e Atmosferica), che utilizza i computer per prevedere l'andamento meteorologico, i cambiamenti climatici, le alterazioni degli oceani e delle coste.
I sistemi exaflop possono eseguire un numero di calcoli al secondo pari a 1018 (un miliardo di miliardi).
Il NOAA prevede di utilizzare sistemi exascale dal 2020. "Con l'exascale potremo fornire allerte meteo più precise a livelli più dettagliati e con un preavviso maggiore, assicurando una protezione decisamente superiore a persone e proprietà", afferma Brian D. Gross, direttore aggiunto dell'area High Performance Computing e comunicazioni presso l'ente. Gli scienziati possono aiutare a migliorare la capacità di reazione in previsione di eventi climatici estremi, come un uragano devastante, permettendo a intere aree geografiche di contenere il bilancio dei danni e delle vittime.
Per dare un'idea della portata della potenza di calcolo, Gross spiega che nei primi anni del 2000 il dipartimento aveva a disposizione sistemi teraflops (mille miliardi di calcoli al secondo) che permettevano di monitorare con precisione fronti meteorologici grandi all'incirca come uno stato; oggi i sistemi impiegano petaflops (un milione di miliardi di calcoli al secondo) e riescono a monitorare nel dettaglio fronti meteorologici della grandezza di una regione. Con l'exascale computing, il NOAA potrà andare ancora più in dettaglio, ad esempio mappando con precisione fronti temporaleschi grandi quanto una città. Un simile livello di dettaglio fornisce maggiori informazioni, rivelando molto di più sul comportamento e sull'evoluzione dei fenomeni atmosferici di qualsiasi estensione. "I modelli con risoluzione superiore tracciano un quadro più preciso dei sistemi meteorologici di maggiore portata, come gli uragani, migliorando la previsione dell'andamento di piogge e tempeste", spiega Gross. In altre parole, tra qualche anno i meteorologi che sbagliano le previsioni a cinque giorni avranno ben poche scuse, mentre la popolazione sarà più informata su dove e quando colpirà esattamente la nuova tempesta in arrivo.
L'exascale computing può contribuire a risolvere il problema della scarsità di acqua dolce
Supercomputer più veloci aiuteranno i ricercatori che studiano i filtri per la depurazione e la dissalazione a incrementare la quantità di acqua potabile nel mondo.
L'accesso all'acqua dolce è una sfida che tocca tutto il mondo. Dal prosciugamento delle falde acquifere nel sottosuolo dell'Arabia Saudita ai terreni riarsi del Brasile, fino ai granai americani, dove la siccità si è diffusa nelle Grandi Praterie con profonde spaccature nel terreno, la sete del pianeta è ormai evidente. In un rapporto stilato nel 2012 dall'intelligence a stelle e strisce si legge che la carenza di acqua dolce finirà per minare la sicurezza nazionale. Stando alle previsioni, entro il 2030 il fabbisogno di acqua dolce supererà del 40% la disponibilità globale.
Aumento delle temperature, diminuzione delle piogge, incremento della popolazione, inquinamento e povertà: a prima vista, le sfide all'origine della domanda possono sembrare insormontabili. Ciononostante, Aleksandr Noy è convinto che un computer exascale lo aiuterà a mettere a punto una membrana composta da nanotubi capace di filtrare l'acqua e salvare vite. "Con una tale potenza di calcolo, possiamo eseguire veloci simulazioni prima della fase di laboratorio", afferma. "Una cosa davvero utile, perché così potremo concentrare le energie sugli esperimenti più promettenti". E rimane ancora molto da capire: bisogna stabilire le misure precise necessarie per trasportare l'acqua lungo i nanotubi e nessuno sa quale sia il materiale migliore per la membrana in cui incorporare i nanotubi o come andranno disposti questi ultimi. "Nei numerosi studi compiuti su simulazioni di modelli di circuiti a nanotubi ci sono ancora discrepanze nei numeri", afferma Ramya Tunuguntla, ricercatrice post-dottorato che lavora con Noy. "Un ostacolo che dobbiamo superare". Come Noy, anche lei è convinta che un supercomputer più potente farà salire di livello la ricerca: "Con l'exascale, potremmo eseguire simulazioni più lunghe e raccogliere una quantità di dati maggiore".
Nel 2023 il Lawrence Livermore avrà un nuovo computer. Con una potenza di calcolo da quattro a sei volte superiore a quella del sistema attuale, con ogni probabilità questa macchina, detta Sierra, sarà l'ultima tappa prima che si arrivi ad ammirare quelle strabilianti immagini in alta definizione composte da un trilione di FLOPS. In realtà, per quel momento l'exascale potrebbe già essere arrivato oltre. Un ricercatore di punta del Livermore prevede che i primi computer exascale compariranno negli USA intorno al 2020, ma la Cina (l'assoluta favorita nella corsa) si dice pronta a presentare entro la fine di quest'anno o all'inizio del prossimo un prototipo già battezzato da alcuni il "super-supercomputer".
Costas Bekas, due volte vincitore del premio Gordon Bell ed esperto di exascale presso il laboratorio di ricerca IBM di Zurigo, precisa che l'exascale non è il traguardo finale, perché la potenza di calcolo continuerà a crescere. Secondo Bekas, un giorno la modellazione informatica ci permetterà di esaminare l'universo non solo a livello molecolare, ma anche atomico.
"Con l'exascale possiamo finalmente analizzare cose molto complesse, ad esempio come funzionano i nanotubi di carbonio, con un dispendio accettabile di tempo ed energia", afferma Bekas. "Gli exaflop non salveranno il pianeta. I problemi da risolvere sono troppi, ma di sicuro serviranno a fare della Terra un posto migliore".
Tornando al Lawrence Livermore, Aleksandr Noy e Ramya Tunuguntla caricano un'altra membrana di nanotubi in una cellula di test, premono un interruttore e raccolgono una quantità maggiore di dati. Presto, insieme all'exascale computing, potrebbero cambiare la vita di miliardi di persone.
RENE CHUN è uno scrittore che vive a New York. I suoi lavori sono comparsi sulle pagine del New York Times e di riviste come The Atlantic, Esquire e Wired.
Animazioni di Justin Poulsen
Illustrazioni di Matthew Hollister