Naukowcy z pomocą superkomputerów chcą sprawić, by woda z oceanów była zdatna do picia
Usunięcie soli z wody morskiej to ogromne wyzwanie. Być może badacze znają rozwiązanie tego problemu, ale jego realizacja wymaga ogromnej mocy obliczeniowej.
Aleksandr Noy ma wielkie plany względem niezwykle małego narzędzia. Noy, badacz z Lawrence Livermore National Laboratory, poświęcił znaczną część swojej kariery, by udoskonalić procesy odsalania, które dla większości osób są niczym czarna magia. Jego asem w rękawie są węglowe nanorurki. W 2006 r. Noy miał odwagę przyjąć radykalną teorię: być może nanorurki, cylindry tak małe, że można zobaczyć je tylko pod mikroskopem elektronowym, mogą działać jak filtry odsalania. Wszystko to byłoby kwestią średnicy tych rurek. Otwory musiałyby być na tyle duże, by cząsteczki wody wpływały do rurek, ale wystarczająco małe, by można było zablokować w nich większe cząsteczki soli, które powodują, że woda morska nie nadaje się do picia. Potencjalnie wystarczyłoby więc zebrać odpowiednią liczbę węglowych nanorurek, by stworzyć najbardziej wydajną na świecie maszynę do wytwarzania czystej wody.
Jak mikroskopijne są węglowe nanorurki?
Większość badaczy z jego laboratorium skreślało tę ideę, twierdząc, że to czysta fantastyka. „Trudno było wyobrażać sobie, że woda może przedostać się przez tak małe rurki”, mówi Noy. Gdyby jednak teoria dotycząca nanorurek była prawidłowa, to korzyści, jakie mogłaby ona przynieść, byłyby niewyobrażalne. W wielu regionach świata panuje niedobór wody pitnej. Na obszarach dotkniętych niedoborem wody żyje około jednej szóstej całej populacji świata, czyli 1,2 miliarda ludzi. Odsalanie może pomóc rozwiązać ten problem, jednak bieżąca infrastruktura wymaga zapewnienia ogromnej ilości energii, a tym samym także pieniędzy, w celu podgrzewania wody morskiej lub jej przepuszczania przez skomplikowane filtry. Gdyby okazało się, że filtry wykorzystujące nanorurki działają, można by znacznie ograniczyć problem niedoboru wody.
Zespół Noya przeprowadził prosty eksperyment z filtracją i pozwolił, aby opracowany przez niego mechanizm działał całą noc. Rankiem dwóch asystentów zauważyło na podłodze kałużę; woda przepływała przez nanorurki tak szybko, że pozostawiony mały zbiornik przelał się. Naukowcy potwierdzili później, że szybkość przepływu wody przez nanorurki węglowe jest sześciokrotnie większa od prędkości przepływu przez filtry stosowane w dzisiejszych zakładach odsalania.
Może i kałuża była mała, było to jednak jedno z największych odkryć w karierze Noya. „Eksperyment był ekscytujący”, wspomina Noy, „ponieważ nikt nie wiedział, czego się spodziewać”. Teraz, gdy wszyscy już to wiedzą, mamy przed sobą ogromne wyzwanie – takie, któremu można jednak sprostać przy wystarczającej mocy obliczeniowej.
Na szczęście naukowcy zbliżają się do przełomowego odkrycia, którego przedmiotem są tzw. eksaskalowe komputery (gdyby to Google miał podać definicję, brzmiałaby ona pewnie tak: mnóstwo maszyn połączonych w chmurze). W porównaniu z tymi maszynami dzisiejsze superkomputery przypominają bardziej kalkulatory. Tego rodzaju ogromna moc obliczeniowa będzie wielkim atutem dla badaczy zajmujących się nanorurkami wykorzystywanymi w filtrowaniu wody na dużą skalę. Rurki te, podobnie jak miliardy cząsteczek, które przez nie przechodzą, są zbyt małe, aby można było szczegółowo je zbadać, a fizyczne testowanie różnych ich rodzajów jest trudne i czasochłonne. Komputery eksaskalowe pozwolą jednak uzyskać ich obraz w powiększeniu, co znacznie przyśpieszy proces badania procesu odsalania z użyciem nanorurek. Technologia ta pomoże także rozwiązać wiele innych niezwykle złożonych problemów związanych z ochroną środowiska.
Zapowiedź eksaskalowej mocy przetwarzania danych
Znacznie większa prędkość przetwarzania danych może przyczynić się do rozwiązania problemów uznawanych niegdyś za niemożliwe do rozwikłania i prowadzić do rewolucyjnych odkryć.
Osobom, które na co dzień nie mają styczności z żargonem stosowanym w Dolinie Krzemowej, przetwarzanie eksaskalowe kojarzy się z mocą superkomputerów nowej generacji. Maszyny eksaskalowe będą w stanie bez trudu wykonywać kwintylion (miliard miliardów) obliczeń na sekundę. To prawie 11 razy tyle co chiński Sunway TaihuLight cieszący się sławą najszybszego aktualnie wykorzystywanego komputera na świecie. Pod względem wydajności eksaskalowy komputer można porównać do 50 milionów połączonych laptopów.
Trwa ogólnoświatowy wyścig dążący do zbudowania pierwszej maszyny eksaskalowej, która pozwoli naukowcom zweryfikować wszystko – od zagadnień fizyki teoretycznej aż po długoterminowe prognozy pogody. Prowadzone przez Noya badania dotyczące działania nanorurek oraz inne podobne inicjatywy prawdopodobnie będą stanowić jedne z pierwszych projektów, które pozwolą nam w praktyce wykorzystać nowe pułapy mocy obliczeniowej.
„Skok w mocy obliczeniowej będzie stanowić ogromną korzyść z punktu widzenia takich dziedzin jak chemia czy badania nad materiałami i lekami”, mówi George Dahl, badacz i członek zespołu Google Brain. Wszystkie te obszary nauki wymagają budowania komputerowych modeli cząsteczek, a do tego potrzeba ogromnej mocy obliczeniowej. „Proces obliczeniowy przebiega bardzo powoli w przypadku każdej cząsteczki i każdego materiału, który poddajemy analizie”, tłumaczy Dahl.
„To jednak nie wszystko”, dodaje. Jeśli zastosować w obszarze symulacji molekularnych systemy uczące się, dla których działania duża moc obliczeniowa również jest bardzo ważna, to nagle jest to utrudnienie, które się spiętrza. „Można korzystać z systemów uczących się w połączeniu z materiałoznawstwem, by wynajdywać zupełnie nowe tworzywa”.
To dokładnie tego rodzaju postęp pozwoli opracować lepsze i tańsze filtry wody morskiej. Nie jest to jednak jedyny sposób, w jaki eksaskalowe przetwarzanie danych może pomóc nam poradzić sobie z wyzwaniami, jakie stwarza ograniczona dostępność wody na naszej planecie.
Eksaskalowe przetwarzanie danych sprawdza się znakomicie także w kontekście przetwarzania znacznych ilości danych, dlatego może pomóc w realizacji projektów podobnych do tych, którymi zajmują się m.in. inżynierowie Google: Noel Gorelick, współzałożyciel platformy Earth Engine, i Tyler Erickson, ekspert od programowania, którego starania koncentrują się na przeprowadzaniu na potrzeby platformy analiz związanych z wodą. Platforma chmurowa analizuje dane środowiskowe na skalę globalną. Niedawna ambitna inicjatywa, której przewodził Gorelick wraz ze Wspólnotowym Centrum Badawczym Komisji Europejskiej, przyjęła za swój cel stworzenie map wód powierzchniowych z całego świata w wysokiej rozdzielczości. Zespół przyjrzał się gromadzonym przez ponad 30 lat zdjęciom satelitarnym, korzystając przy tym z danych platformy Earth Engine, i zmapował (oraz zmierzył) ewolucję ziemskich akwenów na przestrzeni dekad, ujawniając przy tym zarówno znikające jeziora i wysuszone rzeki, jak i nowe akweny. Pobranie za jednym razem wszystkich niezbędnych danych trwałoby trzy lata. Jak mówi sam Erickson, to naprawdę ogrom danych, jednak eksaskalowe przetwarzanie danych pozwoli zespołowi zgromadzić jeszcze więcej informacji – ze znacznie większą prędkością – co z kolei pozwoli opracować jeszcze dokładniejsze mapy.
„Istnieją inne źródła danych, z których moglibyśmy czerpać, dysponując odpowiednią mocą obliczeniową”, stwierdza Erickson. Zauważa także, że maszyna z obsługą eksaskalowego przetwarzania danych może pomóc w wykorzystaniu najbardziej niedocenianego źródła informacji na świecie: zwykłych obywateli, a więc badaczy spoza kręgów akademickich. Wystarczy wyobrazić sobie, co by było, gdyby projekt mapowania akwenów otworzyć dla wszystkich użytkowników dronów zdolnych wykonywać nagrania w jakości HD. „Ilość uzyskanych w ten sposób danych byłaby imponująca”, mówi. Młodzież ze szkół średnich mogłaby pilotować drony DJI Phantom nad rzekami i ich ujściami i przesyłać nagrania wideo do Google Cloud. Dzięki zastosowaniu eksaskalowego przetwarzania danych nagrania te mogłyby być rejestrowane, powiązane z poszczególnymi obszarami geograficznymi z bazowej mapy świata Google, analizowane i przekształcane w mapy cyfrowe. Wprowadzenie w życie tego rodzaju demokratyzacji nauki mogłoby ułatwić procesy planowania rolniczego, przygotowywania poszczególnych regionów pod kątem wystąpienia klęsk żywiołowych, a nawet monitorowania zmian ekologicznych. (W celu promowania podobnych projektów w innych organizacjach w 2014 r. firma Google ogłosiła, że przekazuje petabajt przestrzeni w chmurze na dane o klimacie oraz 50 milionów godzin przetwarzania danych z użyciem platformy Google Earth Engine).
Dahl z kolei dodał, że zwiększanie mocy procesorów nie rozwiąże każdego problemu obliczeniowego. Zauważył też jednak, że największe korzyści możemy odnieść z takich ich zastosowań, na które jeszcze wcale nie wpadliśmy. Odwołał się do wynalezienia mikroskopu – urządzenia, które umożliwiło wiele innych odkryć ratujących życie. „Być może coś, co teraz nie wydaje nam się godne uwagi, może w pewnym momencie zyskać głębszy, praktyczny sens”, mówi. „Być może coś takiego pozwoli nam stworzyć rozwiązanie podobne do mikroskopu – zupełnie nowego narzędzia, które otworzy drzwi do zupełnie nowych odkryć”.
Zdatna do picia woda słodka stanowi jedynie 3% wody na świecie
A my mamy dostęp tylko do części tej wody.
Moc obliczeniowa wysokowydajnych maszyn jest mierzona we FLOPS-ach określających liczbę operacji zmiennoprzecinkowych na sekundę. Ten wskaźnik może być stosowany w odniesieniu do dowolnej maszyny, od laptopa po najszybszy na świecie superkomputer. Więcej FLOPS-ów to większa prędkość, większa prędkość to wyższa rozdzielczość lub możliwość dokładniejszego wyświetlania szczegółów, natomiast wyższa rozdzielczość to dokładniejsze symulacje i prognozy. Jest to szczególnie ważne dla organizacji takich jak agencja rządowa National Oceanic and Atmospheric Administration, które wykorzystują komputery do przewidywania wzorców pogodowych, zmian klimatu i zaburzeń cyrkulacji oceanicznej wzdłuż wybrzeży.
Systemy eksaskalowe mogą wykonywać nawet 1018 (miliard miliardów) obliczeń na sekundę.
Oczekuje się, że NOAA będzie korzystać z systemów eksaskalowych już w latach 20. XXI wieku. „Da nam to możliwość dostarczania z większym wyprzedzeniem dokładniejszych ostrzeżeń o trudnych warunkach pogodowych, co wpłynie na poprawę bezpieczeństwa ludzi i ich mienia”, mówi Brian D. Gross, który w agencji pełni funkcję zastępcy dyrektora ds. komunikacji i technologii wykorzystujących dużą moc obliczeniową. Naukowcy mogliby pomóc ludziom lepiej przygotować się na nadejście ekstremalnych zjawisk klimatycznych, takich jak niszczycielskie huragany, co z kolei umożliwiłoby ograniczenie szkód i liczby ofiar śmiertelnych w całym regionie.
Aby pokazać skalę tej mocy obliczeniowej, Gross wyjaśnia, że po 2000 roku jego dział wykorzystywał systemy o mocy obliczeniowej na poziomie teraflopów (bilion obliczeń na sekundę), które pozwalały precyzyjnie śledzić zjawiska pogodowe obejmujące obszar o wielkości stanu. Natomiast obecnie wykorzystywane systemy o wydajności na poziomie petaflopów (biliard obliczeń na sekundę) pozwalają śledzić zjawiska pogodowe wielkości hrabstwa. Maszyny eksaskalowe pozwolą NOAA na znacznie bardziej szczegółową analizę dzięki możliwości przybliżenia obrazu – dzięki temu możliwe będzie dokładne mapowanie burz wielkości miast. Taka rozdzielczość dostarcza więcej informacji pozwalających dowiedzieć się, jak zachowują się i ewoluują burze niezależnie od ich rozmiaru. „Modele o wyższej rozdzielczości pozwalają na dokładne odwzorowanie większych systemów klimatycznych, takich jak huragany, umożliwiając dokładniejsze przewidywanie opadów deszczu i burz”, mówi Gross. Innymi słowy: za kilka lat synoptykom o wiele trudniej będzie się wytłumaczyć z niezgodnej ze stanem faktycznym prognozy 5-dniowej. Będziemy dokładniej wiedzieć, gdzie i kiedy spodziewać się kolejnej wielkiej burzy.
Eksaskalowe przetwarzanie danych może pomóc w rozwiązaniu problemu niedoborów wody słodkiej
Szybsze superkomputery pozwolą badaczom prowadzącym prace nad filtrami odsalającymi i oczyszczającymi wodę zwiększyć ilość wody pitnej na świecie.
Zapewnienie dostępu do wody słodkiej to problem, z którym walczy się na całym świecie. Od uszczuplonych zasobów wodnych w warstwach wodonośnych pod powierzchnią Arabii Saudyjskiej przez wypaloną słońcem ziemię na terenie Brazylii aż po niezwykle żyzne dotychczas tereny Ameryki dotknięte suszą, która objęła swoim zasięgiem Wielkie Równiny i upodobniła je do popękanej, suchej skorupy – problem dostępności wody jest bardzo realny. W opracowanym w 2012 roku amerykańskim raporcie można wyczytać, że niedobór wody słodkiej może wpłynąć nawet na bezpieczeństwo narodowe. Szacuje się, że do roku 2030 zapotrzebowanie na wodę słodką ma przekroczyć o 40% jej globalne zapasy.
Wzrost temperatury, spadek ilości opadów, wzrost zaludnienia, zanieczyszczenie środowiska i ubóstwo – wyzwania, jakie nas czekają, na pierwszy rzut oka wydają się być nie do pokonania. Aleksandr Noy trwa jednak w przekonaniu, że maszyna eksaskalowa pozwoli mu stworzyć błonę z nanorurek, która będzie filtrować wodę i ratować życie ludzi. „Tak wielka moc obliczeniowa pozwoli nam przeprowadzić szybką symulację, zanim jeszcze skierujemy kroki do laboratorium”, mówi. „To bardzo ważne – dzięki temu będziemy mogli poświęcić naszą energię na eksperymenty, które naprawdę mają sens”. Wiele kwestii nadal należy rozwiązać: na wykonanie czekają dokładne pomiary wymagane w celu umożliwienia transportu wody przez nanorurki. Nikt nie wie także, jaki byłby najlepszy materiał na błonę, w której miałyby zostać osadzone nanorurki, ani jak dokładnie miałyby one zostać rozmieszczone. „W wielu badaniach poświęconych modelowaniu nanorurek, którym towarzyszyły symulacje, wystąpiły rozbieżności w wynikach”, przyznaje Ramya Tunuguntla, uczestnicząca w stażu podoktorskim badaczka współpracująca z Noyem. „To problem, z którym musimy sobie poradzić”. Podobnie jak Noy, uważa ona, że superkomputer o potężnych możliwościach przyniesie nowe perspektywy badawcze: „maszyna eksaskalowa pozwoliłaby nam wykonywać dłuższe symulacje, dzięki czemu gromadzilibyśmy więcej danych”.
W 2023 roku w laboratorium Livermore zostanie zainstalowany nowy komputer. Maszyna o nazwie Sierra, której moc obliczeniowa będzie przewyższać możliwości aktualnie wykorzystywanego systemu 4–6 razy, może stanowić ostatni krok przed tym, jak technologia eksaskalowa pozwoli podglądać wszystkie te wspaniałe obrazy w wysokiej rozdzielczości przetwarzane z imponującą prędkością kwintyliona operacji na sekundę. Tak naprawdę do tego czasu maszyna eksaskalowa może pojawić się już w innym miejscu. Jeden z głównych badaczy z Livermore zauważa, że choć pierwsze maszyny eksaskalowe zaczną się pojawiać w Stanach Zjednoczonych w okolicach roku 2020, to najbardziej oczywistym faworytem w tym wyścigu są Chiny, które utrzymują, że będą dysponować prototypem maszyny określanej mianem „super superkomputera” pod koniec tego lub na początku przyszłego roku.
Costas Bekas, dwukrotny laureat Nagrody im. Gordona Bella i ekspert ds. technologii eksaskalowej z laboratorium badawczego IBM w Zurychu, zwraca uwagę, że maszyna eksaskalowa nie wyznacza końca postępu – moc obliczeniowa będzie dalej wzrastać. Przewiduje, że pewnego dnia technologie modelowania komputerowego pozwolą zbadać wszechświat nie tylko na poziomie cząsteczkowym, ale też atomowym.
„Technologie eksaskalowe otwierają nam w końcu drogę do tego, by bez poświęcania ogromnej ilości czasu i energii móc badać niezwykle złożone koncepcje, takie jak sposób działania węglowych nanorurek”, mówi Bekas. „Maszyny eksaskalowe ze swoimi imponującymi wskaźnikami liczby operacji zmiennoprzecinkowych na sekundę nie uratują planety. Liczba problemów jest zbyt wielka. Pomogą one jednak sprawić, że nasza planeta stanie się lepszym miejscem do życia”.
Tymczasem w laboratorium Lawrence Livermore, Aleksandr Noy i Ramya Tunuguntla ładują kolejną błonę z nanorurkami do komórki testowej, naciskają przycisk i gromadzą kolejne dane. Już niebawem – wraz z nadejściem maszyn eksaskalowych – mogą zmienić życie miliardów ludzi.
RENE CHUN to autor zamieszkały w Nowym Jorku. Jego artykuły pojawiały się na łamach wielu gazet, od The New York Times i The Atlantic aż po Wired i Esquire.
Animacje: Justin Poulsen
Ilustracje: Matthew Hollister