Superkomputery i obliczenia eksaskalowe — omówienie

Uwolnij pełen potencjał danych w administracji państwowej, środowiskach akademickich i przedsiębiorstwach.

Wnioski:

  • Superkomputery ułatwiają rozwiązywanie złożonych problemów z dużą ilością danych w środowiskach akademickich, przedsiębiorstwach i administracji państwowej, aby czynić nasze życie lepszym.

  • Począwszy od 2022 r. Argonne National Lab stanie się domem komputera eksaskalowego Aurora, jednego z pierwszych w Stanach Zjednoczonych superkomputera eksaskalowego, zdolnego do wykonywania 10¹⁸ operacji na sekundę.

  • Firma Intel dostarczy nową technologię, która umożliwi tej trójfilarowej maszynie jednoczesne zarządzanie modelowaniem i symulacją, AI i uczeniem maszynowym oraz dużymi zbiorami danych i analizą.

BUILT IN - ARTICLE INTRO SECOND COMPONENT

Superkomputery umożliwiają administracji państwowej, środowiskom akademickim i przedsiębiorstwom stawianie czoła zróżnicowanym, złożonym wyzwaniom, które wymagają ogromnych zestawów danych i olbrzymich obliczeń. Rozwiązania technologiczne muszą być elastyczne i zoptymalizowane dla różnych obciążeń roboczych oraz umożliwiać badaczom przekształcanie danych w niezwykłe spostrzeżenia w możliwie najprostszy sposób. Oferta Intel® High Performance Computing (HPC) zapewnia wyniki w różnorodnych rzeczywistych obciążeniach roboczych, od modelowania i symulacji do wizualizacji i głębokiego uczenia, zarówno lokalnie, jak i w chmurze.

Superkomputery i obliczenia eksaskalowe — omówienie

Superkomputery ułatwiają pokonywanie problemów w nauce, inżynierii i biznesie, dzięki czemu nasz świat staje się lepszy — od spersonalizowanego leczenia raka do tworzenia prognoz zmian klimatycznych, aż po zrozumienie chemii wielkiego wybuchu. Rozwiązywanie tak złożonych problemów z dużą ilością danych wymaga olbrzymiej mocy obliczeniowej. Wraz ze wzrostem ilości danych oraz potrzebą szybkiego ich przetwarzania, HPC rozwinęło się z superkomputerów do komputerów eksaskalowych, takich jak Aurora Exascale Computer, który zostanie uruchomiony w 2022 r. w Argonne National Lab. Laboratoria państwowe, takie jak Argonne, Oak Ridge, oraz Lawrence Livermore udostępniają obiekty HPC branży przemysłowej i środowiskom akademickim, co zapewnia ogromną korzyść intelektualną i ekonomiczną z inwestycji publicznych.

Czym są superkomputery?

Superkomputery to rodzaj HPC wykorzystujący ogromne bazy danych, obliczenia o dużej prędkości lub oba te zasoby. Zespół analityków Hyperion Research klasyfikuje superkomputery jako systemy, których cena wynosi ponad 500 000 USD. Superkomputery zawierają setki do tysięcy węzłów, które, podobnie jak w komputerowych stacjach roboczych, pracują równolegle. Każdy węzeł jest wyposażony w wiele procesorów lub rdzeni, które wykonują instrukcje. Aby upewnić się, że ich działania są zsynchronizowane, komputery komunikują się za pomocą sieci. Obecnie najszybsze superkomputery rozwiązują problemy z prędkością mierzoną w petaskali — 1015 obliczeń na sekundę (lub precyzyjniej, operacji zmiennoprzecinkowych na sekundę) — lecz zmieni się to wraz z wprowadzeniem komputerów eksaskalowych, które są tysiąc razy szybsze. Aby dowiedzieć się więcej o najszybszych superkomputerach na świecie, odwiedź stronę TOP500.

Dotychczas superkomputery rozwiązywały problemy z wykorzystaniem modelowania i symulacji. Przykłady obejmują badanie zderzających się galaktyk, subatomowych właściwości atomów, czy nawet projektowanie butelki szamponu, która nie rozbije się po upuszczeniu. Dzięki wykorzystaniu superkomputerów producenci z branży motoryzacyjnej skrócili cykl projektowy samochodu z pięciu do dwóch lat, oszczędzając miliony dolarów i lata pracy poprzez zmniejszenie liczby niezbędnych symulacji w tunelu aerodynamicznym. Jednakże superkomputery wykorzystywane są także w poszukiwaniu odpowiedzi na nowe pytania i odkrywaniu nowych problemów, które wymagają rozwiązania.

Co to są obliczenia eksaskalowe?

Komputery eksaskalowe są zdolne do wykonywania obliczeń z prędkością co najmniej 1018 operacji zmiennoprzecinkowych na sekundę, co odpowiada jednemu eksaflopsowi. Aby zobrazować szybkość komputera eksaskalowego Aurory, wyobraźmy sobie, że każdy z około 8 miliardów ludzi na Ziemi używa kalkulatora do mnożenia dwóch liczb, na przykład 1056,26 x 784,98, co 10 sekund. W tym tempie zakończenie obliczeń zajęłoby nam 40 lat, podczas gdy komputer eksaskalowy wykonuje je w ciągu sekundy. To miliard miliardów operacji na sekundę lub kwintylion, dla osób przyzwyczajonych do myślenia wieloma zerami.

Trendy w superkomputerach

Jednym ze sposobów na generowanie nowych odkryć przy użyciu superkomputerów jest przetwarzanie i analiza coraz większych i cenniejszych zestawów danych. Wynika z tego, że obecnie najważniejsze trendy w obliczeniach z wykorzystaniem superkomputerów dotyczą samego rozmiaru zestawów danych z połączeniem technik sztucznej inteligencji, analizy dużych zbiorów danych oraz przetwarzania brzegowego.

Sztuczna inteligencja. Techniki AI umożliwiają superkomputerom dokonywanie wnioskowań poprzez analizę coraz większych zestawów danych. Jednocześnie AI potrzebuje mocy obliczeniowej do analizy wszystkich tych danych, a użycie eksaskali umożliwia znacznie szybsze ich przetwarzanie. Naukowcy będą mogli zadawać pytania i otrzymać odpowiedzi, które nigdy wcześniej nie były możliwe.

Analiza dużych zbiorów danych. Duże zbiory danych stały się czynnikiem napędzającym nowe i rozszerzone instalacje HPC. Obecnie większość obciążeń roboczych dużych zbiorów danych HPC opiera się na tradycyjnej symulacji i modelowaniu. Jednakże w przyszłości siły techniczne i biznesowe kształtujące duże zbiory danych doprowadzą do powstania nowych form konfiguracji HPC, aby czerpać informacje z niewyobrażalnie dużych zbiorów danych.

Systemy przetwarzania brzegowego. Systemy przetwarzania brzegowego stały się bogatym źródłem nowych zestawów danych. Te zestawy danych pochodzą od pojedynczych instrumentów przechwytywania ogromnych ilości danych oraz od miliardów połączonych urządzeń rozmieszczonych na całym świecie. Na przykład teleskop lidarowy w Andach i radioteleskop Square Kilometre Array działający w Australii Zachodniej i Południowej Afryce generują ogromne ilości danych. Tak samo inteligentne miasta, które korzystają z niezliczonych czujników i kamer do zarządzania ruchem i zapewnienia bezpieczeństwa publicznego. Wszystkie te dane stwarzają problemy, których rozwiązywanie wymaga HPC.

Wyzwania związane z superkomputerami

Wyzwania związane z superkomputerami, zwłaszcza w tworzeniu komputera eksaskalowego takiego jak Aurora, dotyczą trzech głównych obszarów: mocy, skalowania i heterogeniczności.

Moc. Najszybszy komputer petaskalowy na świecie wymaga 28,3 megawata do działania1. Choć żadna z organizacji obecnie budujących komputer eksaskalowy nie przedstawiła szczegółowych informacji, wiadomo, że komputery eksaskalowe będą potrzebowały do funkcjonowania od 30 do 50 megawatów mocy. Zmieniając perspektywę, 50 megawatów wystarczyłoby do zasilania budynków mieszkalnych w mieście o populacji od 50 000 do 70 000 ludzi. W ciągu roku zużycie jednego megawata energii elektrycznej kosztuje około miliona dolarów, więc zmniejszenie poboru mocy przez superkomputery pozostaje kluczowym celem. Procesory oparte na innowacyjnych mikroarchitekturach umożliwiają skalowalną wydajność i energooszczędność.

Skalowanie. W ciągu ostatnich 30 lat superkomputery przeszły od jednego procesora z jednym wątkiem do wielu rdzeni i wielowątkowości z tysiącami węzłów pracujących razem. Obecnie programiści piszący aplikację na potrzeby przetwarzania eksaskalowego muszą rozłożyć problem na wiele elementów, które w pełni wykorzystają równoległą naturę komputera i zapewnią synchronizację wątków.

Heterogeniczność. Kiedyś programiści pisali kod tylko dla jednego komponentu komputera: procesora rdzeniowego. Obsługa HPC i obciążenia robocze obecnie wymagają tysięcy węzłów obliczeniowych z 10-krotnie większą liczbą rdzeni przetwarzających. Zróżnicowane architektury łączą procesory i procesory graficzne — a teraz także układy FPGA i inne rodzaje akceleratorów — pozostawiając programistom decyzję co do doboru najlepszej konfiguracji do rodzaju obliczeń, które należy wykonać. Programiści nie piszą kodów tylko raz — każdy typ procesora wymaga własnego kodu, który musi współpracować z innymi. W miarę jak algorytmy i oprogramowanie stają się coraz bardziej złożone, następuje integracja zastrzeżonych modeli programowania, co prowadzi do uzależnienia od dostawcy. Międzybranżowy, ujednolicony model programowania oneAPI oparty na otwartych standardach jest inicjatywą branżową mającą na celu dostarczanie typowych doświadczeń programistycznych w celu zwiększenia wydajności aplikacji, zwiększenia produktywności i większej innowacyjności.

Superkomputer Aurora

Firma Intel, we współpracy z Argonne National Laboratory, tworzy jeden z pierwszych superkomputerów eksaskalowych w Stanach Zjednoczonych. Superkomputer Aurora umożliwi przełomowe działania naukowe, innowacje i odkrycia, aby sprostać niektórym z największych wyzwań na świecie.

Aurora to maszyna trójfilarowa, co oznacza, że jest ona zaprojektowana tak, aby umożliwić skuteczną współpracę modelowania i symulacji, AI i uczenia maszynowego oraz dużych zbiorów danych i analiz. Będzie to wymagać ogromnej ilości pamięci masowej w wysoce wydajnej infrastrukturze. Aurora wykorzysta również wysokiej wydajności procesor ogólnego przeznaczenia, Ponte Vecchio, oparty na grafice Xe, zoptymalizowany pod kątem obciążeń roboczych HPC i AI.

„Aurora skoncentruje się nie tylko na standardowym modelowaniu i symulacji, które dawniej wykonywały superkomputery, lecz będzie także świetną maszyną do rozwiązywania problemów AI i przeprowadzania analiz dużych zbiorów danych”.

— Dr Robert Wisniewski, główny architekt HPC i kierownik techniczny projektu Aurora i PI

Argonne prowadzi program Early Science Program (ESP), który zapewnia zespołom naukowym czas i zasoby obliczeniowe na etapie przedprodukcyjnym, dzięki czemu będą mogli uruchamiać kluczowe aplikacje po przejściu na eksaskalową maszynę Aurora. ESP obejmuje obecnie zarówno programy modelowania i symulacji, jaki i programy AI w ramach współpracy w centrum doskonałości.

Ponadto Departament Energii (DOE) sponsoruje projekt Exascale Computing Project (ECP), aby przyspieszyć uruchomienie wydajnego ekosystemu obliczeń eksaskalowych, który obejmuje aplikacje, oprogramowanie, sprzęt, architekturę i rozwój kadry. ECP ma na celu stawienie czoła krytycznym wyzwaniom w 24 obszarach zastosowań o kluczowym znaczeniu dla DOE, w tym podstawowych nauk, energii stosowanej i bezpieczeństwa narodowego.

Przypadki użycia eksaskali

Obliczenia eksaskalowe wykorzystywane są w szeregu problemów naukowych, inżynieryjnych i korporacyjnych. Przykładowo, HPC może ułatwić rozwiązanie problemu głównych cech COVID-19 i połączenie danych ze wszystkich trzech źródeł do przeprowadzenia modelowania i symulacji.

Analiza informacji pochodzących z testów. Codziennie miliony ludzi na całym świecie przechodzi testy pod kątem COVID-19. Analizując te dane brzegowe, naukowcy lepiej rozumieją wektory choroby, takie jak przenoszenie wirusa w powietrzu i sposoby jego spowolnienia.

Zrozumienie przyczyn klinicznych choroby. Przetworzenie ogromnej ilości złożonych danych o pacjentach dostarczanych przez szpitale, odpowiednio zanonimizowanych z uwagi na wymogi zachowania poufności, ułatwia zidentyfikowanie przyczyn klinicznych oraz opracowanie nowych wniosków w zakresie diagnozowania i leczenia.

Przykładowo superkomputery wykorzystujące technologię Intel® analizują strukturę atomową wirusa COVID-19, badając drogi rozprzestrzeniania i powstrzymywania wirusa poprzez „bliźniaka cyfrowego” populacji USA oraz identyfikują cele nowych terapii.

Przeczytaj o tym

Opracowywanie leków. Firmy farmaceutyczne pracują nad opracowaniem nowych metod leczenia, w tym szczepień. Symulacja replikacji wirusa COVID-19 i jego łączenia się z komórkami oraz ocena skuteczności wstrzykiwania różnych środków chemicznych i przeciwwirusowych wymagają ogromnej mocy obliczeniowej.

Na przykład ośrodek Texas Advanced Computing Center współpracuje z badaczami z laboratorium Amaro Lab na Uniwersytecie Kalifornijskim w San Diego, aby tworzyć modele wirusa COVID-19 i innych systemów w celu lepszego przygotowania i opracowania terapii.

Obejrzyj film

Oto kilka innych przypadków użycia, które pokazują, jak naukowcy stosują HPC do poprawy naszego życia.

Przyszłość superkomputerów

Przyszłość superkomputerów obejmuje różne rodzaje przetwarzania danych oraz skupia się na zastosowaniu AI, aby wykorzystać potencjał zwiększającej się ilości zebranych danych.

Nowe rodzaje przetwarzania

Chociaż superkomputery początkowo wykorzystywały jedynie procesory, obecnie korzystają również z wydajnych procesorów graficznych, układów FPGA i innych akceleratorów, które wprowadzają funkcje służące do szybszego wykonywania operacji lub zapewnienia większej energooszczędności. Procesory graficzne przyspieszają procesory w zastosowaniach naukowych i inżynieryjnych poprzez obsługę niektórych zadań wymagających dużej mocy obliczeniowej i czasu. Układy FPGA można skonfigurować w zależności od potrzeb różnorodnych aplikacji, aby znacząco zwiększyć wydajność. Natomiast nowy procesor szkolenia AI Habana Labs i procesor wnioskowania AI mogą przyspieszyć zmieniające się obciążenia robocze AI. A to dopiero początek. W miarę jak naukowcy rozkładają aplikacje na części, inne technologie umożliwią dalsze postępy.

Informatyka neuromorficzna oferuje wyjątkowe właściwości obliczeniowe w przeliczeniu na zużywaną moc. Wykorzystuje ona sprzęt, aby naśladować sposób organizowania, komunikowania i uczenia się neuronów w mózgu. Informatyka neuromorficzna ułatwi AI radzenie sobie z nowymi i abstrakcyjnymi sytuacjami w ramach automatyzacji zwykłych działań ludzkich.

Informatyka kwantowa ma niesamowity potencjał w zakresie skracania czasu potrzebnego do rozwiązywania problemów. Przeobraża ona binarne kodowanie danych w trybie on-off, które jest fundamentem współczesnych obliczeń, i zastępuje bity kubitami, które mogą jednocześnie manifestować wiele stanów. Dzięki temu przetwarzanie danych może wznieść się na niespotykane wcześniej poziomy równoległości.

Oprogramowanie

W miarę jak naukowcy włączają AI w aplikacje HPC, pozyskują więcej informacji i pomysłów na temat możliwości jej wykorzystania. AI umożliwi modelowanie i symulację na nową skalę, aby rozwiązywać niezwykle złożone problemy, takie jak modelowanie klimatu. AI może również identyfikować nieprawidłowości w ogromnych ilościach danych i wskazywać naukowcom kolejne tematy do przebadania. Zaawansowane biblioteki i narzędzia, takie jak te z zestawów narzędzi Intel® oneAPI upraszczają programowanie i umożliwiają programistom poprawę wydajności i innowacyjności.

Niezrównana oferta i ekosystem umożliwiają przełomowe badania i odkrycia

Superkomputery, a teraz także komputery eksaskalowe, dostarczają badaczom potężnych narzędzi do dokonywania wcześniej niewyobrażalnych przełomów, aby napędzać postęp społeczny. Osiąganie niesamowitej wydajności w różnorodnych rzeczywistych obciążeniach roboczych HPC i AI w zakresie produkcji, nauk przyrodniczych, energii i usług finansowych wymaga partnera i technologii, która dostosowuje się do zmieniających się oczekiwań. Ten czynnik oraz wsparcie ze strony szerokiego ekosystemu superkomputerów pozwoli uwolnić pełen potencjał danych w administracji państwowej, środowiskach akademickich i przedsiębiorstwach.

Technologia Intel® Supercomputing Technology

Firma Intel oferuje narzędzia i technologię umożliwiającą rozwiązywanie problemów w intensywnej nauce, inżynierii i biznesie, które wymagają obliczeń o dużej prędkości lub dużych baz danych.

Technologia Intel® HPC
Skalowalne procesory Intel® Xeon® trzeciej generacji Skalowalne procesory Intel® Xeon® trzeciej generacji zapewnią większą wydajność w przypadku obciążeń roboczych HPC dzięki wyższej przepustowości pamięci, nowej architekturze rdzenia, ulepszonym rdzeniom procesorów i szybszym interfejsom I/O.
Procesor Intel® Xeon® Platinum 9200 Procesory Intel® Xeon® Platinum 9200 zapewniają najwyższą dostępną przepustowość pamięci DDR z 12 kanałami DDR4 na procesor.2
Układy Intel® FPGA Układy Intel® FPGA umożliwiają architektom systemów zmieszczenie się w ograniczeniach wydajności, mocy i ceny, przy jednoczesnym osiągnięciu krótkiego czasu wprowadzenia na rynek. Dzieląc się wspólnym adresem IP z najnowszymi strukturalnymi układami Intel® ASIC, zapewniają korzyści jako punkt wyjścia dla projektów, które mogą przejść do ustrukturyzowanego układu ASIC.
Urządzenia Intel® eASIC™ Te ustrukturyzowane układy ASIC pozwalają architektom systemów obniżyć jednorazowe koszty inżynieryjne i szybciej wejść na rynek. 
Intel® AVX-512 Te rozszerzenia zapewniają wbudowane przyspieszenie w zakresie najbardziej wymagających zadań obliczeniowych z ultraszerokimi, 512-bitowymi możliwościami działań wektorowych, dwa razy większymi niż tradycyjne rozwiązanie AVX2.
Pamięć trwała Intel® Optane™, dyski SSD Intel® Optane™, technologia DAOS Intel® Optane™ Technology Pamięć trwała Intel® Optane™ nawet trzykrotnie zwiększa maksymalną pojemność na węzeł, zapewniając bardziej skalowalną pamięć bliżej procesora. Dyski SSD Intel® Optane™ przyspieszają dostęp do kluczowych danych i ułatwiają ekonomiczne skalowanie pamięci masowej. Podstawą stosu pamięci masowej eksaskali Intel® — rozproszonej asynchronicznej obiektowej pamięci masowej (Distributed Asynchronous Object Storage, DAOS) — jest magazyn obiektów typu open source zdefiniowany programowo i skalowalny wszerz, który zapewnia dużą przepustowość, małe opóźnienia i kontenery pamięci masowej o dużej liczbie operacji I/O na sekundę3 dla przepływów pracy, które łączą symulację, analizę danych i AI.
Zoptymalizowany stos oprogramowania dla HPC Zestaw Intel® Parallel Studio Suite, Intel® VTune™, kompilatory Fortran i C++, biblioteka Intel® Math Kernel Library oraz Intel® VTune™ Amplifier umożliwiają optymalizację programowania i organizację wysoce równoległych obciążeń roboczych w systemach wielordzeniowych i wielowęzłowych, znacznie upraszczając wdrażanie HPC.
Intel® oneAPI Toolkits Zestawy narzędzi Intel® oneAPI Toolkits zapewniają ujednolicony model programowania, stworzony w celu uproszczenia rozwoju w różnych architekturach, w tym procesorach, procesorach graficznych i produktach FPGA.
Rozwiązania Intel® Select Te wstępnie zdefiniowane rozwiązania, zoptymalizowane pod kątem obciążeń roboczych, zostały stworzone tak, aby zminimalizować wyzwania związane z oceną i wdrażaniem infrastruktury. Rozwiązania są sprawdzone przez producentów OEM i ODM, certyfikowane przez dostawców usług (ISV) i zweryfikowane przez firmę Intel. Obejmują one rozwiązania Intel® Select Solutions for Simulation and Modeling oraz Intel® Select Solutions for Genomics Analytics (V2).

Zastrzeżenia i uwagi prawne

Wydajność różni się w zależności od użytkowania, konfiguracji i innych czynników. Więcej informacji na www.intel.com/PerformanceIndex.

Wyniki oparte są na testach z dni wskazanych w konfiguracjach i mogą nie uwzględniać wszystkich publicznie dostępnych aktualizacji. Szczegóły dotyczące konfiguracji można znaleźć w materiałach dodatkowych. Żaden produkt ani komponent nie jest całkowicie bezpieczny.

Technologie Intel® mogą wymagać obsługującego je sprzętu, oprogramowania lub aktywacji usług.

Informacje o produktach i wydajności

1

Projekt TOP500, lista Green500: https://www.top500.org/lists/green500/list/2020/06/.

2

Informacje o obciążeniach i konfiguracjach można znaleźć na stronie www.Intel.com/PerformanceIndex (skalowalne procesory Intel® Xeon® drugiej generacji — stwierdzenie nr 31. Testy przeprowadzono 8 października 2019 roku).

3

„DAOS: Rewolucjonizowanie wysokowydajnej pamięci masowej za pomocą technologii Intel® Optane™”. Krótki opis rozwiązań firmy Intel można znaleźć na stronie https://www.intel.pl/content/www/pl/pl/high-performance-computing/daos-high-performance-storage-brief.html?wapkw=Distributed%20Asynchronous%20Object%20Storage%20(DAOS).