Wyciągaj istotne wnioski z analiz, polegaj na zabezpieczeniach sprzętowych i wdrażaj usługi dynamiczne z wykorzystaniem skalowalnych procesorów Intel® Xeon®. Wzmocnij infrastrukturę swojej chmury hybrydowej i zwiększ wydajność najbardziej wymagających aplikacji na potrzeby analiz w pamięci, sztucznej inteligencji, autonomicznej jazdy, przetwarzania dużej skali (HPC) czy transformacji sieci.

Poznaj zalety platformy ›

Procesory Intel® Xeon® Platinum

  • Wymagające, kluczowe procesy sztucznej inteligencji, analiz i chmury hybrydowej
  • Wydajności
  • Skalowalna liczba gniazd: 2, 4, 8 i więcej

Procesory Intel® Xeon® Gold

  • Doskonała obsługa procesów i zaawansowana niezawodność
  • Największa i najszybsza pamięć oraz połączenia wzajemne
  • Skalowalna liczba gniazd: od 2 do 4

Procesory Intel® Xeon® Silver

  • Kluczowa wydajność i energooszczędność
  • Szybsza pamięć
  • Umiarkowanie wymagające przetwarzanie, sieć i przechowywanie

Procesory Intel® Xeon® Bronze

  • Wydajność dla małych firm i do przechowywania danych w przystępnej cenie
  • Sprzętowe funkcje zabezpieczeń
  • Niezawodna skalowalność na dwa gniazda

Większe możliwości dzięki inwestycji w chmurę

Technologia Intel® zapewnia oczekiwaną wysoką wydajność w przeliczeniu na dolara. Kluczowe zadania przetwarzania danych, takie jak bazy danych, systemy obliczeniowe dużej skali (HPC) i sieć WWW, są obsługiwane wydajniej przy niższych całkowitych kosztach utrzymania w chmurach opartych na architekturze Intel®1 2 3 4 5.

2,84 razy wyższa wydajność

Nawet 2,84 razy wyższa wydajność w przeliczeniu na dolara w przypadku obsługi baz danych, w tym HammerDB PostgreSQL* i MongoDB*1.

Więcej informacji

4,15 razy wyższa wydajność

Nawet 4,15 razy wyższa wydajność w przeliczeniu na dolara w przypadku systemów obliczeniowych dużej skali LINPACK* i LAMMPS*2.

Więcej informacji

1,74 razy wyższa wydajność

Wyższa wydajność w przeliczeniu na dolara w przypadku Server-Side Java i 1,74 razy wyższa wydajność w przeliczeniu na dolara w przypadku WordPress PHP/HHVM3.

Więcej informacji

2,25 razy wyższa wydajność

Nawet 2,25 razy wyższa wydajność w przeliczeniu na dolara w przypadku aplikacji wykorzystujących przepustowość pamięci4.

Więcej informacji

Oferta firmy Intel w zakresie przetwarzania danych

Działaj szybciej

Szybsze przesyłanie danych dzięki technologii Intel® Ethernet

Szybsze przenoszenie danych, świadczenie nowych usług i stwarzanie nowych możliwości dzięki technologii Intel® Ethernet.

Więcej informacji o technologii Intel® Ethernet ›

Przechowuj więcej

Innowacja nowej generacji

Optymalizacja, przechowywanie i przenoszenie większych, bardziej złożonych zestawów danych dzięki technologii Intel® Optane™ DC. Ta rewolucyjna innowacja, dostępna w wielu produktach i rozwiązaniach, wypełnia kluczowe luki w zakresie pamięci masowej i hierarchii pamięci, zapewniając trwałą pamięć, duże pule pamięci, błyskawiczne buforowanie i szybką pamięć masową.

Pamięć trwała Intel® Optane™ DC ›

Dyski SSD Intel® Optane™ DC ›

Przetwarzaj wszystko

Wydajność wspomagająca analizę danych

Najlepsze w branży platformy firmy Intel zoptymalizowane pod kątem obciążeń roboczych z wbudowaną akceleracją SI zapewniają niezawodną wydajność, która pozwala przyspieszyć rewolucję związaną z przetwarzaniem danych – począwszy od przetwarzania w wielu chmurach po inteligentne urządzenia brzegowe.

Procesory Intel® Xeon® ›

Intel® FPGA ›

Skalowalna platforma Intel® Xeon®: podstawa innowacji zorientowanych na dane

Przełomowe innowacje w zakresie platformy do transformacji cyfrowej.

Wydajność wspomagająca analizę danych

Skalowalne procesory Intel® Xeon® drugiej generacji zapewniają najlepszą w branży wydajność zoptymalizowaną pod kątem obciążeń roboczych z wbudowaną akceleracją SI, co gwarantuje niezawodną produktywność, która pozwala przyspieszyć rewolucję związaną z przetwarzaniem danych – począwszy od przetwarzania w wielu chmurach po inteligentne urządzenia brzegowe.

Wyświetl testy wydajności platformy

Odporność na awarie dzięki sprzętowo udoskonalonym zabezpieczeniom

Zaprojektowane pod kątem lepszej ochrony danych. Sprzętowe zabezpieczenia firmy Intel pomagają w radzeniu sobie ze złośliwymi programami przy zachowaniu integralności i wydajności obciążenia roboczego. Skuteczność szyfrowania zapewniająca niezawodne dostarczanie danych w stanie spoczynku, podczas użytkowania i w trakcie zapisu.

Intel® Security Libraries for Data Center (Intel® SecL - DC)

Budowanie zaufanej infrastruktury

Elastyczne świadczenie usług

Innowacyjna platforma i wirtualizacja wspomagana sprzętowo w zakresie przetwarzania, sieci i pamięci masowej wspiera nowoczesną pamięć, która umożliwia ekonomiczną, elastyczną i skalowalną obsługę wielu chmur, aby nieustannie zapewniać niesamowite możliwości biznesowe i konsumenckie.

Intel® Infrastructure Management Technologies

Przekształcenie krytycznych obciążeń roboczych obejmujących przetwarzanie danych

Zobacz, jak skalowalne procesory Intel® Xeon® drugiej generacji oraz najlepsza w branży oferta firmy Intel w dziedzinie przetwarzania danych mogą pomóc w modernizacji infrastruktury i przyspieszeniu praktycznego wykorzystania danych w zakresie sztucznej inteligencji, analiz, chmury i systemów obliczeniowych dużej skali.

Więcej informacji

Szybsze osiąganie korzyści dzięki rozwiązaniom Intel® Select

Uprość wdrażanie centrum przetwarzania danych dzięki rygorystycznie przetestowanym i zweryfikowanym rozwiązaniom zoptymalizowanym pod kątem rzeczywistej wydajności. Rozwiązania te przyspieszają wdrażanie infrastruktury opartej na procesorach Intel® Xeon® do obsługi kluczowych zadań.

Więcej informacji

Dowiedz się więcej o platformie firmy Intel opartej na danych

Obejrzyj film i dowiedz się, jak oferta opartych na danych produktów firmy Intel przynosi korzyści od centrum przetwarzania danych po obrzeża sieci.

Informacje o produktach i wydajności

1

Wyniki obliczone przez P2CA firmy Intel w oparciu o ceny AWS (USD/godz., standardowy okres 1 roku, bez opłat wstępnych) z 12 stycznia 2019 r.
Testy wydajności w przeliczeniu na dolara przeprowadzone na platformach AWS* EC2 R5 i R5a (https://aws.amazon.com/ec2/instance-types/), porównanie wydajności na dolara 96 skalowalnych procesorów wirtualnych Intel® Xeon® z wydajnością na dolara procesora AMD EPYC*.

Obciążenie robocze: HammerDB* PostgreSQL*
Wyniki: wydajność platformy AMD EPYC w przeliczeniu na dolara = wartość podstawowa 1; wydajność skalowalnego procesora Intel® Xeon® w przeliczeniu na dolara = 1,85X (im wyższy wynik, tym lepiej).
Baza danych: HammerDB – PostgreSQL (im wyższy wynik, tym lepiej):
Platforma AWS R5.24xlarge (Intel), HammerDB 3.0 PostgreSQL 10.2, pamięć: 768 GB, hiperwizor: KVM; typ pamięci: EBS io1, dysk: 200 GB, całkowita pamięć masowa 200 GB, wersja Docker: 18.06.1-ce, RedHat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6400 MB shared_buffer, 256 magazynów, 96 użytkowników. Pomiaru wyniku „NOPM” 439931 dokonała firma Intel 11–14.12.2018 r.
Platforma AWS R5a.24xlarge (AMD), HammerDB 3.0 PostgreSQL 10.2, pamięć: 768 GB, hiperwizor: KVM; typ pamięci: EBS io1, dysk: 200 GB, całkowita pamięć masowa 200 GB, wersja Dockerr: 18.06.1-ce, RedHat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6400 MB shared_buffer, 256 magazynów, 96 użytkowników. Pomiaru wyniku „NOPM” 212903 dokonała firma Intel 20.12.2018 r.

Obciążenie robocze: MongoDB*
Wyniki: wydajność platformy AMD EPYC w przeliczeniu na dolara = wartość podstawowa 1; wydajność skalowalnego procesora Intel® Xeon® w przeliczeniu na dolara = 2,84X (im wyższy wynik, tym lepiej).
Baza danych: MongoDB (im wyższy wynik, tym lepiej):
Platforma AWS R5.24xlarge (Intel), MongoDB v4.0, dziennik wyłączony, synchronizacja z systemem plików wyłączona, wiredTigeCache = 27 GB, maxPoolSize = 256; 7 wystąpień MongoDB, 14 maszyn wirtualnych klientów, 1 klient YCSB na maszynę wirtualną, 96 wątków na klienta YCSB, RedHat* Enterprise Linux 7.5, jądro 3.10.0-862.el7.x86_64, wynik: 1 229 288 operacji/sek., pomiaru dokonała firma Intel 10.12.2018 r.
Platforma AWS R5a.24xlarge (AMD), MongoDB v4.0, dziennik wyłączony, synchronizacja z systemem plików wyłączona, wiredTigeCache = 27 GB, maxPoolSize = 256; 7 wystąpień MongoDB, 14 maszyn wirtualnych klientów, 1 klient YCSB na maszynę wirtualną, 96 wątków na klienta YCSB, RedHat* Enterprise Linux 7.5, jądro 3.10.0-862.el7.x86_64, wynik: 388596 operacji/sek., pomiaru dokonała firma Intel 10.12.2018 r.
Więcej informacji można znaleźć na stronie www.intel.pl/benchmarks.

2

Wyniki obliczone przez P2CA firmy Intel w oparciu o ceny AWS (USD/godz., standardowy okres 1 roku, bez opłat wstępnych) z 12 stycznia 2019 r.
Testy wydajności w przeliczeniu na dolara przeprowadzone na platformach AWS* EC2 M5 i M5a (https://aws.amazon.com/ec2/instance-types/), porównanie wydajności na dolara 96 skalowalnych procesorów wirtualnych Intel® Xeon® z wydajnością na dolara procesora AMD EPYC*.

Obciążenie robocze: LAMMPS*
Wyniki: wydajność platformy AMD EPYC w przeliczeniu na dolara = wartość podstawowa 1; wydajność skalowalnego procesora Intel® Xeon® w przeliczeniu na dolara = 4,15X (im wyższy wynik, tym lepiej).
HPC Materials Science – LAMMPS (im wyższy wynik, tym lepiej):
Platforma AWS M5.24xlarge (Intel), wersja LAMMPS: 2018-08-22 (kod: https://lammps.sandia.gov/download.html), obciążenie robocze: woda – 512 tys. cząsteczek, Intel ICC 18.0.3.20180410, biblioteka Intel® MPI dla systemu Linux*, wersja 2018, aktualizacja 3, kompilacja 20180411, 48 szeregów MPI, RedHat* Enterprise Linux 7.5, jądro 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, wynik 137,5 kroków timestep/sek., pomiarów dokonała firma Intel 31.10.2018 r.
Platforma AWS M5a.24xlarge (AMD), wersja LAMMPS: 2018-08-22 (kod: https://lammps.sandia.gov/download.html), obciążenie robocze: woda – 512 tys. cząsteczek, Intel ICC 18.0.3.20180410, biblioteka Intel® MPI dla systemu Linux*, wersja 2018, aktualizacja 3, kompilacja 20180411, 48 szeregów MPI, RedHat* Enterprise Linux 7.5, jądro 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, wynik 55,8 kroków timestep/sek., pomiarów dokonała firma Intel 7.11.2018 r.
Zmiany na platformie AMD w celu obsługi technologii AVX2 (AMD obsługuje tylko technologię AVX2, zatem zmiany te były konieczne):
sed -i 's/-xHost/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
sed -i 's/-qopt-zmm-usage=high/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi

Obciążenie robocze: High-performance Linpack*
Wyniki: wydajność platformy AMD EPYC w przeliczeniu na dolara = wartość podstawowa 1; wydajność skalowalnego procesora Intel® Xeon® w przeliczeniu na dolara = 4,15X (im wyższy wynik, tym lepiej).
HPC Linpack (im wyższy wynik, tym lepiej):
Platforma AWS M5.24xlarge (Intel), HP Linpack, wersja 2.2 (https://software.intel.com/pl-pl/articles/intel-mkl-benchmarks-suite katalog: benchmarks_2018.3.222/linux/mkl/benchmarks/mp_linpack/bin_intel/intel64), Intel ICC 18.0.3.20180410 z AVX512, biblioteka Intel® MPI dla systemu Linux*, wersja 2018, aktualizacja 3, kompilacja 20180411, RedHat* Enterprise Linux 7.5, jądro 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=24, 2 procesy MPI, wynik: 3152 GB/s, pomiarów dokonała firma Intel 31.10.2018 r.
Platforma AWS M5a.24xlarge (AMD), HP Linpack wersja 2.2, (źródło HPL: http://www.netlib.org/benchmark/hpl/hpl-2.2.tar.gz; wersja 2.2; icc (ICC) 18.0.2 20180210 używane do kompilowania i łączenia z biblioteką BLIS, wersja 0.4.0; https://github.com/flame/blis; flagi Addt’l Compiler: -O3 -funroll-loops -W -Wall –qopenmp; make arch=zen OMP_NUM_THREADS=8; 6 procesów MPI.), Intel ICC 18.0.3.20180410 z AVX2, biblioteka Intel® MPI dla systemu Linux*, wersja 2018, aktualizacja 3, kompilacja 20180411, RedHat* Enterprise Linux 7.5, jądro 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=8, 6 procesów MPI, wynik: 677,7 GB/s, pomiarów dokonała firma Intel 7.11.2018 r.

3

Wyniki obliczone przez P2CA firmy Intel w oparciu o ceny AWS (USD/godz., standardowy okres 1 roku, bez opłat wstępnych) z 12 stycznia 2019 r.
Testy wydajności w przeliczeniu na dolara przeprowadzone na platformach AWS* EC2 M5 i M5a (https://aws.amazon.com/ec2/instance-types/), porównanie wydajności na dolara 96 skalowalnych procesorów wirtualnych Intel® Xeon® z wydajnością na dolara procesora AMD EPYC*.

Obciążenie robocze: Server Side Java* 1 JVM
Wyniki: wydajność platformy AMD EPYC w przeliczeniu na dolara = wartość podstawowa 1; wydajność skalowalnego procesora Intel® Xeon® w przeliczeniu na dolara = 1,74X (im wyższy wynik, tym lepiej).
Server Side Java (im wyższy wynik, tym lepiej):
Platforma AWS M5.24xlarge (Intel), test porównawczy serwera Java, brak powiązań NUMA, 2JVM, OpenJDK 10.0.1, RedHat* Enterprise Linux 7.5, jądro 3.10.0-862.el7.x86_64, wynik: 101767 transakcji/sek., pomiarów dokonała firma Intel 16.11.2018 r.
Platforma AWS M5a.24xlarge (AMD), test porównawczy serwera Java, brak powiązań NUMA, 2JVM, OpenJDK 10.0.1, RedHat* Enterprise Linux 7.5, jądro 3.10.0-862.el7.x86_64, wynik: 52068 transakcji/sek., pomiarów dokonała firma Intel 16.11.2018 r.

Obciążenie robocze: WordPress* PHP/HVM*
Wyniki: wydajność platformy AMD EPYC w przeliczeniu na dolara = wartość podstawowa 1; wydajność skalowalnego procesora Intel® Xeon® w przeliczeniu na dolara = 1,75X (im wyższy wynik, tym lepiej).
Web Front End Wordpress (im wyższy wynik, tym lepiej):
Platforma AWS M5.24xlarge (Intel), oss-performance/wordpress, wersja 4.2.0; wersja 10.2.19-MariaDB-1:10.2.19+maria~bionic; wersja obciążenia roboczego: u'4.2.0; wątki klienta: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, jądro systemu Linux 4.15.0-1025-aws, wynik: 3626,11 transakcji/sek., pomiarów dokonała firma Intel 16.11.2018 r.
Platforma AWS M5a.24xlarge (AMD), oss-performance/wordpress, wersja 4.2.0; wersja 10.2.19-MariaDB-1:10.2.19+maria~bionic; wersja obciążenia roboczego: u'4.2.0; wątki klienta: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, jądro systemu Linux 4.15.0-1025-aws, wynik: 1838,48 transakcji/sek., pomiarów dokonała firma Intel 16.11.2018 r.
Więcej informacji można znaleźć na stronie www.intel.pl/benchmarks.

4

Instancja AWS M5.4xlarge (Intel), McCalpin Stream (wersja OMP), (źródło: https://www.cs.virginia.edu/stream/FTP/Code/stream.c); Intel ICC 18.0.3 20180410 z AVX512, -qopt-zmm-usage=high, -DSTREAM_ARRAY_SIZE=134217728 -DNTIMES=100 -DOFFSET=0 –qopenmp, -qoptstreaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, jądro 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY: proclist=[0-7:1], granularity=thread, explicit, wynik 81216,7 MB/s, pomiar firmy Intel 6.12.2018 r.
Instancja AWS M5a.4xlarge (AMD), McCalpin Stream (wersja OMP), (źródło: https://www.cs.virginia.edu/stream/FTP/Code/stream.c); Intel ICC 18.0.3 20180410 z AVX2, -DSTREAM_ARRAY_SIZE=134217728, -DNTIMES=100 -DOFFSET=0 -qopenmp -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, jądro 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY: proclist=[0-7:1], granularity=thread,explicit, wynik 32154,4 MB/s, pomiar firmy Intel 6.12.2018 r.
Wyłączenie odpowiedzialności OpenFOAM: oferta ta nie została zatwierdzona ani nie jest promowana przez firmę OpenCFD Limited, która jest producentem i dystrybutorem oprogramowania OpenFOAM na stronie www.openfoam.com oraz właścicielem znaku towarowego OpenFOAM* i OpenCFD*.
Cena AWS z 12.01.2019 roku, standardowa cena rocznej zarezerwowanej instancji (https://aws.amazon.com/ec2/pricing/reserved-instances/pricing/) Cena korzystania z systemu Linux/Unix na żądanie za godzinę (https://aws.amazon.com/ec2/pricing/on-demand/).

5

Nawet 30-krotny wzrost przepustowości wnioskowania w przypadku procesora Intel® Xeon® Platinum 9282 z technologią Intel® Deep Learning Boost (Intel® DL Boost): testy przeprowadzone przez firmę Intel 26 lutego 2019 roku. Platforma: Dragon Rock, 2-gniazdowy procesor Intel® Xeon® Platinum 9282 (56 rdzeni na gniazdo), HT WŁ., technologia Turbo WŁ., pamięć całkowita: 768 GB (24 gniazda / 32 GB / 2933 MHz), system BIOS: SE5C620.86B.0D.01.0241.112020180249, CentOS 7, jądro 3.10.0-957.5.1.el7.x86_64, Deep Learning Framework: optymalizacja Intel® dla architektury Caffe*, wersja: https://github.com/intel/caffe d554cbf1, ICC 2019.2.187, wersja MKL DNN: v0.17 (commit hash: 830a10059a018cd2634d94195140cf2d8790a75a), model: https://github.com/intel/caffe/blob/master/models/intel_optimized_models/int8/resnet50_int8_full_conv.prototxt, BS=64, brak warstwy danych syntheticData: 3 × 224 × 224, 56 instancji / 2 gniazda, typ danych: INT8 w porównaniu do testów firmy Intel z 11 lipca 2017 r.: 2-gniazdowy procesor Intel® Xeon® Platinum 8180, 2,50 GHz (28 rdzeni), HT wył., technologia Turbo wył., mechanizm zarządzania skalowaniem ustawiony na „performance” w sterowniku intel_pstate, 384 GB pamięci RAM DDR4-2666 z funkcją ECC. CentOS Linux*, wersja 7.3.1611 (Core), jądro systemu Linux* 3.10.0-514.10.2.el7.x86_64. SSD: Seria dysków Intel® SSD Data Center S3700 (800 GB, 2,5 cala SATA 6 Gb/s, 25 nm, MLC). Wydajność zmierzono przy ustawieniach: zmienne środowiskowe: KMP_AFFINITY='granularity=fine, compact‘, OMP_NUM_THREADS=56, ustawienie częstotliwości procesora: cpupower frequency-set -d 2.5G -u 3.8G -g performance. Caffe: (http://github.com/intel/caffe/), revision f96b759f71b2281835f690af267158b82b150b5c. Wyciąganie wniosków zmierzono poleceniem „caffe time --forward_only”, szkolenie zmierzono poleceniem „caffe time”. W przypadku topologii „ConvNet” użyto syntetycznego zbioru danych. W przypadku pozostałych topologii dane przechowywano w lokalnej pamięci masowej i buforowano w pamięci operacyjnej przed szkoleniem. Dane techniczne topologii: https://github.com/intel/caffe/tree/master/models/intel_optimized_models(ResNet-50). Kompilator Intel® C++, wer. 17.0.2 20170213, małe biblioteki Intel® Math Kernel Library (Intel® MKL), wersja 2018.0.20170425. Caffe uruchomiono z parametrem „numactl -l”.