Zmniejsz ryzyko związane z SI i obniż bariery przy wykorzystaniu istniejącej infrastruktury.
Odpowiedź na pytanie, na ile uczenie maszynowe i uczenie głębokie może pomóc Ci w lepszym wykorzystaniu danych, zależy od danego zastosowania. Zależy również od apetytu Twojej organizacji na eksperymentowanie.
Jednakże, choć różne organizacje znajdują się na różnych etapach wdrażania sztucznej inteligencji (SI), ryzyko związane z eksperymentowaniem będzie niskie, jeśli na początek wykorzystasz istniejącą infrastrukturę. Aby pomóc organizacjom w tym zakresie, firma Intel zoptymalizowała wiele popularnych ram uczenia głębokiego, takich jak TensorFlow*, Theano* i wiele innych, by działały na architekturze Intel®.
Co więcej, firma Intel opracowała BigDL, aby wykorzystać uczenie głębokie w dużych zbiorach danych. Jest to rozproszona biblioteka uczenia głębokiego dla Apache Spark* (DL Library for Apache Spark*), która może działać bezpośrednio na istniejących klastrach Spark lub Apache Hadoop* i umożliwia zespołom programistycznym pisanie aplikacji do uczenia głębokiego jako programów w języku Scala lub Python.
BigDL wykorzystuje bibliotekę Intel® Math Kernel Library (Intel® MKL) i programowanie wielowątkowe w każdym zadaniu Spark. Pozwala to na osiągnięcie wysokiej wydajności, zwiększając efektywność uczenia głębokiego w porównaniu z gotowymi bibliotekami open source Torch* lub TensorFlow na jednowęzłowym procesorze Intel® Xeon®.
Ryzyko eksperymentowania z SI jest mniejsze, ponieważ organizacje mogą na początek wykorzystać istniejącą infrastrukturę centrów przetwarzania danych.
Trzy zastosowania SI, które mogą mieć wpływ na niemal każdą branżę
Firma Intel dostrzega trzy kluczowe obszary, w których przedsiębiorstwa eksperymentują z SI w oparciu o istniejącą infrastrukturę centrów przetwarzania danych: rozpoznawanie obrazów, przetwarzanie języka naturalnego (NLP) oraz konserwacja prewencyjna. Kiedy nadejdzie czas na zwiększenie skali, wykorzystanie ram open source w istniejącej architekturze centrów przetwarzania danych może realnie przyczynić się do uproszczenia wdrożenia SI w całym przedsiębiorstwie.
1) Rozpoznawanie obrazów
Aplikacje do rozpoznawania obrazów są obecnie stosowane w kontroli jakości (identyfikacja wad produktów), bezpieczeństwie (skanowanie twarzy i samochodowych tablic rejestracyjnych) oraz opiece zdrowotnej (diagnostyka nowotworów).
Częstym wyzwaniem dla firm jest posiadanie wystarczającej ilości danych, aby móc wyszkolić algorytmy klasyfikacji i rozpoznawania obrazów, a wstępne przetwarzanie obrazów może odpowiadać za ponad połowę całkowitego czasu potrzebnego do stworzenia odpowiedniego rozwiązania. Procesory Intel® Xeon® mogą obsługiwać aplikacje do wspomagania danych danych („data augmentation”), aby pomóc przezwyciężyć ten problem. Aplikacje te obracają i skalują obrazy oraz dostosowują ich kolory, dzięki czemu do skutecznego wyszkolenia algorytmów rozpoznawania obrazów wymagana jest mniejsza liczba obrazów (w zależności od zastosowania).
Procesory doskonale radzą sobie z obciążeniami związanymi ze wspomaganiem danych dzięki wydajności energetycznej i wysokiej przepustowości pamięci — do 100 Gb/s. Dotyczy to zwłaszcza rodziny procesorów Intel® Xeon® Scalable, które zostały wzbogacone o zestaw instrukcji Intel® Advanced Vector Extensions 512 (Intel® AVX-512).
Procesory doskonale radzą sobie z obciążeniami związanymi ze wspomaganiem danych dzięki wydajności energetycznej i wysokiej przepustowości pamięci — do 100 Gb/s.
2) Przetwarzanie języka naturalnego
Aktywowani głosowo asystenci wirtualni nie tylko dokładnie przetwarzają zapytania, ale także rozumieją ich charakter, co pozwala im na ciągłe doskonalenie się. Mamy również do czynienia z rewolucją w dziedzinie obsługi i satysfakcji klientów za sprawą systemów, które mogą przetwarzać nagrania z centrów obsługi telefonicznej lub formularze odręczne, co oznacza bogate źródło niedostępnych wcześniej wniosków,
NLP wykorzystuje technikę zwaną siecią rekurencyjną (RNN) i model Long Short-Term Memory (LSTM), a podczas przetwarzania pętli i zależności charakteryzujących te operacje zestaw instrukcji Intel® Advanced Vector Extensions 512 (Intel® AVX-512) osiąga pełną wydajność.
3) Konserwacja prewencyjna
Konserwacja prewencyjna różni się od rozpoznawania obrazów i NLP tym, że zazwyczaj opiera się na znacznie niższej prędkości przesyłu danych, a informacje są przechwytywane przez czujniki monitorujące w infrastrukturze brzegowej. W idealnych warunkach jak najwięcej obliczeń miałoby miejsce w infrastrukturze brzegowej, zanim powrócą do chmury w celu analizy lub podjęcia decyzji. Działające w oparciu o procesor wizualny (VPU) urządzenie Intel® Movidius™ Neural Compute Stick, idealnie nadaje się do przyspieszonego rozwoju uczenia głębokiego w infrastrukturze brzegowej.
Obejrzyj: Sztuczna inteligencja zmienia sposób, w jaki organizacje wykorzystują konserwację prewencyjną do wspierania kluczowej infrastruktury.
Zacznij wykorzystywać SI już teraz
Motorem zwiększającym wydajność SI jest połączenie