Pakiet do przetwarzania wideo i obrazu
Pakiet Intel® FPGA Video and Image Processing Suite to zbiór funkcji własności intelektualnej (IP) Intel® FPGA, które można wykorzystać do ułatwienia opracowywania niestandardowych projektów przetwarzania wideo i obrazów. Te funkcje FPGA Intel® IP są odpowiednie do wykorzystania w szerokiej gamie aplikacji przetwarzania obrazów i wyświetlaczy, takich jak transmisja studyjna, wideokonferencje, sieciowanie AV, obrazowanie medyczne, inteligentne miasto / handel i użytkownik indywidualny.
Podręcznik użytkownika pakietu do przetwarzania obrazów i wideo ›
Pakiet do przetwarzania wideo i obrazu
Pakiet przetwarzania obrazu i wideo to pakiet rdzeni IP kolejnej generacji do przetwarzania wideo i obrazu. Rdzenie IP przesyłają wideo przy użyciu protokołu streamowania wideo układu FPGA Intel®, który zaś wykorzystuje standardowy protokół branżowy AXI4-Stream. Rdzeń IP konwertera protokołów umożliwia współdziałanie ze standardem streamingu wideo Avalon oraz istniejącym rdzeniem IP pakietu do przetwarzania obrazów i wideo lub innymi rdzeniami IP zgodnymi z protokołem streamingu wideo Avalon.
Pakiet Video and Image Processing Suite zawiera rdzenie, które obejmują zarówno proste funkcje blokowe, takie jak konwersja przestrzeni kolorów, jak i zaawansowane funkcje skalowania wideo, które mogą wdrażać programowalne skalowanie polifazowe.
- Wszystkie rdzenie VIP można łatwo połączyć, ponieważ korzystają z otwartego, niskonakładowego standardu interfejsu Avalon® Streaming (Avalon-ST).
- Można użyć rdzeni VIP do szybkiego zbudowania niestandardowego łańcucha sygnałowego przetwarzania wideo przy użyciu oprogramowania Intel® Quartus® Prime Lite lub Standard Edition i powiązanego narzędzia Platform Designer.
- Rdzenie do przetwarzania obrazu i wideo można mieszać i łączyć z własną zastrzeżoną własnością intelektualną.
- Możliwość korzystania z narzędzia Platform Designer do automatycznego integrowania wbudowanych procesorów i urządzeń peryferyjnych oraz generowania logiki arbitrażowej
- Obsługa wideo 8K z prędkością 60 klatek na sekundę i więcej.
Cechy
Funkcje pakietu do przetwarzania obrazu i wideo Intel® FPGA IP
Funkcja Intel® FPGA IP |
Opis |
---|---|
Stosuje filtr o skończonej odpowiedzi impulsowej (FIR) 3x3, 5x5 lub 7x7 na strumieniu danych obrazu w celu jego wygładzenia lub wyostrzenia. |
|
Mieszają i łączą wiele strumieni obrazu — przydatne do wdrażania nakładki tekstu i mieszania obrazu wewnątrz obrazu. |
|
Przechwytuje pakiety danych wideo bez dodatkowych opóźnień i łączy z systemem śledzenia IP do gromadzenia danych śledzenia wideo. |
|
Usuwa i naprawia nieidealne sekwencje i błędy |
|
Zmienia częstotliwość próbkowania danych chromatycznych dla ramek obrazu, na przykład z 4:2:2 na 4:4:4 lub z 4:2:2 na 4:2:0. |
|
Zapewnia sposób na przycinanie strumieni wideo i może być skonfigurowany w czasie kompilacji lub w czasie działania. |
|
Rdzenie IP Clocked Video Interface konwertują taktowane formaty wideo (takie jak BT656, BT1120 i DVI) na format wideo Avalon-ST i odwrotnie. |
|
Zmienia sposób przesyłania próbek płaszczyzny kolorów w interfejsie Avalon-ST. Funkcja ta może być używana do dzielenia i łączenia strumieni wideo, dając kontrolę nad kierowaniem próbek płaszczyzny kolorów. |
|
Konwertuj dane obrazu pomiędzy różnymi przestrzeniami kolorów, np. RGB do YCrCb. |
|
Konfigurowalne pasma ochronne |
Rdzeń IP konfigurowalne pasma ochronne porównuje każdą płaszczyznę koloru w wejściowym strumieniu wideo z górnymi i dolnymi wartościami pasm ochronnych. |
Synchronizuje zmiany wprowadzane do strumienia wideo w czasie rzeczywistym pomiędzy dwoma funkcjami. |
|
Konwertuje formaty wideo z przeplotem na progresywny format wideo przy użyciu algorytmu usuwania przeplotu z adaptacją ruchu. Obsługuje również algorytmy „bob” i „weave”, wykrywanie niskiego kąta krawędzi, wykrywanie kadencji 3:2 i małe opóźnienia. |
|
Buforuje ramki wideo w zewnętrzną pamięć RAM. Rdzeń ten obsługuje podwójne lub potrójne buforowanie z szeregiem opcji upuszczania i powtarzania ramek. |
|
Odczytuje obraz z pamięci zewnętrznej i wysyła go jako strumień. |
|
Umożliwia korekcję strumieni wideo pod kątem fizycznych właściwości urządzeń wyświetlających. |
|
Konwertuje progresywny obraz wideo na obraz z przeplotem poprzez usunięcie połowy linii z przychodzących klatek progresywnych. |
|
Oparta na kodzie HDL funkcja IP Scaler II Intel FPGA zajmuje mniej miejsca niż skaler pierwszej generacji w pakiecie Video and Image Processing Suite, zapewniając jednocześnie wyższą wydajność. Funkcja Scaler II dodatkowo zmniejsza zapotrzebowanie na zasoby dzięki nowej obsłudze częstotliwości próbkowania danych chromatycznych 4:2:2. Dostępne są zarówno algorytmy liniowe, jak i polifazowe, z nową funkcją algorytmu adaptacyjnego krawędzi w celu zmniejszenia rozmycia przy zachowaniu realizmu. |
|
Umożliwia przełączanie strumieni wideo w czasie rzeczywistym. |
|
Generuj strumień wideo, który zawiera nieruchome paski kolorów do wykorzystania jako wzorzec testowy. |
|
Monitoruje przechwycone dane z monitora wideo i łączy się z konsolą systemową hosta przez JTAG lub USB w celu wyświetlenia |
Wprowadzenie
Przykłady projektów i zestawy dla deweloperów
Poniższe przykładowe projekty można uruchamiać w zestawach dla deweloperów.
Nazwa produktu |
Obsługiwane urządzenia/zestaw dla deweloperów |
Karta podrzędna |
Zgodność z oprogramowaniem Platform Designer |
Dostawca |
---|---|---|---|---|
✓ |
Intel |
|||
Brak |
✓ |
ALSE |
||
Brak |
✓ |
Terasic |
||
Przykład projektu Intel FPGA do przetwarzania obrazu i wideo |
✓ |
Intel |
Samouczki wideo
Szkolenia online
Wdrażanie systemów wideo (ODSP1118)
Szkolenie to wprowadza do platformy wideo Intel FPGA i przepływu projektowania. Kurs zwraca uwagę na różne aspekty projektowania i techniki debugowania, jak również omawia ograniczenia algorytmiczne własności intelektualnej w zakresie przetwarzania obrazu i wideo.
Warsztat dotyczący ram projektowania wideo (IDSP230)
Podczas tego warsztatu, opartego na ćwiczeniach laboratoryjnych z zakresu przetwarzania obrazu i wideo, poznasz strukturę VIP, dowiesz się jak opanować metodologię projektowania VIP oraz zdobędziesz bezpośrednie doświadczenie poprzez ćwiczenia laboratoryjne z zakresu przetwarzania obrazu i wideo.
Metryki jakości rdzeni IP
Podstawy |
|
---|---|
Rok pierwszego wydania rdzenia IP |
2009 |
Obsługiwana najnowsza wersja oprogramowania Intel® Quartus® |
18.1 |
Status |
Produkcja |
Dostarczane materiały |
|
Klient otrzymuje następujące materiały: Plik projektowy (zaszyfrowany kod źródłowy lub lista netlist po syntezie) Model symulacyjny dla oprogramowania ModelSim* Intel® FPGA Edition Ograniczenia dotyczące czasu lub układu Moduł testowy lub przykładowy projekt Dokumentacja z kontrolą wersji Plik Readme |
Tak Tak Tak Tak Tak Nie |
Dodatkowe materiały dostarczane klientowi razem z rdzeniem IP |
Brak |
Graficzny interfejs użytkownika (GUI) do parametryzacji umożliwiający konfigurowanie rdzenia IP |
Tak |
Rdzeń IP obsługuje tryb Intel® FPGA IP Evaluation Mode |
Tak |
Język źródłowy |
Verilog |
Język modułu testowego |
Verilog |
Dostępne oprogramowanie sterowników |
plik sw.tcl |
System operacyjny obsługiwany przez sterownik |
Nd. |
Wdrożenie |
|
Interfejs użytkownika |
Taktowane wideo (do wejścia taktowanego wideo i z wyjścia taktowanego wideo), Avalon®-ST (wszystkie pozostałe ścieżki danych) |
Metadane IP-XACT |
Nie |
Weryfikacja |
|
Obsługiwane symulatory |
ModelSim, VCS, Riviera-PRO, NCSim |
Zweryfikowany sprzęt |
Arria® II GX/GZ, Arria® V, Intel® Arria® 10, Cyclone® IV ES/GX, Cyclone® V, Intel® Cyclone® 10, Intel® MAX1®1 10, Stratix2®2 IV, Stratix® V |
Przeprowadzone standardowe branżowe testy zgodności |
Nie |
Jeżeli tak, to jakie testy? |
Nd. |
Jeżeli tak, to na jakich urządzeniach Intel® FPGA? |
Nd. |
Jeżeli tak, to kiedy przeprowadzono? |
Nd. |
Jeżeli nie, to czy jest to zaplanowane? |
Nd. |
Współpraca komponentów |
|
Przeprowadzono testy współdziałania rdzenia IP |
Tak |
Jeżeli tak, to na jakich urządzeniach Intel® FPGA? |
Intel Arria 10, Intel Cyclone 10 |
Dostępne raporty dotyczące współdziałania |
Nd. |
Korektor gamma
Korektor Gamma jest używany, gdy trzeba ograniczyć wartości pikseli do określonych zakresów na podstawie informacji o wyświetlaczu, do którego mają być wysłane. Niektóre wyświetlacze wykazują nieliniową odpowiedź na napięcie sygnału wideo, w wyniku czego konieczne jest ponowne mapowanie wartości pikseli w celu skorygowania wyświetlania. Korektor Gamma wykorzystuje tabelę wyszukującą interfejsu Avalon®-MM do mapowania wartości pikseli na ich zmienione wartości.
Przykład działania korektora gamma pokazuje, że wejście Y'CbCr z 8-bitowymi wartościami kolorów z zakresu od 0 do 255 jest przepuszczane przez korektor gamma, który następnie dokonuje remapowania wartości, aby zmieścić się w zakresie od 16 do 240, i jest wysyłany do taktowanego wyjścia wideo.
Filtr FIR 2D
Rdzeń wideo własności intelektualnej (IP) filtra 2D o skończonej odpowiedzi impulsowej (FIR) służy do szeregowego przetwarzania płaszczyzn kolorów i przepuszczania wartości pikseli przez filtr FIR. Współczynniki są wprowadzane przez interfejs Avalon Memory Mapped (Avalon-MM), który może być podłączony przez procesor Nios® II lub przez inne urządzenia peryferyjne uzyskujące dostęp do projektu Qsys zawierającego ścieżkę danych wideo.
Przykładowy schemat blokowy wykorzystujący filtr FIR 2D jest pokazany z taktowanym wejściem wideo z płaszczyznami kolorów RGB sformatowanymi szeregowo w celu przejścia przez filtr FIR. Po zakończeniu filtrowania sekwencer Color Plane Sequencer służy do zmiany formatu płaszczyzn kolorów z trzech płaszczyzn szeregowych na trzy płaszczyzny równolegle. Z trzema równoległymi płaszczyznami kolorów ramka wideo jest gotowa do przesłania na zewnątrz przez rdzeń taktowanego wyjścia wideo.
Mikser Alpha Blending i Mikser II
Rdzenie Alpha Blending Mixer i Mixer II zapewniają możliwość miksowania do 12 lub 4 warstw obrazu i są sterowane w trybie runtime poprzez interfejs Avalon-MM. Uzyskując dostęp z procesora Nios II poprzez interfejs Avalon-MM, można dynamicznie kontrolować położenie każdej wyświetlanej warstwy oraz kolejność, w jakiej warstwy są nakładane (tylko Mixer I). Funkcja mieszania alfa w Mixerze I obsługuje wyświetlanie przezroczystych lub półprzezroczystych pikseli (tylko Mixer I).
Rdzeń Mixer II zawiera wbudowany generator wzorców testowych do użycia jako warstwa tła. Jest to dodatkowa zaleta, ponieważ jedno z czterech wejść nie musi pochodzić z rdzenia generatora wzorca testowego. Kolejną zaletą Mixera II jest jego zdolność do obsługi wideo 4K.
Przykładowy schemat blokowy wykorzystania rdzeni Mixer pokazano na przykładzie taktowanego wejścia wideo dostarczającego aktywny strumień wideo na wejściu 0, warstwy tła dostarczanej przez wbudowany generator wzorców testowych oraz rdzenia Frame Reader, który odczytuje statyczną grafikę, taką jak logo firmy na wejściu 1. Te strumienie są mieszane razem, aby zapewnić wyświetlanie obrazu wideo z grafiką i tłem dostarczonym przez generator wzorów testowych.
Zaleca się, aby wejścia Mixera były zasilane bezpośrednio z bufora ramki, chyba że jest pewne, że odpowiednie częstotliwości odświeżania na wejściu i wyjściu oraz przesunięcia warstw wejściowych nie spowodują zagłodzenia danych i w konsekwencji zablokowania wideo.
Chroma Resampler
Chroma Resampler służy do zmiany formatów chromatycznych danych wideo. Wideo przesyłane w przestrzeni kolorów Y'CbCr może podpróbkować składowe kolorów Cb i Cr w celu zaoszczędzenia pasma danych. Chroma Resampler umożliwia przejście między formatami 4:4:4, 4:2:2 i 4:2:0.
Przykład pokazuje taktowane wejście wideo z Y'CbCr w formacie chromatycznym 4:2:2, które jest upscalowane przez Chroma Resampler do formatu 4:4:4. Ten przeskalowany format wideo jest następnie przekazywany do konwertera przestrzeni barw, który konwertuje format wideo z Y'CbCr na RGB, aby wysłać go do rdzenia taktowanego wyjścia wideo.
Clipper II
Rdzeń Clipper jest używany, gdy chcesz pobrać stałe obszary z kanału wideo, które mają być przekazane dalej. Rdzeń Clipper może być konfigurowany podczas kompilacji lub aktualizowany poprzez interfejs Avalon-MM z procesora Nios II lub innego urządzenia peryferyjnego. Clipper ma możliwość ustawienia metody obcinania poprzez przesunięcie od krawędzi lub poprzez stały obszar prostokąta.
Przykład pokazuje dwie instancje Clippera pobierające obszary 400 x 400 pikseli z ich odpowiednich wejść wideo. Te dwa przycięte strumienie wideo są następnie miksowane razem w rdzeniu Mixer wraz z innymi elementami graficznymi i wbudowanym generatorem wzorów testowych jako tłem. Mixer ma możliwość regulacji położenia wejść wideo, więc można umieścić dwa przycięte kanały wideo obok siebie, dodając bufory ramki, jeśli to konieczne.
Taktowane rdzenie wejścia i wyjścia wideo (I i II)
Taktowane rdzenie wejścia i wyjścia wideo są używane do przechwytywania i transmisji wideo w różnych formatach, takich jak BT656 i BT1120.
Taktowane rdzenie wejścia wideo konwertują przychodzące dane wideo na dane pakietowe w formacie Avalon Streaming (Avalon-ST), usuwając przychodzące poziome i pionowe wygaszanie i zachowując tylko aktywne dane obrazu. Rdzeń pozwala na przechwytywanie wideo na jednej częstotliwości i przekazywanie danych do reszty systemu Qsys, który może być uruchomiony na tej samej lub innej częstotliwości.
Przykład taktowanego wejścia wideo przedstawia obraz podawany do bloku skalera w celu zwiększenia rozdzielczości z 1280 x 720 do 1920 x 1080, po czym jest on przesyłany do rdzenia taktowanego wyjścia wideo. Jeśli zarówno wejście, jak i wyjście, mają tę samą częstotliwość odświeżania, można utworzyć FIFO w taktowanych wejściach i wyjściach wideo, aby umożliwić konwersję bez bufora ramki.
Sekwencer płaszczyzny kolorów
Narzędzie Color Plane Sequencer służy do zmiany rozmieszczenia elementów płaszczyzny kolorów w systemie wideo. Może być stosowane do konwersji płaszczyzn kolorów z transmisji szeregowej na równoległą (lub odwrotnie), do „duplikowania” kanałów wideo (co może być wymagane do napędzania podsystemu dodatkowego monitora wideo) lub do „rozdzielania” kanałów wideo (co może być wymagane do oddzielenia płaszczyzny alfa od trzech płaszczyzn RGB wyprowadzanych jako 4 płaszczyzny z czytnika ramek).
Przykład sekwencera płaszczyzny kolorów jest pokazany jako rdzeń IP wideo z filtrem FIR 2D, który wymaga wejścia i wyjścia wideo z szeregowo ułożonymi płaszczyznami kolorów. Aby przesłać obraz do taktowanego wyjścia wideo w żądanym formacie, płaszczyzny kolorów muszą zostać przekonwertowane na równoległe przez sekwencer płaszczyzn kolorów.
Konwerter przestrzeni kolorów (I i II)
Rdzenie Color Space Converter (CSC i Color Space Converter II) są używane, gdy trzeba dokonać konwersji między formatami przestrzeni kolorów RGB i Y'CrCb. W zależności od wymagań dotyczących formatu wejściowego i wyjściowego wideo może być konieczna konwersja między różnymi formatami kolorów.
Przykład konwertera przestrzeni kolorów jest pokazany za pomocą Chroma Resampler zwiększającego rozdzielczość Y'CrCb wideo, a następnie jest przekazywany do konwertera przestrzeni kolorów i konwertowany do formatu kolorów RGB do wysłania do taktowanego wyjścia wideo.
Synchronizator sterowania
Synchronizator sterowania jest używany w połączeniu z głównym kontrolerem Avalon-MM, takim jak procesor Nios II lub inne urządzenie peryferyjne. Synchronizator sterowania służy do synchronizacji zmian konfiguracji runtime w jednym lub większej liczbie bloków IP wideo w zgodności ze zmieniającymi się danymi wideo. Niektóre zmiany konfiguracji mogą nastąpić przed rdzeniem IP wideo, podczas gdy ramki wideo nadal przechodzą przez niego w poprzednim formacie. W celu zapewnienia płynnego przejścia i uniknięcia zakłóceń na ekranie, synchronizator sterowania jest wykorzystywany do ustawiania przełączania konfiguracji dokładnie w momencie, gdy nowe przychodzące dane ramki wideo docierają do rdzenia.
Działanie synchronizatora sterowania pokazane jest na przykładzie procesora Nios II konfigurującego generator wzorców testowych w celu zmiany rozmiaru ramki z 720p na 1080p. Synchronizator sterowania otrzymuje powiadomienie od procesora Nios II, że dane ramki wideo będą się wkrótce zmieniać, ale wstrzymuje się z rekonfiguracją taktowanego wyjścia wideo do czasu, aż nowe ramki przejdą przez bufor ramki do synchronizatora sterowania. Synchronizator sterowania odczytuje pakiety danych sterujących ramki, aby określić, czy odpowiadają one nowej konfiguracji, a następnie aktualizuje rdzeń taktowanego wyjścia wideo do nowych ustawień, dzięki czemu zmiana rozdzielczości na wyjściu wideo jest płynna.
Deinterlacer (I i II) i Broadcast Deinterlacer
Rdzenie typu Deinterlacer (Deinterlacer, Deinterlacer II i Broadcast Deinterlacer) konwertują ramki wideo z przeplotem na ramki wideo ze skanowaniem progresywnym. Istnieje wiele algorytmów usuwania przeplotu wideo do wyboru, w zależności od pożądanej jakości, wykorzystywanego obszaru logicznego i dostępnej przepustowości pamięci zewnętrznej.
Wykorzystanie rdzenia Deinterlacer pokazano na przykładzie taktowanego wejścia wideo, które odbiera ramki z przeplotem i przechodzi przez Deinterlacer, który współpracuje z zewnętrzną pamięcią i rdzeniem bufora ramki. Po usunięciu przeplotu do formatu skanowania progresywnego obraz jest wysyłany przez rdzeń taktowanego wyjścia wideo.
Bufor ramki (I i II)
Rdzenie Frame Buffer i Frame Buffer II są używane do buforowania progresywnych i przeplatanych pól wideo i mogą obsługiwać podwójne lub potrójne buforowanie z szeregiem opcji upuszczania i powtarzania klatek. W takich przypadkach, jak usuwanie przeplotu, zmiana częstotliwości odświeżania obrazu lub czasami mieszanie obrazów, konieczne jest zastosowanie bufora ramki (Frame Buffer).
Użycia bufora ramki pokazane jest na przykładzie rdzenia taktowanego wejścia wideo, które odbiera wideo z prędkością 30 klatek na sekundę (fps) i musi je przekonwertować do 60 fps. Rdzeń Frame Buffer służy do buforowania wielu ramek i obsługuje powtarzające się ramki, dzięki czemu częstotliwość odświeżania jest w stanie zostać przekonwertowana do 60 klatek na sekundę, a następnie przesłana przez rdzeń taktowanego wyjścia wideo.
Czytnik ramki
Rdzeń Frame Reader służy do odczytywania ramek wideo przechowywanych w pamięci zewnętrznej i wyprowadzania ich jako strumień wideo Avalon-ST. Dane są zapisywane tylko jako surowe wartości pikseli wideo.
Działanie pokazano na przykładzie wykorzystania czytnika ramek do uzyskania grafiki z logo firmy w celu nałożenia jej na inny strumień wideo i połączenia warstw razem za pomocą rdzenia Mixer. Stamtąd połączony obraz jest wysyłany do rdzenia taktowanego wyjścia wideo. Mixer może być opcjonalnie skonfigurowany tak, aby zawierał kanał alfa. W tym przypadku czytnik ramek może być skonfigurowany do odczytu trzech płaszczyzn kolorów i jednej płaszczyzny alfa, które mogą być „rozdzielone” za pomocą konwertera przestrzeni kolorów (nie pokazano) przed wprowadzeniem do Mixera.
Skaler II
Rdzeń Scaler II jest używany do zwiększania lub zmniejszania ramki wideo. Obsługuje wiele algorytmów, w tym najbliższego sąsiada, dwuliniowy, dwusześcienny i skalowanie polifazowe/Lanczosa. Pamięć na strukturze jest wykorzystywana do buforowania linii wideo używanych do skalowania, przy czym wyższe współczynniki skalowania wymagają większej pamięci.
Przykład rdzenia Scaler II przedstawia pobieranie ramki wideo o rozmiarze 720p z taktowanego wejścia wideo i skalowanie jej do 1080p oraz wysyłanie do taktowanego wyjścia wideo.
Switch (I i II)
Rdzenie Switch pozwalają użytkownikom na podłączenie do dwunastu wejściowych strumieni wideo do dwunastu wyjściowych strumieni wideo. Switch nie łączy ani nie duplikuje strumieni wideo, ale pozwala na zmianę trasy od portu wejściowego do portu wyjściowego. Nie jest konieczne podłączanie wszystkich portów wyjściowych, chyba że chcesz mieć możliwość dalszego monitorowania tych strumieni wideo. Sterowanie Switch odbywa się poprzez interfejs Avalon-MM dostępny przez procesor Nios II lub inne urządzenie peryferyjne zmapowane w Avalon-MM.
Switch jest pokazany na przykładzie taktowanego wejścia wideo i generatora wzorców testowych zasilających dwa porty Switch. Drugi port wyjściowy Switch pozostaje niepodłączony, a procesor Nios II kontroluje, który z dwóch sygnałów jest wysyłany do portu połączonego z taktowanym wyjściem wideo w celu wyświetlenia.
Generator wzorów testowych Test Pattern Generator II
Rdzeń Test Pattern Generator pozwala na wygenerowanie szeregu obrazów do szybkiego testowania interfejsu wideo. Rdzeń jest konfigurowalny dla wielu różnych rozmiarów obrazów, a także formatów kolorów RGB i YCbCr.
Możesz użyć rdzenia Test Pattern Generator wraz z rdzeniem taktowanego wyjścia wideo, aby szybko zweryfikować interfejs wideo swojego systemu. Mając w ręku pożądane specyfikacje wideo, ukończenie projektu zajmuje tylko kilka minut, aby szybko zweryfikować, czy interfejs jest w stanie wygenerować obraz na zewnętrznym wyświetlaczu.
Monitor wideo Avalon-ST
Monitor wideo Avalon-ST to rdzeń, który można umieścić w szeregu ze ścieżką danych wideo, który odczytuje informacje z pakietów wideo Avalon-ST i dostarcza dane diagnostyczne do systemu Trace. Monitor wideo jest wstawiany w miejscach, w których użytkownik chce sprawdzać ścieżkę danych wizyjnych w celu uzyskania informacji analitycznych i statystycznych. Po połączeniu z rdzeniem Trace System i podłączeniu zewnętrznym przez port debugowania, taki jak JTAG lub przez kabel do pobierania Intel FPGA, można uzyskać lepszy wgląd w zachowanie systemu wideo. Możesz użyć System Console jako wirtualnej platformy do wyświetlania tych informacji.
Przykład pokazuje monitor wideo Avalon-ST wstawiony przed i za sekwencerem Color Plane Sequencer. Służą one do monitorowania informacji pakietów wideo pochodzących z taktowanego wyjścia wideo oraz z sekwencera Color Plane Sequencer. Video Monitor nie zmienia danych wizyjnych w trakcie ich przechodzenia przez rdzeń. Monitory wideo są podłączone do systemu śledzenia, który w tym przypadku jest dostępny przez JTAG.
System śledzenia
System Trace jest używany do uzyskania dostępu do rdzeni monitora wideo Avalon-ST wstawionych do projektu w celu uzyskania informacji diagnostycznych dotyczących wideo. Do połączenia ze sterownikiem systemu Trace można użyć wielu rdzeni monitorów wideo. System śledzenia łączy się z hostem za pomocą interfejsu debugowania, zwykle takiego jak złącze JTAG lub interfejs Intel FPGA Download Cable, jeśli są dostępne.
Przykład pokazuje system Trace użyty z kilkoma rdzeniami Avalon-ST Video Monitor wstawionymi przed i za sekwencerem Color Plane. Monitory wideo są podłączone do systemu śledzenia, który w tym przypadku jest dostępny przez JTAG.
Łącza do stron o podobnej tematyce
Pomoc techniczna związana z urządzeniami
Dodatkowe zasoby
Znajdź IP
Znajdź odpowiedni rdzeń własności intelektualnej Intel® FPGA, który spełni Twoje potrzeby.
Pomoc techniczna
Aby uzyskać pomoc techniczną dotyczącą tego rdzenia IP, odwiedź stronę Zasoby pomocy technicznej lub Program uprzywilejowanej pomocy Intel® Premier Support. Możesz również poszukać powiązanych tematów dotyczących tej funkcji w Centrum wiedzy i na stronie Społeczności.
Ocena i zakup IP
Tryb oceny i informacje dotyczące zakupu rdzeni Intel® FPGA IP.
Projektowanie z wykorzystaniem Intel® FPGA IP
Dowiedz się więcej o projektowaniu z wykorzystaniem Intel® FPGA IP, czyli szerokiej gamy gotowych rdzeni zoptymalizowanych pod kątem układów Intel® FPGA.
IP Base Suite
Darmowe licencje dla rdzenia Intel® FPGA IP z aktywną licencją na oprogramowanie Intel® Quartus® Prime Standard lub Pro Edition.
Samodzielnie przetestowane
Firma Intel przyznaje certyfikaty rozwiązania przetestowanego pod kątem współpracy komponentów lub przetestowanego samodzielnie zweryfikowanym rdzeniom Intel® FPGA IP lub rdzeniom IP członków sieci rozwiązań do projektowania układów FPGA Intel®.
Rdzenie Intel® FPGA IP naszych partnerów
Przeglądaj katalog rdzeni Intel® FPGA IP naszych partnerów na Intel® Solutions Marketplace.
Przykładowe projekty
Pobierz przykładowe projekty i projekty referencyjne dla urządzeń Intel® FPGA.
Certyfikaty IP
Firma Intel zobowiązuje się do dostarczania rdzeni IP, które bezproblemowo działają z narzędziami Intel® FPGA lub specyfikacjami interfejsu.
Skontaktuj się z działem sprzedaży
Skontaktuj się z działem sprzedaży i naświetl swoje potrzeby związane z projektowaniem produktów i przyspieszeniem układów Intel® FPGA.