Zaawansowane przetwarzanie strumieni danych w Apache Flink
Zaawansowane przetwarzanie strumieni danych w Apache Flink
Informacje podstawowe
Informacje podstawowe
- KategoriaInformatyka i telekomunikacja / Programowanie
- Grupa docelowa usługi
Szkolenie adresowane do analityków i programistów, którzy znają podstawy Big Data oraz przetwarzania strumieni danych i chcą zapoznać się z platformą Apache Flink oferującą w tym zakresie największe możliwości w porównaniu do alternatywnych rozwiązań
- Minimalna liczba uczestników4
- Maksymalna liczba uczestników8
- Data zakończenia rekrutacji06-10-2025
- Forma prowadzenia usługizdalna w czasie rzeczywistym
- Liczba godzin usługi24
- Podstawa uzyskania wpisu do BURCertyfikat systemu zarządzania jakością wg. ISO 9001:2015 (PN-EN ISO 9001:2015) - w zakresie usług szkoleniowych
Cel
Cel
Cel edukacyjny
Zapoznanie z platformą Apache Flink i jej możliwościami w zakresie przetwarzania strumieni danychWykorzystanie zaawansowanych mechanizmów oferowanych przez Apache Flink
Efekty uczenia się oraz kryteria weryfikacji ich osiągnięcia i Metody walidacji
Efekty uczenia się | Kryteria weryfikacji | Metoda walidacji |
---|---|---|
Efekty uczenia się Zapoznanie z platformą Apache Flink i jej możliwościami w zakresie przetwarzania strumieni danych Wykorzystanie zaawansowanych mechanizmów oferowanych przez Apache Flink | Kryteria weryfikacji Wykorzystanie zaawansowanych mechanizmów oferowanych przez Apache Flink | Metoda walidacji Obserwacja w warunkach rzeczywistych |
Metoda walidacji Test teoretyczny |
Kwalifikacje i kompetencje
Kwalifikacje
Kompetencje
Usługa prowadzi do nabycia kompetencji.Warunki uznania kompetencji
Program
Program
Szkolenie będzie prowadzone zdalnie, w czasie rzeczywistym, na żywo, z trenerem, możliwością zadawania pytań.
Każdego dnia zajęcia w godz. 9:00-17:00, z przerwą na lunch około godz. 13:00
Wprowadzenie do systemów przetwarzania strumieni danych (SP)
Flink - wprowadzenie
DataStream API - podstawy
DataStream API - elementy zaawansowane - część 1
DataStream API - elementy zaawansowane - część 2
DataStream API - obsługa stanu przetwarzania
SQL i Table API - podstawy
Complex Event Processing (CEP)
Przetwarzanie danych wsadowych
Walidacja
Harmonogram
Harmonogram
Przedmiot / temat zajęć | Prowadzący | Data realizacji zajęć | Godzina rozpoczęcia | Godzina zakończenia | Liczba godzin |
---|---|---|---|---|---|
Przedmiot / temat zajęć 1 z 3 Wprowadzenie do systemów przetwarzania strumieni danych (SP) Flink - wprowadzenie DataStream API - podstawy | Prowadzący Krzysztof Jankiewicz | Data realizacji zajęć 20-10-2025 | Godzina rozpoczęcia 09:00 | Godzina zakończenia 17:00 | Liczba godzin 08:00 |
Przedmiot / temat zajęć 2 z 3 DataStream API - elementy zaawansowane - część 1 DataStream API - elementy zaawansowane - część 2 DataStream API - obsługa stanu przetwarzania | Prowadzący Krzysztof Jankiewicz | Data realizacji zajęć 21-10-2025 | Godzina rozpoczęcia 09:00 | Godzina zakończenia 17:00 | Liczba godzin 08:00 |
Przedmiot / temat zajęć 3 z 3 SQL i Table API - podstawy Complex Event Processing (CEP) Przetwarzanie danych wsadowych | Prowadzący Krzysztof Jankiewicz | Data realizacji zajęć 22-10-2025 | Godzina rozpoczęcia 09:00 | Godzina zakończenia 17:00 | Liczba godzin 08:00 |
Cena
Cena
Cennik
Rodzaj ceny | Cena |
---|---|
Rodzaj ceny Koszt przypadający na 1 uczestnika brutto | Cena 3 813,00 PLN |
Rodzaj ceny Koszt przypadający na 1 uczestnika netto | Cena 3 100,00 PLN |
Rodzaj ceny Koszt osobogodziny brutto | Cena 158,88 PLN |
Rodzaj ceny Koszt osobogodziny netto | Cena 129,17 PLN |
Prowadzący
Prowadzący
Krzysztof Jankiewicz
Informacje dodatkowe
Informacje dodatkowe
Informacje o materiałach dla uczestników usługi
część teoretyczna szkolenia, slajdy - zostanie przekazana uczestnikom na szkoleniu w formie pdf.
uczestnik otrzyma certyfikat uczestnictwa z opisem nabytych umiejętności
Warunki uczestnictwa
- Dobra znajomość: języka SQL, relacyjnego modelu danych
- Podstawowa znajomość obiektowych języków programowania Java oraz Scala, opcjonalnie (jako uzupełnienie) Python
- Znajomość zagadnień Big Data, platformy Hadoop oraz powiązanych z nią narzędzi
- Rekomendujemy wcześniejszy udział w szkoleniach: "Big Data i platforma Hadoop - wprowadzenie (BIGDATA/BASE)", "Przetwarzanie strumieni danych w środowiskach Big Data (BIGDATA/STREAM)"
Informacje dodatkowe
Szkolenie będzie prowadzone zdalnie, w czasie rzeczywistym, na żywo, z trenerem, możliwością zadawania pytań.
Warunki techniczne
Warunki techniczne
szkolenie na platformie zoom, wymagane:
stabilne połączenie internetowe (zalecane min. 10Mbit/s download i 1Mbit/s upload)
przeglądarka internetowa Chrome
zainstalowana aplikacja Zoom App
dobrej jakości słuchawki oraz mikrofon (opcjonalnie) kamera internetowa
link do szkolenia zostanie przesłany uczestnikom przed szkoleniem i będzie aktywny do końca szkolenia.