Certyfikowane Szkolenie: Data Engineering – szybkie szkolenie zaawansowane (chmury + API) - 9999 pln
Certyfikowane Szkolenie: Data Engineering – szybkie szkolenie zaawansowane (chmury + API) - 9999 pln
Informacje podstawowe
Informacje podstawowe
- KategoriaInformatyka i telekomunikacja / Bazy danych
- Grupa docelowa usługi
Dla kogo: osoby z podstawową znajomością Pythona i baz danych, analitycy danych chcący wejść w Data Engineering, juniorzy IT chcący rozwijać kompetencje w obszarze chmury i big data, przetwarzania danych, programiści, specjaliści IT lub inni, którzy chcą się przebranżowić lub nabyć umiejętności w nowym zawodzie
- Minimalna liczba uczestników15
- Maksymalna liczba uczestników40
- Forma prowadzenia usługizdalna
- Liczba godzin usługi75
- Podstawa uzyskania wpisu do BURZnak Jakości Małopolskich Standardów Usług Edukacyjno-Szkoleniowych (MSUES) - wersja 2.0
Cel
Cel
Cel edukacyjny
Celem szkolenia jest nabycie przez uczestników zaawansowanych kompetencji zawodowych w obszarze Data Engineeringu, ze szczególnym uwzględnieniem pracy w środowiskach chmurowych i automatyzacji procesów przetwarzania danych. Uczestnicy zdobędą umiejętności praktyczne niezbędne do podjęcia nowego zawodu, pracy lub rozwoju kariery w roli data engineera.Efekty uczenia się oraz kryteria weryfikacji ich osiągnięcia i Metody walidacji
Efekty uczenia się | Kryteria weryfikacji | Metoda walidacji |
---|---|---|
Efekty uczenia się Po ukończeniu szkolenia uczestnik:Projektuje i implementuje przepływy danych (ETL/ELT) z wykorzystaniem Pythona, PySparka i narzędzi chmurowych. Integruje dane z zewnętrznych źródeł (REST API) i włącza je do procesów przetwarzania danych. Konfiguruje i obsługuje środowiska chmurowe (Azure Data Factory, Databricks, Synapse) w celu przetwarzania i przechowywania danych. Zarządza strukturami danych w usługach chmurowych (Data Lake, Blob Storage) oraz wdraża procesy kontroli dostępu i bezpieczeństwa. Stosuje narzędzia automatyzacji i monitorowania (m.in. CI/CD) w cyklu życia pipeline’ów danych. Optymalizuje zapytania i procesy przetwarzania danych dla dużych wolumenów danych (Big Data). Rozumie zasady Data Governance i wdraża je w środowisku chmurowym. Dokumentuje i prezentuje zrealizowane rozwiązania w formie kodu, repozytoriów i/lub demonstracji projektów. | Kryteria weryfikacji Frekwencja i udział w ćwiczeniach – np. poprzez rozwiązane zadania, kod wysłany na platformę, obecność na sesjach live. | Metoda walidacji Test teoretyczny |
Kwalifikacje i kompetencje
Kwalifikacje
Usługa o charakterze zawodowym
- Kształcenie KUZTworzenie aplikacji internetowych i baz danych oraz administrowanie bazami
Kompetencje
Usługa prowadzi do nabycia kompetencji.Warunki uznania kompetencji
Program
Program
🧭 Zakres tematyczny:
Moduł 1: Wprowadzenie do Data Engineeringu i architektury danych
- Rola i zadania data engineera
- Typowe komponenty pipeline’u danych
Moduł 2: Projektowanie procesów ETL/ELT
- Python + Pandas / PySpark w przetwarzaniu danych
- Transformacje, walidacje, harmonogramowanie
Moduł 3: Integracja danych z REST API
- Budowanie i testowanie zapytań
- Automatyczne pobieranie i przetwarzanie danych z API
Moduł 4: Przetwarzanie danych w chmurze (Azure)
- Azure Data Factory, Databricks, Synapse – podstawy działania
- Przesyłanie danych do i z chmury (Data Lake, Blob Storage)
Moduł 5: Automatyzacja i CI/CD
- DevOps w Data Engineeringu
- Monitorowanie, testowanie i deploy pipeline’ów
Moduł 6: Optymalizacja i bezpieczeństwo
- Wydajność zapytań SQL i Spark
- Wprowadzenie do Data Governance i kontroli dostępu
Moduł 7: Projekt końcowy
- Samodzielna budowa pipeline’u danych z integracją API i chmurą
- Kod + repozytorium + prezentacja rozwiązania
Cena
Cena
Cennik
Rodzaj ceny | Cena |
---|---|
Rodzaj ceny Koszt przypadający na 1 uczestnika brutto | Cena 9 999,00 PLN |
Rodzaj ceny Koszt przypadający na 1 uczestnika netto | Cena 9 999,00 PLN |
Rodzaj ceny Koszt osobogodziny brutto | Cena 133,32 PLN |
Rodzaj ceny Koszt osobogodziny netto | Cena 133,32 PLN |
Informacje dodatkowe
Informacje dodatkowe
Informacje o materiałach dla uczestników usługi
Uczestnicy otrzymają pełen pakiet materiałów edukacyjnych: prezentacje z zajęć, zestawy ćwiczeń praktycznych (notebooki Python/PySpark), instrukcje do konfiguracji środowisk chmurowych (Azure), checklisty ETL/CI-CD, dostęp do repozytorium z kodem źródłowym oraz rekomendowane źródła do dalszego samokształcenia. Wszystkie materiały dostępne będą również online po szkoleniu.
Warunki techniczne
Warunki techniczne
Warunki techniczne realizacji usługi (Google Meet – minimum):
- Stabilne łącze internetowe (min. 10 Mbps dla uczestnika)
- Komputer/laptop z aktualną przeglądarką (Chrome lub Firefox)
- Kamera internetowa i mikrofon – wbudowane lub zewnętrzne
- Dostęp do platformy Google Meet (link zapewniany przez organizatora)
- Możliwość korzystania z platformy współdzielenia ekranu i linków (Meet, Google Docs, GitHub, Replit itp.)
- Podstawowa znajomość obsługi środowiska przeglądarkowego i czatu
- Słuchawki (zalecane – dla komfortu pracy i wyeliminowania pogłosu)
- Możliwość uczestnictwa w czasie rzeczywistym (zajęcia na żywo)