Kategorie usług
 
Menu

Developer Training For Spark and Hadoop


Informacje o usłudze
Czy usługa może być dofinansowana? Tak
Sposób dofinansowania
  • wsparcie dla osób indywidualnych
  • wsparcie dla przedsiębiorców i ich pracowników
Rodzaj usługi Usługa szkoleniowa
Podrodzaj usługi Usługa szkoleniowa
Dostępność usługi Otwarta
Numer usługi2019/04/30/10100/388586
Cena netto 9 374,00 zł Cena brutto 11 530,02 zł
Cena netto za godzinę 334,79 zł Cena brutto za godzinę 411,79
Usługa z możliwością dofinansowania Tak
Liczba godzin usługi 28
Termin rozpoczęcia usługi 2019-11-04 Termin zakończenia usługi 2019-11-07
Termin rozpoczęcia rekrutacji 2019-04-30 Termin zakończenia rekrutacji 2019-11-04
Maksymalna liczba uczestników 12
Kategoria główna KU Informatyka i telekomunikacja
Kategorie dodatkowe KU Informatyka i telekomunikacja
Podstawa uzyskania wpisu w zakresie świadczenia usług współfinansowanych Certyfikaty:
Znak Jakości Małopolskich Standardów Usług Edukacyjno-Szkoleniowych (MSUES)
Czy usługa pozwala na zdobycie kwalifikacji lub części kwalifikacji zarejestrowanych w ZRK? Nie
Czy usługa pozwala na uzyskanie kwalifikacji innych niż kwalifikacje zarejestrowane w ZRK? Nie
Czy usługa prowadzi do nabycia kompetencji? Tak
Informacje o podmiocie świadczącym usługę
Nazwa podmiotu Compendium - Centrum Edukacyjne Spółka z o.o.
Osoba do kontaktu Michał Dobrzański Telefon 12 29 84 777
E-mail michal.dobrzanski@compendium.pl
Cel usługi
Cel edukacyjny
Developer Training For Spark and Hadoop to 4-dniowe praktyczne szkolenie przedstawia uczestnikom kluczowe założenia teoretyczne i rozwija umiejętności przechwytywania i procesowania danych na platformie Hadoop, używając najaktualniejszych narzędzi i technik. Poprzez wykorzystanie ekosystemu aplikacji Hadoop, takich jak: Spark, Hive, Flume, Sqoop i Impala, szkolenie to doskonale przygotowuje do mierzenia się z praktycznymi wyzwaniami, z jakimi borykają się programiści Hadoop. Uczestnicy uczą się, jak poprawnie wybrać odpowiednie narzędzia w konkretnych sytuacjach oraz nabywają praktycznego doświadczenia w ich używaniu. Poprzez prowadzone przez instruktora dyskusje i interaktywne ćwiczenia praktyczne, uczestnicy poznają technologię Apache Spark oraz uczą się, jak ją integrować z całym ekosystemem aplikacji Hadoop. Wiedza ta dostarcza im odpowiedzi na pytania: Jak dane są dystrybuowane, zapisywane i procesowanie na klastrze Hadoop? Jak używać Sqoop i Flume do przyjmowania danych na klaster? Jak przetwarzać dystrybuowane dane przy pomocy Apache Spark? Jak modelować strukturyzowane dane jako tabele w Impala i Hive? Jak wybrać najbardziej odpowiedni format zapisu danych dla różnych przypadków użycia? Jakie są dobre praktyki zapisu danych?


Drukuj do PDF