Deep learning w przetwarzaniu języka naturalnego
Deep learning w przetwarzaniu języka naturalnego
Informacje podstawowe
Informacje podstawowe
- KategoriaInformatyka i telekomunikacja / Programowanie
- Grupa docelowa usługi
Szkolenie skierowane do:
- Osób, które mają co najmniej podstawową wiedzę z obszaru uczenia maszynowego
- Osób pracujących na stanowisku data scientist
- Minimalna liczba uczestników4
- Maksymalna liczba uczestników8
- Data zakończenia rekrutacji15-09-2025
- Forma prowadzenia usługizdalna w czasie rzeczywistym
- Liczba godzin usługi40
- Podstawa uzyskania wpisu do BURCertyfikat systemu zarządzania jakością wg. ISO 9001:2015 (PN-EN ISO 9001:2015) - w zakresie usług szkoleniowych
Cel
Cel
Cel edukacyjny
Zdobycie spejalistyczniej wiedzy o sieciach neuronowych stosowanych w przetwarzaniu języka naturalnego (NLP)Zdobycie umiejętności implementacji omawianych algorytmów z wykorzystaniem biblioteki PyTorch w języku Python
Efekty uczenia się oraz kryteria weryfikacji ich osiągnięcia i Metody walidacji
Efekty uczenia się | Kryteria weryfikacji | Metoda walidacji |
---|---|---|
Efekty uczenia się Uczestnik stosuje specjalistyczną wiedzę o sieciach neuronowych w przetwarzaniu języka naturalnego (NLP), implementuje omówione algorytmy z wykorzystaniem biblioteki PyTorch w języku Python | Kryteria weryfikacji Uczestnik stworzył realny projekt, który można wygodnie udostępnić, skomentować i zaprezentować. | Metoda walidacji Obserwacja w warunkach rzeczywistych |
Kwalifikacje i kompetencje
Kwalifikacje
Kompetencje
Usługa prowadzi do nabycia kompetencji.Warunki uznania kompetencji
Program
Program
Wprowadzenie do biblioteki PyTorch
- Implementacja perceptronu wielowarstwowego
- Implementacja procesu uczenia sieci neuronowej
Zanurzenia słów - word embeddings
- Model word2vec
- GLOVE
- FastText
Rekurencyjne sieci neuronowe (recurrent neural networks - RNNs)
- Sieć rekurencyjna prosta
- Sieć LSTM
- Sieć GRU
- Klasyfikacja tekstu przy użyciu sieci rekurencyjnych
- Wykrywanie nazw własnych (NER) przy użyciu sieci rekurencyjnych
- Złożone struktury sieci rekurencyjnych w zadaniach NLP: wielowarstwowość, dwukierunkowość
Generowanie tekstu przy użyciu sieci neuronowych
- Model językowy
- Mechanizmy generowania tekstu w oparciu o model językowy: generowanie proste, generowanie z randomizacją, beam search
Zadania NLP związane z generowaniem tekstu
- Typowe problemy "sequence to sequence": tłumaczenie maszynowe, podsumowywanie tekstu, odpowiadanie na pytania
- Struktura encoder-decoder
- Generowanie tekstu dotyczącego obiektów wejściowych (np. opisów obrazów)
Sieć neuronowa Transformer - state of the art współczesnego NLP
- Mechanizm uwagi vs mechanizm rekurencji
- Mechanizm Multihead Attention
- Mechanizm Positional Encoding
- Architektura sieci Transformer
- Praktyczne zalety i wady sieci Transformer
Transfer learning - wykorzystywanie gotowych potężnych sieci do własnych zadań NLP
- Transfer wiedzy - schemat działania
- Model BERT - sieć kodująca tekst do generalnego użytku
- Dostępne przetrenowane sieci BERT- biblioteka HuggingFace
- Zastosowanie transferu wiedzy w analizie podobieństwa tekstów
- Zastosowanie sieci BERT jako model bazowy w klasycznych zadaniach: klasyfikcja tekstu, generowanie tekstu
- Fine tuning - dotrenowywanie dostępnych modeli
LLMs - Large Language Models
- Duże modele językowe - wprowadzenie
- Możliwości i ograniczenia dużych modeli językowych
- LLM w wykonywaniu zadań NLP
- Problem inżynierii promptów, prompt jako hiperparametr
- Kiedy używać LLM'ów, a kiedy trenować własne sieci
Harmonogram
Harmonogram
Przedmiot / temat zajęć | Prowadzący | Data realizacji zajęć | Godzina rozpoczęcia | Godzina zakończenia | Liczba godzin |
---|---|---|---|---|---|
Przedmiot / temat zajęć 1 z 5 Wprowadzenie do biblioteki PyTorch Zanurzenia słów - word embeddings | Prowadzący Norbert Ryciak | Data realizacji zajęć 22-09-2025 | Godzina rozpoczęcia 09:00 | Godzina zakończenia 17:00 | Liczba godzin 08:00 |
Przedmiot / temat zajęć 2 z 5 Rekurencyjne sieci neuronowe (recurrent neural networks - RNNs) | Prowadzący Norbert Ryciak | Data realizacji zajęć 23-09-2025 | Godzina rozpoczęcia 09:00 | Godzina zakończenia 17:00 | Liczba godzin 08:00 |
Przedmiot / temat zajęć 3 z 5 Generowanie tekstu przy użyciu sieci neuronowych Zadania NLP związane z generowaniem tekstu | Prowadzący Norbert Ryciak | Data realizacji zajęć 24-09-2025 | Godzina rozpoczęcia 09:00 | Godzina zakończenia 17:00 | Liczba godzin 08:00 |
Przedmiot / temat zajęć 4 z 5 Sieć neuronowa Transformer - state of the art współczesnego NLP | Prowadzący Norbert Ryciak | Data realizacji zajęć 25-09-2025 | Godzina rozpoczęcia 09:00 | Godzina zakończenia 17:00 | Liczba godzin 08:00 |
Przedmiot / temat zajęć 5 z 5 Transfer learning - wykorzystywanie gotowych potężnych sieci do własnych zadań NLP LLMs - Large Language Models | Prowadzący Norbert Ryciak | Data realizacji zajęć 26-09-2025 | Godzina rozpoczęcia 09:00 | Godzina zakończenia 17:00 | Liczba godzin 08:00 |
Cena
Cena
Cennik
Rodzaj ceny | Cena |
---|---|
Rodzaj ceny Koszt przypadający na 1 uczestnika brutto | Cena 5 344,35 PLN |
Rodzaj ceny Koszt przypadający na 1 uczestnika netto | Cena 4 345,00 PLN |
Rodzaj ceny Koszt osobogodziny brutto | Cena 133,61 PLN |
Rodzaj ceny Koszt osobogodziny netto | Cena 108,63 PLN |
Prowadzący
Prowadzący
Norbert Ryciak
Informacje dodatkowe
Informacje dodatkowe
Informacje o materiałach dla uczestników usługi
materiały szkoleniowe - część teoretyczna szkolenia, slajdy - zostaną udostępnione uczestnikom na szkoleniu w formie pdf.
uczestnik otrzyma certyfikat uczestnictwa z opisem nabytych umiejętności
Warunki uczestnictwa
- Od uczestników szkolenia wymagana jest dobra (pozwalająca na swobodne pisanie nieskomplikowanego kodu) znajomość języka Python
- Ogólna wiedza z klasycznego uczenia maszynowego (problemy regresji i klasyfikacji, ogólne zasady pracy z algorytmami uczenia maszynowego)
- Podstawowa wiedza o sieciach neuronowych (strukura i mechanizm działania perceptronu wielowarstwowego, mechanizm uczenia sieci).
Informacje dodatkowe
Szkolenie będzie prowadzone zdalnie, w czasie rzeczywistym, na żywo, z trenerem, możliwością zadawania pytań.
Szkolenie składa się w 30% z wykładu teoretycznego, w 70% z warsztatów i samodzielnej pracy programistycznej.
Podczas szkolenia uczestnicy mają dostęp do czatu z trenerem, współdzielą ekran podczas części warsztatowej, żeby zaprezentować postęp swojej pracy.
Walidacja będzie bazowała na ocenie efektów samodzielnej pracy uczestników, będzie sprawdzała nabytą wiedzę teoretyczną i umiejętność jej zastosowania w praktyce.
Warunki techniczne
Warunki techniczne
szkolenie na platformie zoom, wymagane:
stabilne połączenie internetowe (zalecane min. 10Mbit/s download i 1Mbit/s upload)
przeglądarka internetowa Chrome
zainstalowana aplikacja Zoom App
dobrej jakości słuchawki oraz mikrofon (opcjonalnie) kamera internetowa
link do szkolenia zostanie przesłany uczestnikom przed szkoleniem i będzie aktywny do końca szkolenia.