Sztuczne Sieci Neuronowe

W semestrze letnim 2024/25 wykład odbywa w poniedziałki o godz. 9:30-11:00 w sali B.1.03 (PK6).

Sztuczne sieci neuronowe - slajdy ze wszystkich wykładów w jednym pliku.
Uwaga: plik jest aktualizowany w miarę postępu wykładu.

    • CI, AI, ML, NN, DL - definicje, uporządkowanie pojęć
    • rys historyczny;
    • rodzaje uczenia: uczenie nadzorowane, nienadzorowane i uczenie z krytykiem
    • ogólnie o procesie uczenia sieci: architektura + funkcja kosztu + alg. uczenia + ocena jakości sieci
    • ogólne własności modeli neuronowych
    • Biologiczny model neuronu i inspiracje biologiczne
    • Model neuronu McCulloch-Pitts'a
    • Rodzaje sieci: jednokierunkowe, rekurencyjne, dynamiczne, konwolucyjne, …
    • Generalizacja, ewaluacja treningu, przeuczenie i niedouczenie modelu
    • Zbiór walidacyjny i metoda wczesnego zatrzymania
    • Dobór liczby neuronów sieci
    • Regularyzacja L2, L1
    • Upraszczanie sieci (pruning): metody wrażliwościowe redukcji, Optimal Brain Damage
    • Dodatkowe materiały:
    • Kiedy model jest głęboki?
    • Głębokie vs. „płytkie” modele, dlaczego głębokość ma znaczenie?
    • Modele hierarchiczne i uczenie się reprezentacji wiedzy
    • Przykładowe zastosowania: MNIST, CIFAR, ASR, …
    • Modele end-to-end
    • Problemy uczenia głębokich sieci: niestabilny gradient, przeuczenie, koszt pamięci (ilość parametrów uczenia), koszt czasu treningu (duże dane)
    • Głębokie sieci jednokierunkowe (DNN)
    • Sieci z jednostkami ReLU, modyfikacje ReLU (PReLU, ELU, ReLU6), Maxout - przykłady zastosowań
    • Algorytm uczenia SGD z momentem Nesterova, AdaGrad, RMSProp, Adam, AdaDelta
    • Do poczytania:
    • Modelowanie sekwencji za pomocą transformatorów
    • Architektura modelu, mechanizm uwagi, warstwy kodera i dekodera
    • Uczenie modelu, mechanizm uwagi, self-attention
    • Zastosowania: tłumaczenie maszynowe, generowanie tekstu, …
    • LLM, BERT, GPT
    • ViT - Vision Transformer

„Klasyczne” sieci neuronowe

Deep Learning