Sztuczne Sieci Neuronowe 2018

Deep Learning

Część wykładu Sieci Neuronowe (ostatniie 5 wykłądów) dotycząca głebokiego uczenia.

W semestrze letnim 2017/2018 wykład odbywa się w każdy wtorek g. 14-16 w sali 28 WFAiIS.

10 pierwszych wykładów - W. Duch

5 ostatnich wykładów - plik będzie aktualizowany na bieżąco w trakcie postępów wykładu.

    • Kiedy model jest głęboki?
    • Głębokie vs. „płytkie” modele, dlaczego głębokość ma znaczenie?
    • Modele hierarchiczne i uczenie się reprezentacji wiedzy
    • Przykładowe zastosowania: MNIST, CIFAR, ASR,
    • Modele end-to-end
    • Problemy uczenia głębokich sieci: niestabilny gradient, przeuczenie, koszt pamięci (ilość parametrów uczenia), koszt czasu treningu (duże dane)
    • Głębokie sieci MLP (DNN)
    • Sieci z jednostkami ReLU, Maxout - przykłady zastosowań
    • Funkcja kosztu CrossEntropy + softmax w zastosowaniu do klasyfikacji
    • Algorytm uczenia Stochastic Gradient Descent (SGD) i inne (Adam, AdaGrad, moment Nesterov'a …)
    • Do poczytania:
    • splot 1D, 2D, 3D, mapy cech, pola recepcyjne
    • warstwa pooling, max pooling, avg pooling
    • porównanie z sieciami MLP
    • sygnały wejściowe sieci konsolacyjnych: audio, obrazy, video - jedno/wielo-kanałowe
    • Przykładowe zastosowania:
      1. klasyfikacja obrazów i rozpoznawanie przedmiotów na obrazach (ImageNet, MNIST):
      2. LeNet-5, GoogleNet
      3. VGG Net
      4. ResNet