Title: Initialization of MLP and FSM networks
Objective: Inicjalizacja wag w MLP i inicjalizacja parametrów
w sieciach RBF: porównanie, nowe metody oparte na klasteryzacji, użycie
całkowitych wag
Participants: Rafal Adamczak, Włodzisław Duch, Norbert Jankowski
Dates: From 1996 - present
Result(s):
- Duch W, Initialization and optimization of multilayered perceptrons,
Third Conference on Neural Networks and Their Applications, Kule, October
1997
- Duch W, Adamczak R, Jankowski N, Initialization of adaptive parameters
in density networks, Third Conference on Neural Networks and Their Applications,
Kule, October 1997 (submitted)
- Duch W, Jankowski N (1997) New neural transfer functions. Applied
Mathematics and Computer Science (in preparation, invited by the Editor)
- Duch W and Adamczak R (1996) Feature Space Mapping network for classification.
Proceedings of the Second Conference on Neural Networks and their applications,
Orle Gniazdo, 30.IV-4.V.1996, pp. 125-130
- Duch W, Jankowski N, Naud A, Adamczak R (1995) Feature Space Mapping:
a neurofuzzy network for system identification, Proc. of. Engineering Applications
of Neural Networks (EANN'95), Helsinki 21-23.08.1995, pp.221-224
- Praca w przygotowaniu na PNNS 3
Problems:
1). Dobudować możliwość użycia obroconych klasterow. Kąty nachylenia
klasterow podczas uczenia nie będą ulegały modyfikacji. Dobrać najwygodniejszy
sposób - macierze 2x2 ? Pełna parametryzacja obrotów w trakcie uczenia
- w projekcie FSM.
2). Porównać metody oparte na dendrogramach i obcięciu liczby znaczących
bitów z innymi metodami wstępnej inicjalizacji dla RBF.
3). Wyprowadzić wzory na kombinacje sigmoid i zastosować je w MLP; powstanie
niepotrzebnie skomplikowana struktura sieci - odrzucić niepotrzebne wagi
i uprościć sieć.
Working log (local
accsess only)