Tekst opracowałem na konkurs Fundacji na Rzecz Nauki Polskiej, nieco rozszerzyłem do programu Maestro.
Lista najważniejszych osiągnięć naukowych i dydaktycznych.
Pracowałem w wielu dziedzinach nauki i mam w związku z tym wyjątkowo szeroką wiedzę oraz kontakty w wielu środowiskach. Z tego powodu jestem zapraszany do oceny nietypowych projektów w 6 PR UE czy prac doktorskich lub habilitacyjnych. Poniżej wymieniam niektóre z tych dziedzin, zaczynając od tych, w których jestem najbardziej aktywny.
Inteligencja obliczeniowa (computational intelligence).
Tą nazwą określane są od końca lat 1990. liczne gałęzie informatyki stosowanej, których celem jest rozwiązywanie problemów niealgorytmizowalnych, lub efektywnie niealgorytmizowalnych. W odróżnieniu od sztucznej inteligencji, która skupia się nad problemami wymagającymi korzystania z wyższych czynności poznawczych (reprezentacji symbolicznych, myślenia, rozwiązywania problemów, języka), inteligencja obliczeniowa związana jest z niższymi czynnościami poznawczymi, percepcją, rozpoznawaniem obiektów, odkrywaniem struktur w danych, kategoryzacją, przewidywaniem, integracją sensomotoryczną, uczeniem z danych, mechanizmami uwagi i selekcji informacji. Początkowo algorytmy inteligencji obliczeniowej powstały na skutek inspiracji sposobem działania mózgu (sztuczne sieci neuronowe), genetyki i ewolucji (algorytmy ewolucyjne), oraz logiki rozmytej. Dołączyły się do tego inspiracje wywodzące się z wielu innych dziedzin, statystyki, rachunku prawdopodobieństwa, rozpoznawania wzorców (pattern recognition), psychologii poznawczej, działania układu immunologicznego, uczenia maszynowego, oraz wielu innych dziedzin. W rezultacie po początkowym okresie rozwoju IEEE Neural Network Council (NNC) przekształciło się w Neural Network Society (NNS), a następnie w 2004 roku w IEEE Computational Intelligence Society (CIS), do czego zresztą od początku intensywnie przekonywałem poprzednich prezydentów. Byłem członkiem-założycielem Polskiego Towarzystwa Sieci Neuronowych w 1994 roku i jestem członkiem jego zarządu do tej pory, biorąc aktywny udział w organizacji konferencji tego Towarzystwa, które obecnie jest mocno związane z Polskim Oddziałem (Chapterem) IEEE CIS. Od 1997 roku brałem też udział jako członek z wyboru w pracach IEEE NNC a później NNS.
W czasie IEEE World Congress on Computational Intelligence (maj 1998, ponad 1000 uczestników) zostałem zaproszony do panelu dyskusji plenarnej nad przyszłością badań w zakresie inteligencji obliczeniowej, z udziałem tak wybitnych uczonych jak Steve Grossberg (Boston University), Walter Freeman (UC Berkley) oraz Paul Werbos (NSF). Cieszę się na tyle dużym zaufaniem członków IEEE CIS, że zostałem wybrany na współorganizatora (technical co-chairman) największego, organizowanego co 4 lata, kongresu IEEE World Congress on Computational Intelligence (WCCI’2006, Vancouver, Canada), https://www.wcci2006.org/, razem z prof. Shiro Usui z RIKEN Brain Science Institute (Japonia) oraz prof José Príncipe z University of Florida, obecnym chairmanem International Neural Networks Society, INNS. W 2003 roku byłem członkiem zarządu INNS (jako jedna z 3 osób z Europy), a od 2001 roku byłem członkiem European Neural Networks Society. W 2004 roku zostałem wybrany na prezydenta ENNS na okres 2005-2007 i powierzono mi organizację ICANN, dorocznej konferencji ENNS, która odbędzie się we wrześniu 2005 w Warszawie (organizujemy ją wspólnie z prof. J. Kacprzykiem z IBS PAN). W 2003 roku byłem więc jedynym człowiekiem, który był członkiem z wyboru zarządu wszystkich trzech najważniejszych organizacji na świecie w tej dziedzinie. W 2007 roku wspólnie z prof. Enrique Ruspinim, Stanford Research International, będę co-chairmanem konferencji „Computational Intellignece in Data Mining”, w ramach IEEE Symposium Series on Computational Intelligence, Honolulu, Hilton Hawaiian Village Hotel. W ostatnich latach byłem członkiem kilkunastu komitetów najważniejszych konferencji w tej dziedzinie i jestem członkiem redakcji 10 pism specjalistycznych, chociaż z braku czasu zwykle musze odmówić w angażowanie się w nowe inicjatywy.
Kiedy zacząłem się zajmować metodami inteligencji obliczeniowej na początku lat 1990 odkryłem dwa ważne, ale niestety wcześniej znane algorytmy: sieci Radialnych Funkcji Bazowych (RBF) w pracy Duch W (1994) Floating Gaussian Mapping: a new model of adaptive systems, Neural Network World 4:645-654; oraz Skalowanie Wielowymiarowe (Multidimensional Scaling, MDS), w pracy Duch W (1995) Quantitative measures for the self-organized topographical mapping. Open Systems and Information Dynamics 2:295-302. Obydwie prace, chociaż odkrywają ponownie znane metody, napisane są z całkiem odmiennego punktu widzenia niż znane prace w tej dziedzinie. Prace nad sieciami RBF zakończyły się doktoratem Norberta Jankowskiego na temat sieci ontogenicznych, a prace nad MDS zakończyły się doktoratem Antoine Nauda nad metodami wizualizacji danych.
Do najważniejszych osiągnięć naukowych w tej dziedzinie zaliczam:
- Opracowanie nowego, konstruktywistycznego algorytmu sieci neurorozmytej Feature Space Mapping (FSM), opisanego w pracy Duch W, Diercksen GHF (1995) Feature Space Mapping as a universal adaptive system. Computer Physics Communications 87: 341-371. Model ten, oparty na oryginalnych pomysłach inspirowanych moim podejściem do opisu działania umysłu jako uproszczenia neurodynamiki, został rozwinięty w pracy doktorskiej Rafała Adamczaka.
- Opracowanie nowego drzewa decyzji opartego na kryterium separowalności, idei rozwiniętej w pracy doktorskiej Krzysztofa Grąbczewskiego i w szeregu napisanych z nim wspólnie prac. Jest to drzewo porównywalne z klasycznymi modelami, takimi jak CART i C4.5, uczone przez kroswalidację, pozwalające na stosowanie całkiem kryteriów opartych na odległościach od prototypów, tworzenie lasu drzew i wybieranie różnych modeli o zbliżonej dokładności, pozwalające na ranking i dyskretyzację cech, stosującego szukanie wiązką i mające wiele innych zalet.
- Opracowanie nowej metodologii ekstrakcji reguł logicznych z danych za pomocą klasycznych sieci neuronowych typu perceptronów wielowarstwowych. Metody rozumienia struktury danych (data understanding) stały się naszą specjalnością i opublikowaliśmy na ten temat ponad 30-stronicową prace w IEEE Transactions on Neural Networks [33], wprowadzając w niej wiele nowości; wynikiem były liczne zaproszenia do wygłaszania 2-4 godzinnych tutoriali na najlepszych konferencjach w tej dziedzinie, np. International Joint Conference on Neural Networks (IJCNN) Włochy 2000, USA 2001, International Conference on Neural Information Processing (ICONIP), Korea 2000, Turcja 2003, International Conference on Artificial Neural Networks (ICANN) 2001, Austria, World Congress of Computational Intelligence (WCCI), USA 2002, International Conference on Intelligent Sensing and Information Processing (ICISIP), India 2004. Efektem było też zaproszenie do napisania pracy dla Proceedings of the IEEE, najbardziej prestiżowego pisma w tej dziedzinie. Praca [5] znalazła się na okładce numeru, opatrzona została prologiem przez redakcję i została właśnie wysunięta do nagrody The IEEE Donald G. Fink Prize Paper Award. Współautorami jest Rudy Setiono z Singapuru oraz Jacek Żurada (obecny prezydent IEEE CIS); w pracy wyraźnie zaznaczono, że opiera się ona przede wszystkim na wynikach mojego zespołu.
- Zrozumienie struktury danych przez zastosowanie reguł logicznych nie zawsze da się osiągnąć, gdyż skomplikowane dane mogą nie mieć prostej struktury logicznej. Analizując funkcje realizowane przez sieci neuronowe znalazłem sposób na wizualizacje ich zachowania i w ostatnich pracach [8,9,16] pokazałem jak wiele wniosków wyciągnąć można na temat danych jak i sposobu działania samej sieci neuronowej. Prace te pokazują, że najważniejszy zarzut przeciwko sieciom neuronowym – są to czarne skrzynki wykonujące niezrozumiałe operacje – przestał być słuszny. Proponowane przez mnie metody wizualizacji do oceny realizowanych przez sieci neuronowe funkcji powinny znaleźć się w każdym symulatorze sieci neuronowych. Wizualizacja reprezentacji wewnętrznych oraz trajektorii na uczenia się na powierzchniach błędów [2] prowadzi do wielu wniosków pozwalających usprawnić sam proces uczenia. Jestem w trakcie pisania dłuższej pracy na ten temat.
- Inna możliwością zrozumienia struktury danych jest szukanie dobrych prototypów i tworzenie reguł prototypowych, czyli P-reguł [36]. Jest to temat pracy doktorskiej mgr Marcina Blachnika. Udało się nam pokazać [10,13] równoważność wielu podejść opartych na P-regułach z funkcjami przynależności w systemach rozmytych. Wzajemne relacje są bardzo interesujące, pozwalają bowiem na tworzenie nowych funkcji odległości odpowiadających znanym funkcjom przynależności, jak i odwrotne, szukanie nowych funkcji przynależności odpowiadających znanym funkcjom odległości, w tym funkcjom odległości określonym na danych symbolicznych za pomocą probabilistycznych funkcji podobieństwa, czego nie można zrobić w systemach rozmytych. Optymalizacja funkcji odległości i położeń prototypów stanowi interesująca alternatywę dla systemów neurorozmytych, dlatego badamy związki pomiędzy uczeniem się perceptronów a uczeniem się prototypów oraz możliwości wykorzystania drzew decyzji do znalezienia dobrych prototypów; udało się w ten sposób znaleźć najprostszy znany opis kilku medycznych bazy danych [25]. Podejrzewamy, że teoria P-reguł będzie bardziej ogólna niż teoria systemów rozmytych i pozwoli stworzyć obszerniejsza dziedzinę badań. Ostatnio zbadałem też związki pomiędzy niepewnością pomiaru danych a typem reguł [4], co stanowi prostsze podejście niż używanie reguł rozmytych drugiego typu.
- Podjąłem próbę opracowania ogólnej teorii systemów uczących się w oparciu o koncepcję podobieństwa w szeregu prac opublikowanych samodzielnie i z współpracownikami [37,43,46,47,51,64], podając schemat, pozwalający na rozszerzanie istniejących metod przez dodanie jakościowo nowych procedur i parametrów; w efekcie, chociaż nie można za pomocą pojedynczego systemu osiągnąć zawsze najlepszych wyników na wszystkich danych, w ramach schematu metod opartych na podobieństwie, powalającego na szukanie najlepszych modeli, powinno to być możliwe. Idea ta została częściowo zaimplementowana w programie Similarity Based Learner przez Karola Grudzińskiego w ramach jego pracy doktorskiej [24,35]. Doprowadziła mnie również do odkrycia równoważności pewnej klasy modeli opartych na podobieństwie z sieciami neuronowymi (zarówno RBF jak i MLP, praca [47] i wcześniejsza Duch W, Adamczak R, Diercksen GHF (1999) Neural Networks in non-Euclidean spaces. Neural Processing Letters 10: 201-210).
- W rezultacie rozważań nad uczeniem opartym na podobieństwie zaczęliśmy pracować nad uogólnianiem istniejących systemów inteligencji obliczeniowej i wprowadziliśmy idę systemów heterogenicznych [25,30,39-41]. Podobnie jak w układach opartych na podobieństwie możemy używać różnych funkcji podobieństwa dla różnych prototypów (przypisujemy różne wagi odmiennym cechom, w zależności od rozpoznawanego obiektu), tak i w drzewach decyzji możemy stosować różne typy testów na różnym etapie rozpoznawania (heterogeniczne drzewa decyzji [25,30]), a w sieciach neuronowych różne typy funkcji realizowanych przez węzły [39]. Przeprowadziliśmy systematyczne badania typów takich funkcji z Norbertem Jankowskim (praca Duch W, Jankowski N (1999) Survey of neural transfer functions, Neural Computing Surveys 2: 163-213). Początkowo badania te spotkały się z niedowierzaniem środowiska (ważne były tylko architektury i metody uczenia), ale obecnie zrozumienie wagi tego aspektu wzrasta. Zorganizowaliśmy na temat systemów heterogenicznych sesję specjalną na konferencji European Symposium on Artificial Neural Networks w Belgii w 2000 roku i opublikowaliśmy na ten temat szereg prac.
- Algorytmy inteligencji obliczeniowej opracowane w moim zespole (N. Jankowski, K. Grąbczewski, A. Naud, R. Adamczak) zostały zintegrowane w postaci systemu Ghostminer do dogłębnej analizy danych (2002-2005), dzięki współpracy z firmą FQS Poland (oddział japońskiego Fujitsu) opracowaliśmy komercyjna wersję tego pakietu, której stronę WWW można znaleźć pod adresem: https://www.fqspl.com.pl/ghostminer/. Licencję na ten program ma miedzy innymi Abbott Laboratories, firma bioinformatyczna z USA, która ma najwięcej patentów w naukach o życiu. Ocena wersji GhostMiner 1.0 w artykule: D. Haughton, J. Deichmann, A. Eshghi, S. Sayek, N. Teebagy, H. Toppi, The American Statistician, Vol. 57(4) (2003) 290-309, w towarzystwie takich programów jak SPSS Clementine oraz SAS Enterprise Miner wypadła całkiem pomyślnie, a od tego czasu powstała już wersja GhostMiner 3.0 o znacznie większych możliwościach. W najpoważniejszym konkursie analizy danych bioinformatycznych i tekstowych (NIPS) 2003 Feature Selection Challenge, zorganizowanym w czasie konferncji Neural Information Processing Symposia w Kanadzie GhostMiner zajął 3 miejsce (na 78 uczestników, będąc jedynym systemem, nadającym się do powszechnego użytku. Dane zawierały do 100.000 cech i tysięcy przypadków, zajmując po kilkadziesiąt megabajtów. Zostaliśmy zaproszeni do napisania 3 rozdziałów w najlepszej książce na temat selekcji informacji, która ukazała się w 2006 roku [6] pod redakcją I. Guyon, S. Gunn, M. Nikravesh, L. Zadeh.
- Praca nad systemami heterogenicznymi oraz mnogość systemów uczących, opracowanych w moim zespole i zawartych obecnie w rozwijanym przez nas pakiecie GhostMiner, doprowadziła nas do ogólnych zagadnień dotyczących meta-uczenia [24,35]. Łatwo jest tworzyć kolejne modele uczące się, np. dodając nowe transformacje danych, zmieniając funkcję oceny postępów uczenia, modyfikując testy, funkcje podobieństwa, funkcje przynależności czy transferu, tworząc komitety czy poprawiając wyniki stosując idee statystyczne takie jak boosting. Nad wieloma aspektami tych zagadnień pracowaliśmy sami [np. 20,26,37,53,57], ale analiza danych na konkurs NIPS pokazała konieczność tworzenia złożonych modeli, których odkrywanie wymaga meta-wiedzy wynikającej z doświadczenia, długotrwałych eksperymentów komputerowych. Zalążki meta-uczenia mieliśmy w systemach heterogenicznych i opartych na podobieństwie, teraz pracujemy nad ogólnymi zasadami meta-uczenia, które pozwolą na automatyczne odkrywanie zbioru modeli o różnych zaletach. Rezultaty zawarte są w naszych nowszych publikacjach, a szczególnie książkach [7] i [8] oraz w monografii habilitacyjnej N. Jankowskiego, książka [9].
- Bardzo obiecująco wyglądają wspomniane w pracy [30] metody uczenia sieci neuronowych i ekstrakcji reguł oparte na systematycznym szukaniu. Metody te zostały systematycznie przebadane w pracy doktorskiej Mirosława Kordosa [2,7,14,17,18], która powinna zostać obroniona w połowie 2005 roku. W odróżnieniu od różnych metod stochastycznych, takich jak algorytmy genetyczne, metody stopniowego studzenia, modne obecnie metody rojowe i wiele innych, najprostsze rozwiązania są tu znajdowane szybko i tanio (z obliczeniowego punktu widzenia). Metody te powinny więc stanowić punkt odniesienia dla bardziej wyrafinowanych metod, włączając w to tradycyjną wsteczną propagację.
- Przy współpracy z dr Jackiem Biesiadą i dr Adamem Kachelem z Politechniki Śląskiej opracowaliśmy cały szereg filtrów do selekcji informacji [13,19,23,31], opartych na teorii informacji, statystyce oraz algorytmach szukania optymalnych podzbiorów cech. Powstała w ten sposób biblioteka programów do selekcji i dyskretyzacji danych zostanie udostępniona publicznie w tym roku. Zostanie ona wkrótce rozszerzona o metody agregacji cech, a nie tylko selekcji, oparte o znane (PCA, ICA) i nowe metody uczenia bez nadzoru.
- Metody semantycznego szukania informacji rozwijane są przy współpracy z Department of Biomedical Informatics (kierowanym przez Johna Pestiana) z Cincinati Children’s Hospital Research Foundation, Ohio, USA, głównie pod kątem szukania informacji w zgromadzonych tam medycznych bazach danych. Opublikowaliśmy na ten temat kilka prac [12,70,71]. Chciałbym tu połączyć metody analizy tekstów z modelami pamięci rozpoznawczej, semantycznej i epizodycznej. W tym projekcie pracuje dwóch moich doktorantów, przebywających na dłuższych stażach w tym ośrodku. W pracy [3] opisaliśmy nowe podejście do rozpoznawania obiektów przez uściślanie werbalnych pytań, np. w grach słownych takich jak gra w 20 pytań. Badamy możliwości automatycznej konstrukcji najprostszej reprezentacji koncepcji, która będzie przydatna w tego typu zastosowaniach. Przy współpracy Instytutem Podstaw Informatyki PAN wystąpiliśmy wspólnie z wnioskiem o utworzenie Centrum Doskonałości w zakresie metod inteligencji obliczeniowej do analizy tekstów.
- Rozwój teorii w oderwaniu od praktyki często prowadzi na manowce, dlatego staramy się mocno stać na ziemi i napisaliśmy cały szereg prac aplikacyjnych. Wiele rezultatów stanowiących punkt odniesienia dla innych autorów zawartych jest w pracach [5,33], praca [21] dotyczy współpracy z archeologami nad datowaniem artefaktów, prace [52,54] zagadnień relacji pomiędzy strukturą związków chemicznych a ich aktywnością, praca [65] analizy szeregów czasowych obrazów z fMRI. Pozostałe aplikacje dotyczą zastosowań medycznych. W 1999 roku powierzono mi organizację 5-tej konferencji Engineering Applications of Neural Networks Conference, która odbyła się w Warszawie.
- W 2003 roku zostałem zaproszony przez grupę zajmująca się percepcją maszyn firmy DaimlerChrysler AG, RIC/AP (Machine Perception Group), do udziału w projekcie nad „natychmiastowym uczeniem” struktur obrazów. Ma to być projekt w ramach FET (Future Emerging Technologies) w 6 Programie Ramowym UE, ale rozwija się powoli, gdyż tworzona jest baza danych z ręczną segmentacją i opisem obrazów. Wygłaszałem szereg referatów na uczelniach technicznych, np. w Auli Akademii Górniczo-Hutniczej w Krakowie (1998) i wielu innych miejscach w kraju i za granicą.
Zastosowania biomedyczne metod inteligencji obliczeniowej.
- Firma Bayer Diagnostics z Terrytown pod Nowym Jorkiem (część koncernu Bayern) zaprosiła mnie w 2002 roku do poprowadzenia workshopu: „Neural networks as an aid in medical diagnostics”, w czasie Bayer Diagnostic Lab Symposium, które odbyło się w Berlinie. Tego samego roku wygłosiłem też referat dla pracowników tej firmy w Terrytown. Bayern Diagnostics produkuje urządzenia do analiz hematologicznych, gromadzi bazę danych, do których mamy nadzieje mieć w przyszłości dostęp.
- Przy współpracy z psychologami klinicznymi opracowaliśmy system do automatycznej analizy danych z kwestionariuszy psychometrycznych. System ten składa się z modułu skanującego i przeliczającego dane z drukowanych kwestionariuszy (alternatywnie można zrobić test komputerowy) oraz modułu wizualizacji, klasyfikacji i interpretacji danych. Przeanalizowaliśmy około 3000 diagnoz psychometrów i na tej podstawie utworzyliśmy za pomocą naszych technik reguły logiczne, pozwalające na szczegółową interpretację. Wyniki naszych badań nad klasyfikacją danych psychometrycznych zawarte są w liczącej 650 stron książce [4] (napisanej w języku polskim, gdyż wyniki testu MMPI-2, użytego przez psychologów, stosują się do populacji polskiej). Wyniki te były przedstawiane na V Europejskim Kongresie Psychologii w Dublinie, oraz na spotkaniach Polskiego Towarzystwa Psychologicznego przez mgr Kucharskiego.
- W serii „Biocybernetyka i Inżynieria Biomedyczna 2000” wydaliśmy książkę: Duch W, Korbicz J, Rutkowski L, Tadeusiewicz R (2000) Tom 6: Sieci neuronowe. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2000, str. 850, w której 6 rozdziałów napisanych zostało przeze mnie i pracowników mojej Katedry. Byłem zapraszany na posiedzenia Sekcji Informatyki Biomedycznej Komitetu Biocybernetyki i Inżynierii Biomedycznej PAN już od 1994 roku. Kierowana przez mnie Katedra znajduje się w wykazie jednostek naukowych zajmujących się biocybernetyką. Praca doktorska Norberta Jankowskiego została obroniona z wyróżnieniem przed komisją Rady Naukowej Instytutu Biocybernetyki i Inżynierii Biomedycznej (IBIB) PAN w 1997 roku. Prowadzimy regularną współpracę z IBIB organizując wspólnie konferencje, sesje specjalne na konferencjach, recenzowałem też trzy prace habilitacyjne dla Rady Naukowej IBIB. Na zaproszenie organizatorów konferencji International Seminar on Statistics and Clinical Practice (IBIB PAN) wygłosiłem kilka razy referaty na temat analizy danych medycznych.
- Na zaproszenie redakcji pisma Kardiologia Polska napisałem artykuł Rewolucja informatyczna w medycynie (1998). Na konferencji sieci neuronowych zorganizowaliśmy również sesję specjalną poświęconą różnym metodom analizy danych „Hepar”, zbieranych w ciągu długiego okresu czasu przez specjalistów z Warszawy, dotyczących chorób wątroby. Jednakże należy w tym celu zastosować hierarchiczne metody klasyfikacji, co wymaga odpowiedniego opisania danych przez ekspertów.
Kognitywistyka (nauki o poznaniu):
Ten kierunek badań w Polsce zaczał się rozwijać doperio niedawno, udało się nam 3 lata temu otworzyć kierunek studiów w tym zakresie, prowadzony przez Wydział Humanistyczny prze naszej współpracy. Nauki kognitywne zmierzają do zrozumienia mechanizmów poznawczych człowieka. Moje wysiłki idą tu w kilku kierunkach:
- W dotychczas spotykanych podejściach brakuje jednolitego ujęcia, centralnej teorii jednoczącej wysiłki nauk kognitywnych. Zarysy takiej teorii podałem w 1997 roku w dłuższym artykule Duch W (1997) Platonic model of mind as an approximation to neurodynamics, w książce: Brain-like computing and intelligent information systems, ed. S-i. Amari, N. Kasabov (Springer, Singapore 1997), rozdz. 20, str. 491-512. Opiera się ona na systematycznym badaniu ciągu przybliżeń, począwszy od pojedynczych komórek nerwowych do neurodynamiki większych grup neuronów, aż do opisu zachowania organizmu w przestrzeniach psychologicznych, w których zdarzenia interpretowane są jako subiektywne stany umysłu. Nowsza wersję modelu przedstawiłem w pracy [32] skierowanej do środowiska fizyków. Proponuje w niej wprowadzenie idei geometrycznych do opisu neurodynamiki na poziomie globalnym, który jest skorelowany z przeżywaniem świadomych wrażeń i nawiązuję do teorii geometrycznych w psychologii „osobistych konstruktów” Georga Kelly i poszukiwania uniwersalnych praw percepcji przez Rogera Shepharda. Podobne ujęcie zawarłem w skierowanej do psychologów pracy [85,86].
- Ten nurt badań bardzo się rozwinął w ostaniach latach dzięki opracowaniu metod wizualizacji neurodynamiki, w oparciu o wprowadzoną przez mnie rozmytą dynamikę symboliczną [87,88].
- Zajmowałem się zastosowaniem modeli przestrzeni psychologicznych do zagadnień kategoryzacji w psychologii, przedstawiając interpretację intrygujących doświadczeń psychologicznych z dwóch stron, z punktu widzenia psychologii i neurodynamiki. W ostatnich latach modele neuronowych sieci atraktorowych znalazły szerokie zastosowanie w modelowaniu chorób psychicznych i syndromów neuropsychologicznych. Napisałem na ten temat przeglądowych artykuł [63]. Próby wyciągnięcia wniosków dla terapii osób chorych na Alzheimera przedstawiłem w pracy [44] i wygłosiłem na temat komputerowych modeli w psychiatrii kilka referatów, między innymi w Instytucie Psychiatrii Politechniki Monachijskiej, oraz na zebraniu lokalnego oddziału Polskiego Towarzystwa Psychiatrycznego w Toruniu. W efekcie zostałem zaproszony przez redaktora naczelnego „Wiadomości Psychiatrycznych” (dr hab. S. Sidorowicza) do współpracy i recenzowania artykułów dotyczących metod komputerowych w psychiatrii, jest to jednak nadal dziedzina w Polsce bardzo egzotyczna.
- W pracy [1] podałem założenia dla minimalnej architektury systemu, który z powodu swojej konstrukcji musi interpretować swoje stany w terminach „jakości wrażeń” (qualia) i twierdzić, że jest świadomy. Dyskusje dotyczące świadomości rozbijają się o trudności definicyjne. W tej pracy podałem odwrotny argument, oparty na konstrukcji systemu, który niezależnie od definicji świadomości musi się ze swoje natury zachowywać tak jak świadoma istota. Na zaproszenie redaktora Encyklopedii Multimedialnej (PWN 2001) prof. S. Kasickiego z Inst. Biologii Eksperymentalnej PAN napisałem artykuł “Psychika i świadomość” [42]. Praca „Świadomość i dynamiczne modele działania mózgu” ukazała się w piśmie Neurologia i Neurochirurgia Polska.
- Jestem członkiem redakcji ważnych w naukach kognitywnych pism „Behavioral and Brain Sciences” (BBS associate) oraz „Journal of Mind and Behavior” (assessing editor). BBS wydrukowało w ostatnich latach trzy moje komentarze [15,34], które przechodzą przez podwójny system recenzji (najpierw trzeba otrzymać zaproszenie po wysłaniu propozycji napisania komentarza, a potem dostaje się właściwe recenzje). W 1998 roku udało się nam stworzyć nowe pismo, „Kognitywistyka i media w edukacji” (jestem przewodniczącym Rady Naukowej tego pisma). Był to pierwszy krok w kierunku nadania tożsamości badaniom kognitywnym w Polsce. Zorganizowaliśmy też serie konferencji na temat kognitywistyki, współpracując z UAM w Poznaniu, UJ w Krakowie i IFiS PAN w Warszawie.
- W pracy [11] podałem szkic zupełnie nowej drogi do tworzenia systemów inteligentnych o wzrastającym stopniu złożoności. Jednocześnie podałem szkic rozwiązania problemu automatyzacji uczenia się umiejętności, w którym świadome czynności powoli stają się automatyczne. Zostaliśmy zaproszeni do udziału w bardzo ambitnym projekcie ABACCUS, Attention-Based Artificial Cognitive Control Understanding System, stworzenia symulatora głównych struktur mózgu i użycia go do kontroli robota. Projekt zakrojony na 5 lat miał być koordynowany przez prof. Johna Taylora z King’s College London, przy udziale 7 grup badawczych z 5 krajów. Wysłany został do programu FET 6 PR w ramach Proactive Call FP6-2004-IST. Naszym zadaniem jest głównie podsystem uczenia i pamięci oraz nabywania umiejętności motorycznych. W 2010 roku powstały z mojej inspiracji projekt "Mind and Brain" na jeszcze większa skalę, wysłaliśmy do programu FET Flagships, w którym dwa projekty otrzymają 100 mln euro, ale nie został on zakwalifikowany, zwyciężył projekt "Human Brain Simulation", który w mojej opinii miał mniejszą wartość naukową ale większą propagandową.
- W pracy [22] podałem prawdopodobne wyjaśnienie obserwowanych od 30 lat zagadkowych korelacji pomiędzy intencjami operatorów a zdarzeniami przypadkowymi.
- W 1997 roku pracowałem w Instytucie Badań Psychologicznych Maxa Plancka w Monachium nad integracją sensomotoryczną. Nawet dla tak prostych zjawisk jak koordynacja ruchów ręki i sakadycznych ruchów oka w ściśle kontrolowanym eksperymencie trudno jest zrobić modele neuronowe pozwalające na przewidywanie czasów reakcji i czasów latencji. Utrzymuję regularne kontakty z Instytutem Biologii Eksperymentalnej PAN im. M. Nenckiego (prof. A. Wróbel i prof. S. Kasicki). Byłem dwukrotnie wykładowcą na szkole Polskiego Towarzystwa Badań Układu Nerwowego i brałem udział w imprezach z okazji „Światowego tygodnia mózgu”, czego podsumowaniem była debata opisana w [69] i zaproszenie do napisania pracy [42].
- Napisałem kilka prac z filozofii umysłu, zadając istotne pytania dotyczące natury ludzkiej, np. w ostatnich latach prace [68,73-76], publikowałem też pracę dotyczącą staroindyjskiej filozofii Madhyamika i realizmu [72].
- W 2002 roku przyznano mi patent na „Układ aktywnego stymulatora ośrodków mowy, zwłaszcza niemowląt i dzieci.” BUP nr: 99/03 str.73, Patent 184102. Dotyczy on układu, który wykorzystując sprzężenie zwrotne aktywnie wpływa na rozwój ośrodków mowy w mózgu dziecka. Rozszerzona wersja tego patentu złożona została przez mnie w Cincinnati Children’s Hospital Research Foundation, gdzie zamierzamy prowadzić badania nada efektami jego stosowania.
- Jako pierwszy opisałem agnozje wyobrażeniowe, w tym amuzję wyobrażeniową, jeden z głównych tematów grantu Maestro [78-80].
- Wprowadziliśmy zupełnie nowy język opisu zaburzań psychicznych, w szczególności nowe hipotezy dotyczące autyzmu i ADHD, opisując zaburzenia synchronizacji neuronów w sieciach realizujących funkcje poznawcze po uszkodzeniu kanałów jonowych [81-82].
- Opublikowaliśmy pionierskie prace na temat kreatywności komputerowej, mamy również serwer wymyślający nowe nazwy w większości pokrywające się z twórczą działalnością ludzi w tym zakresie [83-84].
- Wygłosiłem na tematy związane z kognitywistyką wiele referatów na konferencjach filozoficznych oraz psychologicznych. do najważniejszych należy referat na III Congress of Analytical Philosophy, Monachium (1997) na zaproszenie organizatorów (Platonic theory of mind - some philosophical questions), oraz referat na konferencji American Neopragmatism. A conference honoring Hilary Putnam's philosophy, Toruń 1998 (What constitutes a good theory of mind?). Na międzynarodowej konferencji „Neural networks and their applications” (Orle Gniazdo, 1996) przedstawiłem 4-godzinny tutorial na temat modelowania funkcji mózgu. Na Wydziale Psychologii Uniwersytetu Warszawskiego (1997) wygłosiłem referat na temat komputerowych modeli umysłu. Na zaproszenie i koszt organizatorów wygłosiłem też referaty na konferencjach „Workshop on Biology as a Source of Inspiration for Technology”, zorganizowanej przez Agora for Biosystems (KTH) w Sztokholmie, 1997 (Neurofuzzy system inspired by a model of mind), oraz konferencji „Bio-inspired Computational Models of Learning and Memory”, Lejondal Castle, Stockholm 2002 (Attractor neural networks and concept formation in psychological spaces), na 4th European Transpersonal Conference (Warszawa 1997) oraz European Transpersonal Conference (Oslo 1998) wygłosiłem na zaproszenie organizatorów referaty plenarne i byłem członkiem plenarnego panelu dyskusyjnego. Poza konferencjami wygłosiłem szereg referatów na temat neurofilozofii i rozumienia natury świadomości, na zaproszenie Polskiego Towarzystwa Filozoficznego UAM, Forum Filozoficznego (Lublin, 2004), Instytutu Filozofii i Socjologii PAN w Warszawie (2002, 2004), oraz za granicą :University of Konstanz 2000, Neurophilosophical solution to the hard problem of consciousness; w Department of Artificial Intelligence and Cognitive Science, Chukyo University, w Nagoya, Japonia (1994,1996) i wielu innych ośrodkach badawczych.
Fizyka komputerowa i mechanika kwantowa:
- W zakresie metod obliczeniowych fizyki za najważniejsze osiągnięcie uważam rozwijaną w latach 1978-85, początkowo wspólnie z prof. Jackiem Karwowskim z IF UMK, teorię Symmetric Group Graphical Approach (SGGA), opisaną w książce [1], która nadal znajduje ważne zastosowanie w metodach obliczeniowych fizyki molekularnej i chemii teoretycznej. W oparciu o SGGA powstały duże systemy programów komputerowych w Monachium (MPA i niezależnie na Ludwig Maximillian Universitat), na uniwersytecie Rheinishen Friedrich-Wilhelms-Universitat w Bonn (Niemcy) i UCLA (Los Angeles, Kalifornia). Ostatnia praca z tego cyklu, napisana z J. Mellerem, pojawiła się w 1999 roku.
- Przy końcu lat 1980 napisałem kilka prac na temat paradoksów kwantowych, np. Duch W (1988) Schrödinger's thoughts on perfect knowledge. In: The Concept of Probability, Ed. Bitsakis EI and Nicolaides CA (Kluwer Academic Publishers), pp. 5-14; Duch W (1988) Violation of Bell's inequalities in interference experiments. in: Open Problems in Physics (World Scientific, Singapore), pp. 483-486. Prace te miały duży wpływ na zainteresowanie zagadnieniami splatania cząstek fizyków w Polsce; z tego typu badań wyrosła informatyka kwantowa. Wycofałem się z tej dziedziny po napisaniu pracy „Complementarity, Superluminal Telegraph and the Einstein-Podolsky-Rosen Paradox” w 1989 roku, która nie została przyjęta do druku przez dwa pisma specjalistyczne; w 1993 roku dokładnie takie same obliczenia przedstawiła grupa fizyków z Berkeley University, przeprowadzając jednocześnie eksperymenty. Chociaż wycofałem się z tej działalności w pracy [22] przedstawiłem szkic kognitywnego rozumienia sensu mechaniki kwantowej, który wydaje mi się ciekawy i zamierzam go rozwinąć (podobnie jak Lakoff i Nunez rozwinęli w 2000 roku kongitywne podejście do filozofii matematyki).
- Zostałem wybrany na członka Sekcji Fizyki Komputerowej Komitetu Fizyki Polskiej Akademii Nauk (1996) i wiceprzewodniczącego tej sekcji (2001); na zebraniach tej sekcji oraz konferencji Polskiego Towarzystwa Fizycznego wygłaszałem referaty na temat symulacji pamięci biologicznej. Byłem też członkiem komitetu naukowego dużej międzynarodowej konferencji Physics Computing, Kraków (1996) i innych konferencji.
Osiągnięcia dydaktyczne:
- Pod moją opieką 38 osób napisało prace magisterskie (koniec 2011 roku). Byłem promotorem pracy doktorskiej 9 osób, z których jedna już się habilitowała, trzy są w trakcie habilitacji, wszystkie pracują naukowo. Byłem opiekunem wielu kandydatów na doktorów, ale większość z zaczynających w latach 1990 zrezygnowała po krótkim czasie (czasami dopiero po roku lub dwóch) podejmując prace w różnych firmach lub wyjeżdżając za granicę.
- Obecnie (początek 2012 roku) opiekuję się 8 doktorantami, sporą grupą magistrantów, oraz jednym doktorantem w School of Computer Engineering, Nanyang Technological University, Singapur.
- W latach 1992-95 koordynowałem grant „Computer Based Education” finansowany przez biuro TEMPUS. W ciągu 3 lat korzystając z tego grantu wyjechało w sumie 125 osób, w tym: 45 studentów oraz 80 pracowników zaś do Torunia przyjechało 21 osób. W ramach projektu utworzono laboratoria komputerowe w ekonometrii, klimatologii, pracownię GIS w biologii, laboratorium chemii teoretycznej w chemii, laboratorium komputerów SUN dla fizyki komputerowej, laboratorium komputerowe II w Inst. Fizyki, oraz częściowo laboratorium specjalizacji komputerowej w Instytucie Pedagogiki Laboratorium, laboratorium PC dla nauczania statystyki (Inst. Matematyki) i laboratorium multimedialne (Zakład Dydaktyki Inst. Fizyki).
- W Department of Engineering, University of Tokyo (1994), przeprowadziłem 24-godzinny kurs na temat opracowanych przez nas metod obliczeniowych dla potrzeb fizyki molekularnej (Symmetric Group Graphical Approach), na który prof. Shigeru Yamamoto przyjechał aż z Nagoi, a później dołączył się do grupy z Instytutu Astrofizyki Maxa Plancka (MPA) w Monachium, w której wówczas pracowałem.
- Od 2003 roku prowadzę kurs dla doktorantów i magistrantów (około 35 osób) „Theory and applications of computational intelligence methods” w Computer Engineering School, Nanyang Technological University, Singapur.
- Napisałem dwie książki „Fascynujący świat komputerów” i „Fascynujący świat programów komputerowych” (1997), które bardzo przypominają podręczniki używane w Australii i na Nowej Zelandii do nauczania podstaw nauk o informacji. W 1997 roku pracowałem przez dwa tygodnie w Information Science Department, Knowledge Engineering and Computational Intelligence Laboratory, University of Otago, Nowa Zelandia, publikując wspólną pracę z dyrektorem tego laboratorium.
- Byłem kierownikiem grantu Fundacji Batorego „Szkolenie w zakresie wykorzystania INTERNETU w praktyce medycznej”, oraz grantu KBN Systemy uczące się w zastosowaniu do analizy danych medycznych i psychometrycznych.
- Od 1994 roku byłem współorganizatorem Konwersatorium Kognitywnego na UMK.
- Opracowałem liczne wykłady a z moich materiałów do 6 wykładów oraz uzupełnień do książek, wystawionych w Internecie, korzysta wiele osób.
Publikacje na które powołuję się w opisie:
[1] Duch W, Brain-inspired conscious computing architecture. Journal of Mind and Behavior, 26(1-2), 1-22, 2005.
[2] Kordos M, Duch W, A Survey of Factors Influencing MLP Error Surface. Control and Cybernetics 33(4): 611-631, 2004
[3] Duch W, Szymanski J, Sarnatowicz T, Concept description vectors and the 20 question game. Advances in Soft Computing, Springer, 41-50, 2005.
[4] Duch W (2005) Uncertainty of data, fuzzy membership functions, and multi-layer perceptrons. IEEE Transactions on Neural Networks 16(1): 10-23
[5] Duch W, Setiono R, Żurada J (2004) Computational intelligence methods for understanding of data. Proceedings of the IEEE 92(5), 771- 805
[6] Duch W (2005) Filter Methods. W: Feature extraction, foundations and applications. Eds: I. Guyon, S. Gunn, M. Nikravesh, L. Zadeh, Springer Verlag, 89-118, 2006
[7] Kordos M, Duch W (2004) On Some Factors Influencing MLP Error Surface. Lecture Notes in AI Vol. 3070, 217-222.
[8] Duch W (2004) Visualization of hidden node activity in neural networks: I. Visualization methods.
Lecture Notes in AI Vol. 3070, 38-43
[9] Duch W (2004) Visualization of hidden node activity in neural networks: II. Application to RBF networks. Lecture Notes in AI 3070, 217-222
[10] Duch W, Blachnik M (2004) Fuzzy rule-based systems derived from similarity to prototypes. Lecture Notes in Computer Science, Vol. 3316, 912-917.
[11] Duch W, Mandziuk J (2004) Quo Vadis Computational Intelligence? In: Machine Intelligence. Quo Vadis? Advances in Fuzzy Systems - Applications and Theory - Vol. 21, World Scientific, pp. 3-28.
[12] Pestian J, Itert L, Duch W (2004) Development of a Pediatric Text-Corpus for Part-of-Speech Tagging, Advances in Soft Computing, Springer Verlag, pp. 219-226.
[13] Duch W, Wieczorek T, Biesiada J, Blachnik M (2004) Comparison of feature ranking methods based on information entropy. Proc. of Int. Joint Conf. on Neural Networks (IJCNN), Budapest 2004, IEEE Press, pp. 1415-1420
[14] Kordos M, Duch W (2004) Variable step size search algorithm for MLP training. The 8th IASTED Int Conf. on Artificial Intelligence and Soft Computing (ASC 2004), Marbella, Spain, pp. 215-220.
[15] Duch W (2003) Just bubbles? Commentary on Steven Lehar, Gestalt Isomorphism and the Primacy of Subjective Conscious Experience: A Gestalt Bubble Model.
Behavioral and Brain Sciences Vol. 26(4), 410-411
[16] Duch, W (2003) Coloring black boxes: visualization of neural network decisions. Int. Joint Conference on Neural Networks (IJCNN), Portland, Oregon, IEEE Press, Vol. I, pp. 1735-1740.
[17] Kordos M, Duch, W (2003) Multilayer Perceptron Trained with Numerical Gradient. Proc. Joint Int. Conf. on Artificial Neural Networks (ICANN) and Int. Conf. on Neural Information Processing (ICONIP), Istanbul, pp. 106-109
[18] Kordos M, Duch, W (2003) Search-based training for logical rule extraction by Multilayer Perceptron. Proc. Joint Int. Conf. on Artificial Neural Networks (ICANN) and Int. Conf. on Neural Information Processing (ICONIP), Istanbul, pp. 86-89
[19] Duch W, Winiarski T, Biesiada J, Kachel, A (2003), Feature Ranking, Selection and Discretization. Proc. Joint Int. Conf. on Artificial Neural Networks (ICANN) and Int. Conf. on Neural Information Processing (ICONIP), Istanbul, pp. 251-254.
[20] Duch W, Itert L (2003) Committees of Undemocratic Competent Models. Proc. Joint Int. Conf. on Artificial Neural Networks (ICANN) and Int. Conf. on Neural Information Processing (ICONIP), Istanbul, pp. 33-36
[21] Grudzinski K, Karwowski M, Duch W (2003) Computational Intelligence Study of the Iron Age Glass Data. Proc. Joint Int. Conf. on Artificial Neural Networks (ICANN) and Int. Conf. on Neural Information Processing (ICONIP), Istanbul, pp. 17-20
[22] Duch W, Synchronicity, Mind and Matter. Neuroquantology, Vol. 1, January 2003, reprinted from The International Journal of Transpersonal Studies 21 (2002) 155-170.
[23] Duch W, Biesiada J, Winiarski T, Grudziński K, Grąbczewski K (2002) Feature selection based on information theory filters and feature elimination wrapper methods. Advances in Soft Computing, Physica Verlag (Springer), pp. 173-176
[24] Duch W, Grudziński K (2002) Meta-learning via search combined with parameter optimization. Advances in Soft Computing, Physica Verlag (Springer), pp. 13-22
[25] Grąbczewski K, Duch W (2002) Heterogeneous forests of decision trees. Springer Lecture Notes in Computer Science Vol. 2415, 504-509
[26] Duch W, Itert L (2002) Competent undemocratic committees. Neural Networks and Soft Computing, Advances in Soft Computing, Physica Verlag (Springer), pp. 412-417.
[27] Naud A, Duch W, Visualization of large data sets using MDS combined with LVQ. W: Neural Networks and Soft Computing (eds. L. Rutkowski and J. Kacprzyk), Advances in Soft Computing, Physica Verlag (Springer), pp. 632-637, 2002.
[28] Grąbczewski K, Duch W (2002) Forests of decision trees. Advances in Soft Computing, Physica Verlag (Springer), pp. 602-607.
[29] Marczak M, Duch W, Grudziński K, Naud A (2002) Transformation Distances, Strings and Identification of DNA Promoters. Advances in Soft Computing, Physica Verlag (Springer), pp. 620-625, 2002.
[30] Duch W, Grąbczewski K (2002) Heterogeneous adaptive systems. IEEE World Congress on Computational Intelligence, Honolulu, IEEE Press, pp. 524-529.
[31] Duch W, Winiarski T, Grąbczewski K, Biesiada J, Kachel, A (2002) Feature selection based on information theory, consistency and separability indices. Int. Conf. on Neural Information Processing (ICONIP), Singapore, Vol. IV, pp. 1951-1955.
[32] Duch W (2002) Fizyka umysłu. Postępy Fizyki 53D, 92-103
[33] Duch W, Adamczak R, Grąbczewski K (2001) Methodology of extraction, optimization and application of crisp and fuzzy logical rules. IEEE Transactions on Neural Networks Vol. 12, 277-306.
[34] Duch W (2001) Facing the hard question. Behavioral and Brain Sciences Vol. 24, 187-188.
[35] Duch W, Grudziński K (2001) Meta-learning: searching in the model space. Int. Conf. on Neural Information Processing, Shanghai, Vol. I, pp. 235-240.
[36] Duch W, Grudziński K (2001) Prototype based rules - new way to understand the data. IEEE International Joint Conf. on Neural Networks, Washington D.C, pp. 1858-1863.
[37] Duch W, Grudziński K (2001) Ensembles of Similarity-Based Models. Advances in Soft Computing, Physica Verlag (Springer), pp. 75-85
[38] Duch W, Grąbczewski K, Adamczak R, Grudziński K, Hippe Z.S. (2001) Rules for melanoma skin cancer diagnosis. Komputerowe Systemy Rozpoznawania (KOSYR), Wrocław, pp. 59-68.
[39] Duch W, Jankowski N, Transfer functions: hidden possibilities for better neural networks. 9th European Symposium on Artificial Neural Networks (ESANN), Brugge 2001. De-facto publications, pp. 81-94.
[40] Duch W, Adamczak R, Diercksen GHF, Constructive density estimation network based on several different separable transfer functions. 9th European Symposium on Artificial Neural Networks (ESANN), Brugge 2001. De-facto publications, pp. 107-112
[41] Jankowski N, Duch W, Optimal transfer function neural networks. 9th European Symposium on Artificial Neural Networks (ESANN), Brugge 2001. De-facto publications, pp. 101-106.
[42] Duch W (2001) Psychika i świadomość Encyklopedia Multimedialna PWN, 2001 (7 str).
[43] Duch W, Similarity based methods: a general framework for classification, approximation and association, Control and Cybernetics 29 (4) (2000) 937-968
[44] Duch W, Therapeutic applications of computer models of brain activity for Alzheimer disease . J. Medical Informatics and Technologies 5 (2000) 27-34
[45] Duch W (2000) Neural networks papers on the Internet. IEEE Transactions on Neural Networks Vol. 11 (No. 6), 2000, 1509-1511
[46] Duch W, Adamczak R, Diercksen G.H.F, Classification, Association and Pattern Completion using Neural Similarity Based Methods. Applied Mathematics and Computer Science 10:4 (2000) 101-120
[47] Duch W, Adamczak R, Diercksen GHF, Neural Networks from Similarity Based Perspective. New Frontiers in Computational Intelligence and its Applications. Ed. M. Mohammadian, IOS Press, Amsterdam 2000, pp. 93-108
[48] Duch W, Adamczak R, Grąbczewski K, Jankowski N, Neural methods of knowledge extraction. Control and Cybernetics 29 (4) (2000) 997-1018
[49] Duch W, Jankowski N, Grąbczewski K, Adamczak R, Optimization and interpretation of rule-based classifiers, Intelligent Information Systems 2000, Advances in Soft Computing, Physica Verlag (Springer), pp. 1-13
[50] Duch W and Hayashi Y, Computational intelligence methods and data understanding. In: Quo Vadis computational Intelligence? New trends and approaches in computational intelligence. Eds. P. Sincak, J. Vascak, Springer studies in fuzziness and soft computing, Vol. 54 (2000), pp. 256-270
[51] Grudziński K, Duch W, SBL-PM: A Simple Algorithm for Selection of Reference Instances for Similarity Based Methods. Intelligent Information Systems 2000, Advances in Soft Computing, Physica Verlag (Springer), pp. 99-108
[52] Adamczak R, Duch W, Neural networks for structure-activity relationship problems. 5th Conference on Neural Networks and Soft Computing, Zakopane, June 2000, pp. 669-674
[53] Duch W, Adamczak R, Hayashi Y, Eliminators and classifiers, 7th Int. Conf. on Neural Information Processing, Nov. 2000, Dae-jong, Korea, ed. by Soo-Young Lee, pp. 1029 - 1034
[54] Duch W, Adamczak R, Diercksen GHF, Feature space mapping neural network applied to structure-activity relationship problems. ICONIP-2000, 7th International Conference on Neural Information Processing, Nov. 2000, Dae-jong, Korea, ed. by Soo-Young Lee, pp. 270 - 274
[55] Duch W, Adamczak R, Grąbczewski K, Grudziński K, Jankowski N, Naud N, Extraction of knowledge from data using Computational Intelligence methods. In: ICONIP-2000, 7th Int. Conf. on Neural Information Processing, Nov. 2000, Dae-jong, Korea (tutorial, 54 str).
[56] Duch W, Adamczak R, Grąbczewski K, Grudziński K, Jankowski N, Naud N, Understanding the data: extraction, optimization and interpretation of logical rules. In: IEEE International Joint Conference on Neural Networks 2000 (IJCNN) (tutorial, 70 str).
[57] Duch W, Grudziński K and Stawski G, Symbolic features in neural networks. 5th Conference on Neural Networks and Soft Computing, Zakopane, June 2000, pp. 180-185.
[58] Duch W, Jankowski N, Taxonomy of neural transfer functions, IEEE, International Joint Conference on Neural Networks 2000 (IJCNN), Vol. III, pp. 477-484.
[59] Grąbczewski K and Duch W, The separability of split value criterion. 5th Conference on Neural Networks and Soft Computing, Zakopane, June 2000, pp. 201-208.
[60] Naud A and Duch W, Interactive data exploration using MDS mapping. 5th Conference on Neural Networks and Soft Computing, Zakopane, June 2000, pp. 255-260.
[61] Duch W, Świadomość i dynamiczne modele działania mózgu. Neurologia i Neurochirurgia Polska T. 34 (50), Supl. 2, pp. 69-84.
[62] Adamczak R, Duch W, Model FSM w zastosowaniu do klasyfikacji. Biocybernetyka 2000, Tom 6: Sieci neuronowe, rozdz. III.26, pp. 801-824
[63] Duch W, Sieci neuronowe w modelowaniu zaburzeń neuropsychologicznych i chorób psychicznych. Biocybernetyka 2000, Tom 6: Sieci neuronowe, rozdz. II.18, pp. 589-616
[64] Duch W, Grudziński K, Sieci Neuronowe i Uczenie Maszynowe: próba integracji. Biocybernetyka 2000, Tom 6: Sieci neuronowe, rozdz. III.21, pp. 663-690
[65] Chojnowski A, Duch W, Analiza szeregów czasowych obrazów. Biocybernetyka 2000, Tom 6: Sieci neuronowe, rozdz. II.17, pp. 569-588
[66] Jankowski N, Duch W, Ontogeniczne sieci neuronowe. Biocybernetyka 2000, Tom 6: Sieci neuronowe, rozdz. I.8, pp. 257-294
[67] Grąbczewski K, Duch W, Adamczak R, Neuronowe metody odkrywania wiedzy w danych. Biocybernetyka 2000, Tom 6: Sieci neuronowe, rozdz. III.20, pp. 637-662
[68] Duch W, Jaka teoria umysłu w pełni nas zadowoli? Kognitywistyka i Media w Edukacji 3(1) (2000) 29 – 53
[69] Duch W, Debata: Sztuczny mózg, sztuczna inteligencja. Kognitywistyka i Media w Edukacji 3(1) (2000) 95-98.
[70] Matykiewicz P, Duch W, Pestian J, Nonambiguous Concept Mapping in Medical Domain, Lecture Notes in Artificial Intelligence, Vol. 4029, 941-950, 2006
[71] Duch W, Matykiewicz P, and Pestian J, Neurolinguistic Approach to Natural Language Processing with Applications to Medical Text Analysis. Neural Networks 21(10), 1500-1510, 2008.
[72] Duch W (2006) Madhyamika, nauka i natura rzeczywistości. Uwagi na marginesie książki: Matthieu Ricard i Trinh Xuan Thuan, Nieskończoność w Jednej Dłoni: Od Wielkiego Wybuchu do Oświecenia. Kognitywistyka i Media w Edukacji 1-2:293-316, 2006
[73] Duch W, Neurokognitywna teoria świadomości. Studia z kognitywistyki i filozofii umysłu (red. W. Dziarnowska i A. Klawiter). Tom. I, Subiektywność a świadomość. Zysk i S-ka, Poznań 2003, str. 133-154.
[74] Duch W. (2011) Jak reprezentowane są pojęcia w mózgu i co z tego wynika. Rozdział do książki (w druku).
[75] Duch W. (2010) Reprezentacje umysłowe jako aproksymacje stanów mózgu. Studia z Kognitywistyki i Filozofii Umysłu 3: 5-28, 2009
[76] Duch W. (2012) Neuronauki i natura ludzka. W: Nauki przyrodnicze a nowy ateizm, seria "Filozofia przyrody i nauk przyrodniczych", red. M. Słomka, str. 79-122
[77] Duch W. (2010) Architektury kognitywne. W: Neurocybernetyka teoretyczna,Uniwersytetu Warszawskiego, Rozdz. 14, str. 329-361, ed. R. Tadeusiewicz
[78] Duch W, Imagery Agnosia: what goes on in my head?
Coma and Consciousness, Clinical, Societal and Ethical Implications. Satellite Symposium of the 13th Annual Meeting of the Association for the Scientific Studies of Consciousness, Berlin, 4-5 June 2009
[79] Duch W, Neurodynamics and the mind. Proc. of the International Joint Conference on Neural Networks, San Jose, CA, IEEE Press, pp. 3227--3234, 2011.
[80] Duch W. (2011) What can we know about ourselves and how do we know it?
In: Ed. M. Jaskuła, B. Buszewski, Societas Humboldtiana Polonorum, 2011
[81] Duch W, Amuzja Wyobrażeniowa (w druku, 2012)
Duch W, Nowak W, Meller J, Osinski G, Dobosz K, Mikołajewski D, and Wójcik G.M, Consciousness and attention in autism spectrum disorders. Proc of Cracow Grid Workshop 2010, pp. 202-211, 2011.
[82] Duch W, Consciousness and Attention in Autism Spectrum Disorders. Coma and Consciousness. Clinical, Societal and Ethical Implications. Satellite Symposium of the 13th Annual Meeting of the Association for the Scientific Studies of Consciousness, Berlin, 2009.
[83] Duch W, Intuition, Insight, Imagination and Creativity. IEEE Computational Intelligence Magazine 2(3), August 2007, pp. 40-52
[84] Duch W, Pilichowski M, Experiments with computational creativity. Neural Information Processing – Letters and Reviews, Vol. 11, No. 4-6, April/June 2007, pp. 123-133
[85] Duch W, Geometryczny model umysłu, Kognitywistyka i Media w Edukacji, Vol. 6 (2002) 199-230.
[86] Duch W, Fizyka umysłu. Postępy Fizyki 53D (2002), 92-103
[87] Duch W, Dobosz K, Visualization for Understanding of Neurodynamical Systems. Cognitive Neurodynamics 5(2), 145-160, 2011.
[88] Dobosz K, Duch W. (2010) Understanding Neurodynamical Systems via Fuzzy Symbolic Dynamics. Neural Networks Vol. 23 (2010) 487-496, 2010
Książki:
[1] Duch W (1986) Graphical representation of model spaces. Springer Verlag, Berlin. (W serii: Lecture Notes in Chemistry, Vol. 42), 190 str.
[2] Duch W (1997) Fascynujący świat programów komputerowych. (Nakom, Poznań, November 1997; 456 str, ISBN 83-85060-92-8)
[3] Duch W (1997) Fascynujący świat komputerów. (Nakom, Poznań, 20 May 1997; 444 str, ISBN 83-86969-09-1)
[4] Duch W, Kucharski T, Gomuła J, Adamczak R, Metody uczenia maszynowego w analizie danych psychometrycznych. Zastosowanie do wielowymiarowego kwestionariusza osobowości MMPI-WISKAD (Toruń, Marzec 1999; 650 str., ISBN 83-231-0986-9)
[5] Duch W (1999) Engineering Applications of Neural Networks. Proceedings of the 5th International Conference EANN'99, 13-15 September 1999, Warsaw, Poland Wyd. Adam Marszałek, Toruń, 313 str, ISBN 83-7174-512-512-5
[6] Duch W, Korbicz J, Rutkowski L, Tadeusiewicz R (2000) Biocybernetyka i Inżynieria Biomedyczna 2000. Tom 6: Sieci neuronowe. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2000, 850 str, ISBN 83-87674-18-4
[7] Jankowski N, Duch W, Grąbczewski K, Meta-learning in Computational Intelligence.
Studies in Computational Intelligence, Vol. 358, 1st Edition, pp. X + 362. 127 illus, 76 in color, Springer 2011.
[8] Duch W, Mandziuk J (Eds.), Challenges for Computational Intelligence.
Springer "Studies in Computational Intelligence" Series, Vol. 63, June 2007, 488 pp.
[9] N. Jankowski. Meta-uczenie w inteligencji obliczeniowej. 396 str. Warszawa, Polska: Akademicka Oficyna Wydawnicza EXIT, 2011.