Some topics for MSc and PhD projects in Polish; here is a short version in English. Most are fairly old, a few updated.
Mam bardzo wiele (skończenie wiele?) tematów prac, związanych z rozwojem metod inteligencji obliczeniowej (CI, Computational Intelligence), w tym sieci neuronowych, technik data mining, uczenia maszynowego, układów dynamicznych, oraz zastosowań tych metod do wspomagania diagnoz, klasyfikacji, predykcji, optymalizacji, analizy tekstów, sygnałów z neuroobrazowania i modelowania funkcji mózgu. Niektóre z tych zagadnień omawiane są na
wykładach prowadzonych przeze mnie.
Większość tematów prac magisterskich może być dalej rozwijana w ramach prac doktorskich lub też okrojona do prac inżynierskich i licencjackich.
Niektóre z tematów prac mogą być już realizowane, ale zwykle udaje się odpowiedzieć tylko na część interesujących pytań i ciągle otwierają się nowe możliwości i powstają nowe pytania.
Niestety lista poniżej jest niezbyt aktualna, ale podział tematów na kilka grup nadal coś mówi o moich przeszłych i obecnych zainteresowaniach: Neurodynamika | Inteligencja obliczeniowa i odkrywanie wiedzy w danychAnaliza tekstów | Zastosowania CI | Zagadnienia teoretyczne CI | Zagadnienia kognitywne, modele umysłu | Zagadnienia filozoficzne | Projekty nietypowe.
Lista większych projektów, lista referatów oraz publikacji naukowych na te tematy.
Mamy tu sporo obecnie rozwijanych tematów, zmierzających do lepszego zrozumienia sensu sygnałów EEG i wykorzystania analiz w diagnostyce zaburzeń psychicznych.
Wprowadzenie do niektórych tematów jest
w tej prezentacji.
RSVP (rapid serial visual presentation), lub prezentacja przyspieszonej mowy, wymaga skoncentrowanego wysiłku i synchronizacji wielu obszarów mózgu. Jeśli zbadać EEG w czasie czytania lub słuchania z coraz większa prędkością można zauważyć, że złożoność procesów będzie rosła aż w pewnym momencie przestajemy rozumieć i sygnały staną się chaotyczne. To może być dobrą prostą metodą oceny inteligencji. Praca wymaga przeprowadzenia eksperymentów i analizy złożoności danych EEG.
Michał Komorowski w ramach doktoratu zrobił MATLAB Toolbox for Frequency-based Fingerprinting (ToFFi), czyli pakiet pozwalający analizować rozkłady widm z różnych obszarów mózgu. Pozwala to analizować różne procesy i ma znaczenie dla diagnostyki zaburzeń psychicznych.
https://github.com/micholeodon/ToFFi_Toolbox
Jest tu sporo rzeczy do dalszego ulepszenia, od zmiany pewnych procedur po próby zastosowania do analizy danych EEG/MEG w celach diagnostycznych.
Mikrostany to trwające 50-200 ms stany względnie stabilnej aktywności EEG. Jest to niezwykle popularna metoda, o szerokich zastosowaniach. Mamy wiele pomysłów jak ulepszyć tą metodę i zastosować do diagnostyki zaburzeń psychicznych, czy oceny sprawności działania, biofeedback itd.
RQA, czyli Recurrence Quantification Analysis, to bardzo obiecująca metoda stosowana do analizy sygnałów i szeregów czasowych. Pozwala śledzić dynamikę procesów neuronowych, obrazować ją za pomocą map rekurencji. Jest tu wiele rzeczy do przebadania, od reprezentacji sygnałów EEG za pomocą widm Fourierowskich czy falek po rozszerzenie miar pozwalających na ocenę różnych aspektów dynamiki.
Sygnały z elektrod mierzących potencjały korowe (ECoG) lub elektrod wkłutych w korę (intracranial EEG) dają znacznie bardziej precyzyjne informacje niż samo EEG z powierzchni głowy. Prof. Dean Krusieński zostawił nam takie dane i chcielibyśmy je przeanalizować, standardowymi metodami za pomocą pakietów typu EEGLab, jak i metodami analizy rekurencji.
Celem projektu jest opracowanie takiej zintegrowanej teorii, która pozwoli powiązać procesy na poziomie genetycznym i molekularnym z ich wpływem na działanie neuronów w modelach realizujących różne funkcje poznawcze, pozwalających przewidywać zmiany behawioralne. Takie podejście można określić jako fenomikę wielopoziomową. Naszą wstępną hipotezą, opartą na symulacjach komputerowych, jest rola czynników, które mogą spowodować problemy z przenoszeniem uwagi z jednego bodźca na drugi, wymusić długotrwałą synchronizację neuronów na prostych bodźcach, a w efekcie niezdolność do skupienia się na złożonych i szybko zmieniających się w czasie bodźcach, np. twarzach. Zaburzenia kanałów upływu w neuronach są jednym z takich czynników. Taki mechanizm może wyjaśnić wiele zachowań charakterystycznych dla spektrum autyzmu i skorygować teorie opierające się na obserwacji skutków leżących głębiej problemów.
Zaproponowaliśmy zintegrowaną teorię choroby należących do
spektrum autyzmu (ASD, Autism Spectrum Disorder), która potrafi wyjaśnić również
ADHD.
Szacowana częstość występowania ASD to 2-6 przypadków na 1000.
Szukanie powiązań pomiędzy czynnikami wpływającymi na zaburzenia budowy neuronów i zachowaniem wymaga stworzenia modeli komputerowych symulujących w miarę dokładnie funkcje poznawcze, afektywne oraz kontrolę zachowania na dostatecznie szczegółowym poziomie, z neuronami, które opisywane są parametrami uwzględniającymi różne typy kanałów jonowych i różne rodzaje synaps. Wstępne modele oparte będą o symulator Emergent, a bardziej dokładne o symulator Genesis.
Badając wpływ zmian parametrów na funkcjonowanie sieci rozpoznających bodźce wzrokowe (interakcje pomiędzy szlakiem brzusznym i grzbietowym kory wzrokowej), akustyczne (rozpoznawanie słów), oraz sterujących ruchem pozwoli na zrozumienie jakiego rodzaju zaburzeń należy szukać na poziomie molekularnym budowy neuronów. Jednocześnie będziemy szukać genów, które mogą wpływać na strukturę membran, synaps i kanałów jonowych, oraz korelacji pomiędzy różnymi symptomami zaburzeń metabolicznych i neurologicznych.
Neurodynamika w układach biologicznych realizowana jest przez układy o bardzo wielu stopniach swobody. Szczególną klasą takich układów są systemy o stosunkowo niewielkiej liczbie wejść i wyjść a złożonej strukturze wewnętrznej. W oparciu o proste układy modelowe należy:
a) scharakteryzować neurodynamikę przez opis struktury przestrzeni konfiguracyjnych,
basenów atraktorów i repelerów, oraz fragmentów trajektorii dochodzących
do atraktorów (transients)
b) zbadać możliwości zastąpienia takiej dynamiki przez prostszy opis
w podprzestrzeni wyróżnionych zmiennych konfiguracyjnych (przestrzeni psychologicznej,
jeśli te zmienne odnieść można do sygnałów zmysłowych), w szczególności
przez dynamikę gradientową z szumem, korzystającą z uproszczonych równań
różniczkowych.
c) opracować metody analizy dynamiki gradientowej z szumem, zachodzącej
w przestrzeni psychologicznej, z neurodynamiką.
d) opracować konkretny model dla eksperymentów związanych z kategoryzacją,
próbując wyjaśnić pewne subtelne efekty (np. inverse base rates) - jest
tu sporo modeli psychologicznych i dużo danych eksperymentalnych (prawdopodobieństw
odpowiedzi w konkretnych sytuacjach eksperymentalnych).
Dotychczas nie udało się jeszcze nikomu powiązać wyższych czynności psychicznych z opisem neurodynamicznym. Wydaje się, że neuronowe modele przestrzeni psychologicznych mogą na to pozwolić.
Najczęstszym przybliżeniem pozwalającym na opis sieci neuronowych jest wprowadzenie średniej liczby impulsów na sekundę jako miary aktywności neuronów. Typowe modele sieci propagują więc ciągłe pobudzenia korzystając z sigmoidalnych funkcji opisujących pobudzenie neuronu. Prowadzi to do sieci dokonujących aproksymacji i dyskryminacji sygnałów.
Istnieje klasa zagadnień, takich jak sprawdzanie spójności figur geometrycznych, której nie da się rozwiązać za pomocą sieci tego typu, podczas gdy sieci z synchronizującymi się, impulsujacymi neuronami potrafią sobie z tym poradzić (DeLiang 2000). Jakie inne zagadnienia należą do tej klasy? Jak zastosować sieci impulsujące do analizy danych? Szczególnie interesujące jest ich zastosowanie do analizy obrazu - jak na razie niczego w tej dziedzinie jeszcze nie zrobiono.
Data mining, czyli techniki eksploracji danych pomagające odkrywać wiedzę w bazach danych, znalazły szerokie zastosowania i bardzo się rozwinęły. Szczególnie przydatne są tu metody inteligencji obliczeniowej (computational intelligence), czyli dziedziny zajmującej się rozwiązywaniem problemów, które nie są efektywnie algorytmizowalne.
Nasz cel dalekosiężny to budowa automatycznego systemu do odkrywania wiedzy w bazach danych, integrującego wiele z już przebadanych lub wymyślonych przez nas metod. System ten rozwijany był przy współpracy z FQS Poland, oddziałem firmy Fujitsu.
Nasze główne prace koncentrują się wokół metod meta-uczenia, automatycznego znajdowania najciekawszych modeli, selekcji informacji oraz rozwoju nowego pakietu do data mining, nazwanego Intemi. Większość prac wymaga dopisania odpowiednich modułów do projektu Intemi, który w naszej opinii jest najbardziej zaawansowanym tego typu programem na świecie.
Podsumowanie kilku pomysłów jest
w prezentacji 108:
A few machine learning algorithms worth further development.
Najczęstszą formą uczenia jest uczenie na własnych błędach. Meta-uczenie to uczenie się jak się uczyć, w tym uczenie się od innych. W ostatnich latach rozwinęliśmy wiele rewolucyjnych metod tego typu uczenia, znajdujących zastosowania w trudnych przypadkach. Nadal mamy wiele pomysłów, które należy zaimplementować, przetestować i rozwinąć.
Prawie wszystkie systemy CI posługują się tymi samymi klockami, np. neuronami, prototypami, płaszczyznami czy regułami tego samego typu. Próbujemy budować i badać systemy złożone z różnych elementów. Z jednej strony chodzi o integrację wielu systemów, np. przez tworzenie komitetów klasyfikatorów. Z drugiej strony chodzi o odkrywanie najprostszych modeli które generują dane.
Modele heterogeniczne można tworzyć zarówno startując z sieci neuronowych, drzew decyzji jak i systemów opartych na podobieństwie. Na razie zrobiliśmy tylko najprostsze takie modele, chcielibyśmy nabrać doświadczenia w konstruowaniu sieci złożonych z różnych elementów, znaleźć najlepsze metody ich uczenia i zobaczyć, jakie trudności się z tym wiążą. Trzeba rozwinąć teorię inteligencji obliczeniowej oparta na składaniu transformacji i w przestrzeni możliwych transformacji użyć algorytmów szukania jak najciekawszych modeli z punktu widzenia różnych kryteriów. Pierwsze próby znaleźć można w pracy Meta-learning via search combined with parameter optimization oraz w tej pracy.
Analiza EEG jest rzeczą bardzo trudną; transformacja od sygnałów obserwowanych w czasie pracy mózgu do przestrzeni, w których te sygnały mają interpretację jako zdarzenia umysłowe (intencje, emocje, postrzeżenia lub myśli) pozwala na sterowanie urządzeniami zewnętrnzymi dzięki pracy mózgu. Informacja zawarta jest w trajektoriach, należy znaleźć odpowiedni punkt widzenia (czyli projekcję) tak, by ją wydobyć. Zbiory mają często setki megabajtów (129 kanałów próbkowanych ponad 100Hz przez kilka sekund).
Transformacje wielokanałowych sygnałów i wizualizacja ich trajektorii to obszerna grupa zagadnień znajdująca szerokie zastosowania. Rozwijamy metody szukania projekcji (projection pursuit) i wizualizacji dla tych zagadnień. Wiąże się to też z
rozmytą dynamiką symboliczną (
fuzzy symbolic dynamics).
Praca wymagać będzie poznania metod analizy sygnałów, wizualizacji, klasyfikacji sygnałów, napisania i testowania programu na danych sztucznych i rzeczywistych.
Jest szereg interesujących metod bezpośrednich (np. projekcja na siatki), wizualizacja pierścieniowa, wielokrotne histogramy, skalowanie wielowymiarowe, wizualizacja prawdopodobieństw wyników, liczne metody lokalnych zagnieżdżeń (embedding), wizualizacja barycentryczna, użycie metod projekcji np. Fishera itd. Nadal brakuje prostych programów do tego typu wizualizacji danych.
Wizualizacja wielowymiarowych danych w sposób zachowujący topograficzne relacje jest nadal niespotykana w powszechnie dostępnych programach. Taka wizualizacja wymaga wykonania czasochłonnych obliczeń. Bardzo szerokie zastosowanie znalazła samoorganizująca się sieć SOM (Kohonena), pozwalająca na wizualizację i jednoczesną klasyfikację danych. Przeprowadzona przez nas analiza tej metody pokazuje, że znacznie poprawniejsze rezultaty osiągnąć można wprowadzając i minimalizując pewną miarę topograficznej zgodności, tak jak robi się to w metodach skalowania wielowymiarowego (MDS). Chcemy mieć system pozwalający interakcyjnie pokazywać w wielowymiarowej przestrzeni granice obszarów decyzji dowolnych klasyfikatorów i wektory referencyjne (treningowe) znajdujące się w okolicy wektora testowego.
W przestrzeni danych wejściowych można umieścić znaczniki (mogą nimi być np. wierzchołki sympleksu) pozwalające na klasyfikację i odpowiednią wizualizację. Położenia obrazu tych znaczników w dwóch wymiarach ustalane są za pomocą minimalizacji miary zgodności topograficznej, a obraz aktualnych danych otrzymywany jest przez interpolację wykonywaną względem tych znaczników. Inny pomysł to optymalizacja położeń, dyspersji i rodzaju funkcji bazowych (np. Gaussów z różnymi metrykami), które pozwalają na projekcję na taką bazę.
Praca w skromnej wersji wymaga napisania programu realizującego metodę klasyfikacji i wizualizacji danych w oparciu o znaczniki (reference tokens) w przestrzeni danych wejściowych, oraz wykonania przykładowych obliczeń. W pełniejszej wersji należy opracować metodę wizualizacji granic decyzji różnych klasyfikatorów, stworzyć oprogramowanie do rosnących struktur komórkowych i topologicznej interpolacji danych, porównać wyniki z SOM, GTM i innymi metodami redukcji wymiarowości oraz wykonać obliczenia dla kilku medycznych baz danych.
Granulacja jest obecnie bardzo modnym pojęciem, ale w istocie nie różni się od metod analizy skupień zastosowanych do nowych typów danych.
Potrzebny jest przegląd metod granulacji, metody klasteryzacji, klasteryzacja z wykorzystaniem dodatkowej wiedzy, klasteryzacja warunkowa, metody bi-klasteryzacji; połączenie metod granulacji z metodami projekcji w algorytmach k-separowalności, poszukiwanie najprostszych modeli danych.
Praca wiąże się z naszymi wcześniejszymi pracami na temat ekstrakcji reguł z danych.
Prace można rozszerzyć na reguły rozmyte, prototypowe, reguły działania.
Uwagi na temat projektu.
Implementacja konstruktywistycznej sieci MLP w wersji klasycznej i wersji MLP2LN uczonej algorytmem SCG i porównanie z algorytmem Variable Step Size, nowe funkcje transferu. Jeśli wystarczy czasu porównanie z algorytmem Contrastive Hebbian Learning o biologicznych motywacjach. Wizualizacja f. sieci i reprezentacji info w ukrytej warstwie.
Nieeuklidesowe sieci neuronowe: najbardziej popularne sieci neuronowe jakimi są perceptrony wielowarstwowe (MLP) zinterpretować można po prostej transformacji danych wejściowych jako sieci wykorzystujące wagi jako prototypy, z funkcją sigmoidalną oceniająca obszar wpływu danego prototypu na wyjście sieci. Jeśli sieć oblicza sumę ważoną wejść, jak to zwykle ma miejsce, to mamy do czynienia z euklidesową siecią MLP, jednakże w takim ujęciu możemy użyć również innych funkcji odległości. Daje to bardziej złożone kształty obszarów decyzyjnych niż dają zwykłe sigmoidy odpowiadające euklidesowej funkcji odległości, dostarcza też wiele możliwości inicjalizacji takich sieci przez wstępną klasteryzację.
Można będzie wykorzystać takie sieci - nazwałem je D-MLP, od Distance-based MLP - również do uzupełniania wzorców (pattern completion), czego nie da się zrobić ze zwykłym MLP i co zwykle realizuje się za pomocą dynamicznych modeli pamięci asocjacyjnej. Zasadniczą trudnością w wykorzystaniu sieci neuronowych w wielu dziedzinach jest brak zrozumiałej interpretacji tego, co sieć właściwie się nauczyła - w tym ujęciu można to przeanalizować traktując wagi jako prototypowe wektory. Na razie mamy tylko wstępne rezultaty, otrzymane nie przez implementację tej metody, ale przez renormalizację danych w nieueklidesowych przestrzeniach. Rezultaty są bardzo zachęcające.
Należy przemyśleć algorytm wstecznej propagacji w zastosowaniu do sieci NN z różnymi funkcjami odległości, począwszy od odległości Minkowskiego, wyprowadzić wzory na gradienty, zaimplementować i porobić testy.
https://www.is.umk.pl/projects/nnv.html
https://www.fizyka.umk.pl/publications/kmk/06-VSS.html
https://www.fizyka.umk.pl/publications/kmk/03-uncert.html
Prawie wszystkie metody inteligencji obliczeniowej zakładają opis obiektów w jednakowej postaci, w oparciu o ustaloną liczbę cech. Takie podejście nie pozwala np. na ocenę własności związków chemicznych na podstawie opisu ich struktury, lub ocenę własności firm o złożonej strukturze, gdyż mamy tu niewspółmierne obiekty. Jak rozszerzyć znane metody na takie przypadki?
Dobrym punktem wyjścia jest wprowadzenie funkcji podobieństwa opartej na obliczeniu kosztów transformacji jednego obiektu w drugi. ETS, Ewoluujące Transformacyjne Systemy, to nazwa metody stosowanej do analizy ciągów symboli w celu odkrycia gramatyki i jej termów końcowych. Podobne metody można zastosować w znacznie ogólniejszych przypadkach, prawdopodobnie również w zagadnieniach wymagających systematycznego szukania rozwiązań. W niektórych zastosowaniach istotną rolę gra tu programowanie dynamiczne, ale w bardziej ogólnym przypadku nie zawsze prowadzi to do dobrych rozwiązań. Oceniając koszty transformacji można też poszukiwać makrooperatorów, stosując analogie z porcjowaniem i uczeniem np. w systemie SOAR. Temat jest na pograniczu metod inteligencji obliczeniowej i klasycznych metod sztucznej inteligencji.
Zrobiliśmy tylko pierwszy krok, jest tu dużo możliwości rozwoju i zastosowań, np. w bioinformatyce czy w chemii.
Podobieństwo lub funkcje odległości pozwalają w ujęciu teoretycznym na opracowanie schematu, w którym można zawrzeć prawie wszystkie interesujące metody CI. Chociaż temat ten jest realizowany w niektórych aspektach, jest tu miejsce na kilka prac magisterskich i doktorskich, zarówno teoretycznych jak i bardziej praktycznych.
W szczególności w ramach schematu metod opartych na podobieństwie usiłujemy prowadzić poszukiwanie w przestrzeni wszystkich dających się wygenerować modeli. Zaczynamy od najprostszych, dodając kolejne elementy tak, by maksymalnie zwiększyć możliwości nowego modelu nie komplikując go zbytnio. Obliczeniowo to bardzo trudne zagadnienie, na razie udało się nam zrobić szukanie tylko dla kilku procedur rozszerzających modele typu najbliższego sąsiada. Docelowo powinniśmy dostać różne modele dla wykrywania różnych klas obiektów.
Analiza dużych baz danych jest często trudna, gdyż występują w nich setki cech, które często bardziej przeszkadzają niż pomagają w zrozumieniu struktury tych danych i poprawnej klasyfikacji. Niektóre cechy można usunąć, inne należało by zebrać razem (dokonać agregacji) redukując ich liczbę przed przystąpieniem do analizy. W najprostszym przypadku stosujemy analizę składowych głównych (PCA) lub inną, podobną metodę (FDA, ICA), ale nie widziałem zastosowań tych metod w sytuacjach, w których można wyróżnić kilka grup cech, dla których zastosowano PCA niezależnie. W zastosowaniach tekstowych interesująca jest agregacja cech z binarnymi współczynnikami, odpowiadająca wykrywaniu fraz. Zapewne da się zrobić warianty znanych algorytmów z ograniczeniem do binarnych wartości współczynników. Ogolna metoda to poszukiwanie dobrych projekcji (projection pursuit). Szczególnie ważne są metody stabilizujące rezultaty.
Należy rozważyć korelacyjne i teorioinformatyczne metody agregacji cech, jak i metody selekcji podgrup cech. Są też metody specyficzne dla sieci neuronowych, w których pierwsza warstwa służy agregacji a druga klasyfikacji. Metody powinny być testowane i porównane na około większej liczbie baz danych. Szczególnie ambitne zadania stoją przed bioinformatyką, gdzie mamy ok. 30.000 genów, z których tylko niewiele jest aktywnych, a badania są kosztowne i mamy niewiele przykładów, w oparciu o które należy odkrywać wiedzę i budować teorie.
Szczególnie ważnym zadaniem jest stabilizacja metod sleekcji i agregacji, gdyż często zachowują się bardzo chaotycznie, po dodaniu nowej cechy dokładnośc spada zamiast rosnąć. Mamy tu kilka pomysłów czekających an realizację. Sporo prac na temat selekcji i metod filtrów jest na mojej stronie z listą publikacji.
Metody globalnej optymalizacji znajdują bardzo szerokie zastosowanie w wielu działach nauki i techniki. Najczęściej stosowana jest metoda Monte Carlo i jej ulepszenia, takie jak metoda stopniowego studzenia, na której opiera się Alopex, mało znany algorytm uczenia sieci neuronowych. Proste metody gradientowej minimalizacji, powszechnie stosowane do uczenia sieci neuronowych, mają trudności ze znalezieniem dobrych rozwiązań, osiągając jedynie lokalne minima funkcji błędu. Wiele metod globalnej minimalizacji opracowano poszukując minimum energii dla optymalnych struktur białek. Zastosowanie tych metod do sieci neuronowych może być bardzo przydatne, szczególnie dla szukania najprostszych reguł logicznych opisujących dane doświadczalne.
Praca wymagać będzie uruchomienia kilku gotowych programów, oraz dopisania lub dostosowania części programów realizujących takie metody globalnej minimalizacji jak metoda kompleksów, Taboo Search, NOVEL, metoda dyfuzji, metoda wygładzania potencjału i różne inne modyfikacje metody Monte Carlo. Każda modyfikacja powinna zostać przetestowana na kilku prostych bazach danych a rezultaty porównane z innymi metodami. W zależności od skłonności kandydata można położyć większy nacisk na część teoretyczną lub na zastosowania. Materiału jest tu na kilka prac magisterskich i doktorskich.
Połączenie metod opartych na sieciach neuronowych i metodach uczenia maszynowego (machine learning) powinno umożliwić zautomatyzowanie procesu poszukiwania reguł logicznych, pozwalających w prosty sposób opisać strukturę różnych baz danych. W szczególności rozwinięta przez nas metoda zamieniania wielowarstwowego perceptronu na sieć realizującą funkcje logiczne powinna zostać uzupełniona algorytmem wykorzystującym metody szukania rozwiązania, startującym z rozwiązania znalezionego przez sieć i działającym w przestrzeni cech istotnych dla prawidłowej klasyfikacji. Jest to połączenie metod minimalizacji funkcji błędu, stosowanych w sieciach neuronowych, z metodami szukania w ograniczonej przestrzeni, stosowanymi w sztucznej inteligencji.
Praca wymagać będzie napisania programu komputerowego realizującego metodę PVM (predictive value minimization) i podobne metody szukania heurystycznego oraz przetestowania działania programu na kilku bazach danych doświadczalnych (testy medyczne i pomiary fizyczne).
Ostatnio opracowaliśmy nowe metody inicjalizacji sieci neuronowych - dzięki temu najbardziej popularne typy sieci (perceptrony wielowarstwowe), trenowane metodą wstecznej propagacji błędów (gradientową), uczą się bardzo szybko i znajdują dobre rozwiązania. Pozostało tu jednak dużo do zrobienia: implementacja nowych sposobów inicjalizacji, generacja parametrów dla wielowarstwowych sieci, testowanie sieci z jedną i z wieloma warstwami ukrytymi, wypróbowanie nowych metod klasteryzacji w tym kontekście, itp.
Praca wymagać będzie implementacji nowych algorytmów i przeprowadzenia obliczeń testowych.
Inna grupa zagadnień dotyczy analizy informacji tekstowych, zrozumienia języka naturalnego, a szczególnie wykorzystania inspiracji neurokognitywnych do opracowania nowych algorytmów do analizy tekstów (lista referatów na ten temat). W tym zakresie współpracujemy z grupą neuroinformatyków z Brain Science Institute, Riken (Tokio), analizy tekstów medycznych w Cincinnati (Ohio).
Kilka stron z notatkami: Neurocognitive approach to language | Medical information retrieval | Przestrzenie semantyczne i gry słowne | Zhumanizowane Interfejsy.
Ostatnio wszystko opiera się na ontologiach, formalnych reprezentacjach zbiorów pojęć i ich powiązań, głównie z powodu zastosowań bioinformatycznych i konieczności uporządkowania informacji o pojęciach używanych do opisu genów i białek.
Informacja symboliczna nie pomaga w automatycznym tworzeniu skojarzeń. Pozwalają na to reprezentacje wektorowe, tworzone w oparciu o statystyczną analizę kontekstu, metod spektralnych typu LSA, lub wykorzystując słowniki, encyklopedie (Wikipedię) i inne źródła infromacji strukturalnych, ale i sieci semantyczne, ramy, rozkłady pobudzeń neuronów w symulacjach za pomocą sieci neuronowych.
Który sposób jest najlepszy? Jaka jest relacja pomiędzy tymi metodami i czy można je otrzymać jako systematyczne przybliżenie do zachodzących w mózgu procesów?
Jak określić współczynniki wektorów by nie utracić informacji o podobieństwie pojęć a jednocześnie zapewnić rozróżnialność pojęć podobnych do siebie?
Kategoryzacja tekstów wymaga wstępnej wiedzy o dziedzinie, z której te teksty pochodzą.
Informacja zawarta w podręcznikach, np. opisujących jakieś choroby, biologiczne organizmy, lub jakiś kraj, jest bardzo bogata i w typowym tekście znajdziemy tylko mały podzbiór wszystkich pojęć, jakie stanowią szersze tło. Reprezentacja wiedzy w postaci prototypowych wektorów nie może uzywać naiwnych miar podobieństw, ale z takich wektorów da się odczytać informację za pomocą logiki progowej dla określonych typów pojęć, np. odnoszących się do bakterii w tekstach biomedycznych. Należy dokonać kategoryzacji zbioru tekstów biomedycznych korzystając z wiedzy a priori i odpowiednich funkcji podobieństw.
Wstępne badania pokazały, że system, który uczy się wszystkiego z podręczników medycznych ma znacznie większe trudności z uformownaiem właściwych prototypów powalających na dobrą diagnoze w relanych przypadkach niż system, który nabywa praktyki na relanych przypadkach. Najszybciej będzie się uczył system, któremu pokażemy charakterystyczne, odmienne przypadki dla spójnych niewielkich grup podobnych pacjentów.
Jeden z projektów, który realizujemy przy współpracy z Cinciatti dotyczy analizy notatek samobójców. Przydatna jest tu analiza emocjonalnych skłądowych używanych zwrotów i pojęć.
Data mining, czyli drążenie danych lub dogłębna analiza baz danych, jest obecnie bardzo modnym terminem. Wiąże się ono również z inteligentnymi metodami wyszukiwania informacji w dużych, tekstowych bazach danych i metodami szukania semantycznego, a więc uchwytującego sens, a nie tylko słowa kluczowe, zawarte w pytaniach. Reprezentacja symboli jako wektorów w wielowymiarowych przestrzeniach pozwala na uchwycenie sensu tych symboli w postaci konfiguracji i odległości wektorów między sobą. Pozwala to na rozstrzygnięcie niejednoznaczności sensu symboli (word-sense disambiguation).
Należy porównać różne metody zamiany informacji symbolicznej na wektorową
(np. dobieranie odległości do probabilistycznych miar odległości), włączając
w to niesymetryczne miary podobieństwa. Jest wiele efektów, badanych przez
lingwistów, można też porównać metody hierarchicznej klasyfikacji oparte
na sieciach samoorganizujących się (SOM), które ostatnio zastosowano do
analizy informacji z grup dyskusyjnych w internecie.
Bardzo ważną rzeczą jest "semantyczne wygładzanie" przez dodawanie nowych pojęć nadrzędnych z ontologii, synonimów i innych pojęć, które odpowiadają aktywacji pól semantycznych.
Szczególnie interesująca jest baza opisów klinicznych na temat padaczki. Analiza tej bazy powinna pozwolić na opisanie prototypów różnych form padaczki, które zmieniają się co prawda stopniowo, w prawie ciągły sposób, ale możliwe powinno się stać ustalenie prototypów i w ten sposób klasyfikacja różnych form padaczki.
Wyróżnienie poszczególnych tematów (topics) w tekście, klasteryzacja/wizualizacja podobieństwa semantycznego stron internetowych w rozbiciu na poszczególne tematy, szukanie grup wspólnych zainteresowań (social networks), wizualizacja całych grup i związków pomiędzy indywidualnymi osobami.
Blisko związane z poprzednim tematem, wymaga analizy tekstu, rozbicia na tematy, analizy abstraktów prac przechowywanych w określonych repozytoriach przy wykorzystaniu ontologii domenowej. Szczególnie interesują nas ontologie do neuronauk, gdyż mamy już krajowy węzeł neuroinformatyczny.
Znacza część powiązań między stronami WWW zmienia adresy lub całkiem znika; czasami strony są tylko przesunięte lecz nadal istnieją. Praca wymaga stworzenia programu, który będzie znajdywał brakujące strony i dodawał nowe linki lub zamieniał istniejace linki na linki wywołujące szukarki z odpowiednimi słowami kluczowymi tak, by żadane strony pojawiły się jako pierwsze i by można było automatycznie do nich przejść. Jest to bardzo ważne zagadnienie praktyczne i wymaga opanowania technologii internetowych.
Porządkowanie dużych zbiorów artykułów lub książek stanowi duży problem. Jednym z rozwiązań jest dodawanie plików-komentarzy do właściwych plików i katalogów, zawierających słowa kluczowe, ręcznie wpisane lub automatycznie generowane na podstawie abstraktów książek lub artykułów. Lokalny system wyszukiwawczy powinien wtedy pokazać dynamicznie wszystkie obiekty, które mają wybrane słowa kluczowe. Podobna technologia stosowana jest w systemach "desktop search", np. Google desktop, ale nie wykorzystuje fraz specyficznych dla danej dziedziny. Wirtualny katalog powinien pokazywać te obiekty, które chcemy, np. osobno artykuły filozoficzne na temat świadomości i artykuły neuronaukowe na temat świadomości, a nie wszystkie jednocześnie. Dodatkowo system powinien być odporny na literówki i przekręcenia kolejności wyrazów.
Poszukiwanie informacji o osobach, np. autorach jakiejś pracy, może być trudne, zwłaszcza jeśli mają popularne nazwiska. Można jednak próbować filtrować dokumenty coraz dokładniej zadając dodatkowe pytania i konstruując lepsze kwerendy, których użytkownicy nie potrafią sami napisać. Praca wymaga stworzenia programu, który będzie pomagał zebrać maksymalnie dużo informacji o danej osobie, zwłaszcza o autorach prac naukowych. Jest to bardzo ważne zagadnienie praktyczne i wymaga opanowania technologii internetowych.
Internet jest nadal zbiorem połączonych stron a nie połączonych obiektów; nie mamy sieci semantycznej. Proste narzędzia do tworzenia anotacji dla nazw własnych (nazwisk, nazw instytucji, produktów czy miejsc) mogą znacznie ułatwić proces szukania. W ostatnich latach było sporo takich projektów i pojawiła się idea GGG, Giant Global Graph, łączącego wszystkie obiekty. Pełna automatyzacja jest trudna ale częściowa, wymagająca potwierdzenia przez użytkownika, wystarczy do tego, by połączyć ze sobą strony zawierające specyficzne obiekty.
Rob McCool, Rethinking Internet.
Chatterboty nie mają żadnej reprezentacji pojęć, posługując się najczęściej szablonami. Pamięć semantyczna pozwala im zadawać inteligentne pytania podtrzymując sensowny dialog. Szukanie informacji przez dodawanie pytań w celu lepszego sprecyzowania tematu; rozwój systemu dialogu z awatarem, gry słowne.
Notatki do projektu
Przestrzenie semantyczne i gry słowne
i do projektu HIT, Zhumanizowane Interfejsy.
Nasza praca o awatarach
Przykład bota na stronach internetowych (Julian Szymański)
Oprócz zastosowań związanych z klasyfikacją i prognozowaniem pojawiły się w ostatnich latach również próby automatyzacji odkryć zależności matematycznych, znane pod nazwą "scientific law discovery", czyli odkrywania praw naukowych. Trywialny przykład to odkrycie praw Keplera na podstawie danych dotyczących ruchu planet. Programy do odkrywania praw naukowych są nadal nieliczne, mamy dobre kontakty z najlepszymi ekspertami z USA i możemy zacząć od uruchomienia i przetestowania istniejących programów. Nasze własne podejście do tego problemu będzie oparte na metodach globalnej minimizacji (wielosympleksowej lub stopniowego studzenia), stosowanych przez nas do optymalizacji reguł logicznych.
Praca wymagać będzie uruchomienia i analizy istniejących programów komputerowych, przeprowadzenia obliczeń testowych, modyfikacji programów i dopisania paru procedur samemu.
Jeden z aspektów to zastosowania metod klasyfikacji i selekcji cech do analizy danych z mikromacierzy, zawierających informację o ekspresji genów z różnych tkanek. Inny to specyficzne metody stosowane dla oceny podobieństw sekwencji, operacji na ciągach binarnych, modeli sekwencji wykorzystujących sieci neuronowe i łańcuchy Markova. Ważne są też metody symboliczne szukania informacji w dużych, wyspecjalizowanych bazach danych genomicznych i białkowych. Celem jest korelacja funkcji biologicznej z budową białek i sekwencjami genetycznymi.
Przy współpracy z Centrum Badań Medycznych w Cincinnati możemy brać udział w budowie systemu odkrywania wiedzy. Można zacząc zarówno od analizy danych z mikromacierzy, gdzie jest wiele problemów dotyczących normalizacji i oceny takich danych, jak i systemów symbolicznych, budujących teorie pozwalające na rozumowanie na tematy bioinformatyczne w oparciu o symboliczne reguły. Celem dalekosiężnym jest odkrywanie reguł metodami CI i automatyczne budowanie teorii.
Staramy się (2010) o kilka grantów na ciągłą obserwację zachowania niemowląt, w tym obserwację reakcji na bodźce akustyczne i wizualne. Analiza sygnałów z czujników dotyku, ssania smoczka, akustycznych i obrazu z kamery jest wielkim wyzwaniem ale potencjalnie może prowadzić do rozwinięcia całkiem nowych dziedzin technologii dla monitorowania niemowląt.
Należy zgromadzić zgłoski (fonemy) z około 25 różnych języków, np. dokonując segmentacji mowy z nagrań dostępnych na posiadanym przez nas CD-ROMie. Następnie należy znaleźć klasyfikator najlepiej nadający się do dyskryminacji tych zgłosek (używając metod uczenia maszynowego, sieci neuronowych i metod statystycznych, w oparciu o gotowe programy) a potem sprawdzić, czy taka baza zgłosek wystarczy by rozpoznać, z jakim językiem mamy do czynienia, np. w przypadku mowy nagranej z radia. Niektóre języki mają charakterystyczne zgłoski, które powinny pozwolić łatwo je odróżnić, inne mogą wymagać nagrania wymowy kilku różnych osób i stosowania obszerniejszej bazy danych. Które języki są łatwe do odróżnienia? Jak duża musi być baza danych, czy do identyfikacji języka wystarczają zgłoski czy trzeba difonemy (kombinacje dwóch zgłosek), czy konieczne jest dokładniejsze modelowanie, tak jak dla rozpoznawania mowy?
W ostatnich latach rozwinęliśmy kilka nowych metod typu sieci neuronowych i uczenia maszynowego. Wykorzystując dane treningowe opisujące zmieniające się w czasie procesy, na przykład sytuację na giełdzie lub aktywność plam na słońcu, systemy takie mogą na podstawie analizy sytuacji w przeszłości nauczyć się przewidywania zdarzeń przyszłych. W ramach pracy należy przeanalizować otrzymane od astronomów dane dotyczące aktywności słonecznej i otrzymane od ekonomistów dane dotyczące zmian indeksów na giełdzie. Jesteśmy też zainteresowani analizą danych medycznych, sygnałów EKG i EEG, chociaż to w większości problemy dotyczące klasyfikacji.
Praca wymaga przede wszystkim stosowania gotowych (chociaż nie zawsze przyjaznych) programów. Bardziej ambitna wersja wymaga porównania ze statystycznymi metodami prognozowania stosowanymi w ekonometrii oraz z metodami opartymi na teorii układów dynamicznych. Jednakże stworzenie realistycznego modelu giełdy jest nadal zadaniem trudnym ... niewiele osob naprawdę zarobiło na swoich przewidywaniach.
Duży sukces w teoretycznym sformułowaniu zagadnień uczenia się sieci neuronowych jak też i innych układów adaptujących się, np. klasyfikatorów ,,autoclass", odniosły oparte na teorii prawdopodobieństwa metody Bayesowskie. Praca wymagać będzie zapoznania się z tymi metodami, porównania wyników z wynikami osiągniętymi innymi metodami regularyzacji, oraz opracowania metod baysowskich dla sieci neuronowych, które dokonują estymacji gęstości w oparciu o funkcje zlokalizowane, takich jak nasz model FSM.
Metody wnioskowania Bayesowksiego w inteligencji obliczeniowej korzystają z wyrafinowanych technik fizyki statystycznej. W ostatnich latach metody pola średniego (szczególnie metoda TAP) stosowane są nie tylko w zagadnieniach optymalizacyjnych, ale i w sieciach neuronowych. Popularne modele typu SVM (Support Vector Machines) również sprowadzić można do modeli TAP. Na razie niewiele jest jednak wyników i programów pokazujących możliwości takich systemów. W kilku przypadkach metody pola średniego znalazły najlepsze rozwiązania 100 razy szybciej niż metody konkurencyjne. Potencjalne zastosowania takich systemów są bardzo szerokie: optymalizacja, inteligentne wspomaganie decyzji, diagnoz, data mining, prognozowanie stanu giełdy czy plam na Słońcu ...
Ta praca może mieć zarówno charakter teoretyczny jak i komputerowy.
Parametryzacja funkcji odległości w metodach najbliższych sąsiadów za pomocą sieci neuronowej pozwala zdefiniować w całej przestrzeni danych funkcję podobieństwa zmieniającą się w ciągły sposób, a więc zrealizować ideę lokalnych układów współrzędnych. Jest to zupełnie nowe podejście do modelowania danych i spodziewam się (na podstawie testów przeprowadzonych z uproszczoną wersją tego typu metody) otrzymania bardzo dobrych wyników w zastosowaniu do problemów klasyfikacji czy predykcji.
Praca wymaga napisania programu komputerowego i przeprowadzenia testów.
Pracę można rozszerzyć o zastosowanie nieeuklidesowych funkcji odległości
w sieciach neuronowych. Interesujące są również związki pomiędzy logiką rozmytą a funkcjami opisującymi podobieństwo. Wydaje mi się, że reguły logiki rozmytej są szczególnym przypadkiem reguł opartych na funkcjach odległości i na prototypach, ale należy to jeszcze udowodnić.
Technologia agentów pełni ważną rolę w AI. Istnieją obecnie gotowe projekty graficzne (np. Haptek "Virtual Friend"), które można wyposażyć w interfejs językowy i dołączyć do programów data mining, pozwalających na odkrywanie wiedzy w przykładach docierających do nich danych. Próba integracji wielu mechanizmów koniecznych do działania takiego systemu będzie pouczająca. W ramach projektu SOAR stworzono systemy uczące obsługi skomplikowanej maszynerii dla wojska, w ramach modelu ART Johna Andersona stworzono z kolei całkiem udane tutoriale, używane na szeroką skalę w szkołach w Pensylwanii.
Awatar rozpatrywać można jako zbiór współpracujących ze sobą agentów. Na najniższym poziomie jest to sieć neuronowa, której każdy element ma niewielką wiedzę a połączenia decydują o sposobie oddziaływania tych elementów i podlegają strukturalizacji wykorzystując informację przepływającą przez sieć. Podobne podejście zastosować można na wyższym poziomie złożoności, otwartym zagadnieniem pozostaje jednak sposób dobierania oddziaływań i uczenia zbioru agentów.
Temat jest częścią dużego projektu, który rozpoczęliśmy jesienią 2004 roku w Nanyang Technological University w Singapurze. Zamierzamy stworzyć rozszerzalny system HIT (Humanized Interface) i zastosować go jako naturalny interfejs typu mówiącej głowy w telefonach, grach słownych (np. grze w 20 pytań), grach i testach egzaminacyjnych.
Jest wiele prac pokazujących w jaki sposób rozwijają się mapy orientacji obuocznej czy inne mapy w układzie wzrokowym. Można również znaleźć prace modelujące plastyczność mapy małego obszaru czuciowego, np. odpowiadającego palcom. O ile wiem nie było natomiast prób analizy tworzenia się globalnych map czuciowych. Mapy takie mają specyficzne nieciągłości, np. przeskakują z kciuka do reprezentacji głowy. Należy najpierw stworzyć "naiwny" model, np. w oparciu o sieć SOM, a później go rozszerzać tak, by uwzględnić efekty związane z pośrednią projekcją przez wzgórze i funkcjami biologicznymi sygnałów dochodzących z różnych obszarów ciała.
Neurodynamika jest niezwykle skomplikowana ale służy często prostym celom. W jaki sposób przejść od pełnego opisu układu dynamicznego do charakteryzacji jego własności, np. liczby atraktorów, obszarów zajmowanych przez ich baseny i prawdopodobieństw przejść między nimi?
W prostych przypadkach można stosować metody dynamiki symbolicznej. Ciekawym uogólnieniem może być rozmyta wersja dynamiki symbolicznej. Można ją zrealizować za pomocą uczenia konkurencyjnego. Mapy SOM, GCS, NG, MDS lub innej metody tego typu mogą się nauczyć i pokazać najważniejsze cechy neurodynamiki. Jak wyglądają takie mapy? Jak wyprowadzić z nich prawdopodobieństwa przejść pomiędzy atraktorami? W jakich warunkach daje się przybliżyć działanie układów dynamicznych za pomocą prostej dynamik gradientowej określonej w przestrzeni cech (parametrów widocznych), a kiedy konieczne będzie wprowadzanie wymiarów ukrytych? Zrozumienie tych zagadnień może otworzyć drogę do modelowania złożonych funkcji mózgu.
Pamięć ikonograficzną w układach percepcyjnych można symulować jako zjawisko dynamiczne, stany pojawiające się w pętlach sprzężeń zwrotnych układu wzrokowego lub słuchowego. Stany pamięci roboczej pozwalają na koordynacje danych ze wszystkich systemów percepcyjnych. Stany te poddawane są wstępnej ocenie przez układ kary/nagrody i zapamiętywane w pamięci epizodycznej, pozwalającej na odtworzenia stanu całego systemu w momencie obserwacji. Na szczycie są funkcje poznawcze związane z płatami czołowymi. Szczegółowy model ośrodków mózgu odpowiedzialnych za procesy uwagi opracowany został przez Johna Taylora.
Niewiele jest doświadczeń z symulacjami tego typu. Budowa symulatora, na którym będzie można prowadzić doświadczenia psychofizyczne wymaga większego projektu i współpracy z wieloma ośrodkami badawczymi, jest jednak na obecnym etapie wykonalna a pewne eksperymenty są już prowadzone (Heikonen, modele rozumowania refleksyjnego). Prawdziwym wyzwaniem jest korelacja niezmienniczego rozpoznawania obiektów za pomocą kamery obserwującej zmieniające się sceny z opisem symbolicznym tych scen. Można się też zastanawiać nad architekturą prowadzącą do pojawiania się komentarzy na temat stanu pamięci roboczej, systemem, który będzie twierdził, że jest świadomy swoich przeżyć.
Z badań kognitywistycznych powoli wyłania się nowy obraz umysłu, a więc istoty człowieka. Nadal ciąży nad nami spuścizna odrzuconych doktryn średniowiecza i naiwne spojrzenie behawiorystyczne. Klasyczny kognitywizm kładący nacisk na rolę reprezentacji wewnętrznych i manipulacje symboliczne jest dobrym paradygmatem tylko dla badania zagadnień dotyczących wyższych czynności psychicznych (myślenia, rozumowania, języka), lecz nie sprawdza się w badaniach bardziej podstawowych funkcji sensomotorycznych jak i subtelności dotyczących jakości doznań (qualia) oraz natury świadomych wrażeń. Problem wolnej woli i indywidualnej odpowiedzialności w świetle wyników neuronauk należy przemyśleć na nowo.
Obraz, który się obecnie wyłania, można by nazwać egzystencjalnym zrozumieniem
człowieka. Konieczne jest jego jasne nakreślenie, począwszy od analizy
historycznego rozwoju sensu podstawowych pojęć takich jak umysł, dusza
i duch, przez postfenomenologiczne analizy bytu Heideggera i Merleau-Ponty,
łączące się z wyrastających z głębokiej introspekcji ideami filozofii indyjskiej
i filozofii Dalekiego Wschodu. Ostatnie badania nad mózgiem pokazują naiwność
wielu rozważań filozoficznych i ukazują w całkiem nowej perspektywie takie
klasyczne zagadnienia jak kwestia wolności woli, problem psychofizyczny
czy kwestie ocen moralnych. Niektórzy uczeni - np. Karl Popper czy John
Eccles - poszukiwali dualistycznych rozwiązań, gdyż umysł jako produkt
działania mózgu wydawał im się czymś niegodnym.
Czy można zbudować nowy, pozytywny wizerunek człowieka zgodny z wiedzą współczesną, włącznie z nowym systemem wartości? Jestem przekonany, że tak jest w istocie.
Projekt inżynierski, wymaga zrobienia wizualizatora MIDI w oparciu o klawiaturę
Thummer lub używanie klawiatury komputera. Program powinien pokazywać trajektorię na klawiaturze Thummer, oraz długość nut używając grubości kreske lub koloru.
Powinno to pozwolić na łatwiejsze zapamiętanie melodii osobom, które mają bardziej pamięć wzrokową niż słuchową.
Na ile można automatycznie ocenić, czy jakiś fragment muzyczny jest wesoły, smutny, wzniosły, porywający, melancholijny, odprężający? Jak to oceniać? Jakie cechy sygnału są dobre do klasyfikacji?
Uczenie się rozpoznawania własnych emocji na przykładzie muzyki może być przydatne w lepszym rozpoznawaniu własnych emocji i ich opanowaniu, co powinno pomóc rozwinąć "inteligencję emocjonalną".
W pierwszym etapie używając dwóch kamer podczepionych do większego monitora lub LCD TV rozpoznawać gesty (można do tego znaleźć biblioteki programów, np. biblioteki Intela) i zamieniać je na ruchy myszy, np. wywołując ciekawe efekty na ekranie.
W drugim etapie należy tworzyć samoupiększające się obrazy: za pomocą dwóch kamer podczepionych do większego monitora należy rozpoznać jak długo i na jaki obszar patrzy stojąca przed nim osoba; na tej podstawie wykonać ewolucję widzianego obrazu za pomocą algorytmu ewolucyjnego. Obraz może być albo mozaiką różnych mniejszych obrazów, lub obrazem abstrakcyjnym, stworzonym za pomocą opisu parametrycznego, np. fraktalnego.
W trzecim etapie należy wprowadzić możliwość manipulacji elementami obrazów za pomocą magicznej różdżki, przesuwając elementy i wydając polecenia słowne pozwalające na wykonywanie prostych transformacji typu "rośnij", lub "zamień się ną różę".
Projekt częsciowo powinien zostać zrealizowany w pracy magisterskiej w 2008 roku, ale jak zwykle, tylko częściowo ...
Praca wymaga rozwiązania problemów związanych ze sterowaniem grupą robotów w czasie rzeczywistym i przygotowania środowiska do eksperymentów, w których roboty mają uczyć się na podstawie częściowych obserwacji za pomocą algorytmów korelacyjnych.
Logika wydaje się naturalna dla maszyn, emocje dla ludzi. Tymczasem ewolucyjnie racjonalne myślenie powstało bardzo późno i jest trudne w realizacji podczas gdy emocje występują nawet u prymitywnych ssaków. Na poziomie neurofizjologicznym emocje nie wyróżniają się niczym szczególnym. W jaki sposób można symulować emocje i na ile przypomina to emocje prawdziwe?
Jest tu wiele ciekawych podejść, zarówno ze strony inżynierskiej, jak i biofizycznej. Kilka odnośników do prac o emocjach jest na stronie: Sieci neuronowe i neurobiologia; przegląd zastosowań sieci neuronowych w psychiatrii jest w pracy: Sieci neuronowe w modelowaniu zaburzeń neuropsychologicznych i chorób psychicznych.
Projekt może np. polegać na ocenie emocjonalnej słów w tekście i dodaniu infromacji afektywnej do zamiany tekstu na mowę (TTS) tak, by bajki lub inny tekst czytane były w bardziej naturalny sposób.
Można też szukać sygnałów emocjonalnych w nagranym głosie dziecka.
Jaki interfejs do programu jest najlepszy? Osoby z różnymi upośledzeniami percepcji mają duże problemy z używaniem komputerów. Jeśli skonstruować dla takich osób prosty edytor to jego własności uzależnić można od parametrów tworzących genom, który ewoluując tworzy nowe interfejsy. Użytownik określa tylko (sam lub jego opiekun) na ile zmiany są pożądane. Końcowa wersja może bardzo odbiegać od tej, jaką wybierze osoba zdrowa. Podobnie dla każdego z nas drobne zmiany mogą prowadzić do indywidualizacji interfejsów.
Ostatnie zmiany: 12.01.2010, Wlodzislaw Duch; moja witryna domowa