Włodzisław Duch, notatki do wykładów wstępnych, według książki Fascynujący świat programów komputerowych

Sztuczna Inteligencja

Kilka odnośników:

Sztuczna inteligencja i uczenie maszynowe: www.is.umk.pl/~duch/ai-ml.html
Statystyka, sieci neuronowe i neurobiologia www.is.umk.pl/~duch/neural.html
Nauki kognitywne: www.is.umk.pl/~duch/cognitive.html

Co to jest Inteligencja Obliczeniowa (Computational Intelligence, CI)?
Dziedzina nauki, zajmująca się rozwiązywaniem problemów, które nie są efektywnie algorytmizowalne, za pomocą obliczeń.
Wykład z inteligencji obliczeniowej.

Częścią CI jest sztuczna inteligencja (Artificial Intelligence, AI), zajmująca się modelowaniem wiedzy, rozwiązywaniem problemów niealgorytmizowalnych w oparciu o symboliczną reprezentację wiedzy.
Wykład z inteligencji obliczeniowej.

Inne dziedziny wchodzące w skład CI to sieci neuronowe, logika rozmyta, algorytmy genetyczne i programowanie ewolucyjne, określane często wspólną nazwą "soft computing". W skład CI wchodzą też metody uczenia maszynowego, rozpoznawania obiektów (pattern recognition), metody statystyki wielowymiarowej, metody optymalizacji, metody modelowania niepewności - probabilistyczne, posybilistyczne, zgrzebne (czyli zbiory i logika przybliżona), oraz teorii kontroli i sterowania.

CI wykorzystuje metody matematyczne z wielu dziedzin, korzysta z inspiracji biologicznych, biocybernetycznych, psychologicznych, statystycznych, matematycznych, logicznych, informatycznych, inżynierskich i innych, jeśli mogą się one przydać do rozwiązywania efektywnie niealgorytmizowalnych problemów.

Co chce osiągnąć? Filozofowie uznali, że są dwa odległe cele:
Wersja słaba AI: komputer pozwala formułować i sprawdzać hipotezy dotyczące mózgu.
Wersja silna AI: komputer odpowiednio zaprogramowany jest w istotny sposób równoważny mózgowi, ma stany poznawcze.

Historia AI

Era prehistoryczna: od maszyny analitycznej Charles'a Babbage (1842) do około 1960 roku, kiedy pojawiły się powszechnie dostępne komputery.
Era romantyczna: 1960-1965, kiedy przewidywano, że AI osiągnie swoje cele w ciągu 10 lat i odniesiono sporo początkowych sukcesów.
Okres ciemności: 1965-1970, w którym niewiele się działo, opadł entuzjazm i pojawiły się głosy bardzo krytyczne.
Renesans: 1970-1975, gdy zaczęto budować pierwsze systemy doradcze, użyteczne w praktyce.
Okres partnerstwa: 1975-1980, gdy do badań nad AI wprowadzono metod z wielu nauk, np. z lingwistyki, nauk poznawczych i nauk o mózgu.
Okres komercjalizacji: 1980-1990, gdy programy AI, a szczególnie systemy doradcze i ich uniwersalne oprawy (shells), zaczęto sprzedawać komercyjnie.

Kluczowe zagadnienia sztucznej inteligencji

Kilka problemów niealgorytmizowalnych, które warto rozwiązać:

Tradycyjne zagadnienia należące AI

Dwie gałęzie AI

1. Gałąź oparta na analizie logicznej, symbolicznej, koncepcyjne rozumienie inteligencji.
2. Gałąź subsymboliczna, modelowanie mózgu, symulacje komputerowe zamiast logicznych analiz.

Wielkie projekty

Piąta generacja komputerów: projekt japoński, 1982-94 r.
Głównie oparte na reprezentacji logicznej, niewłaściwa droga.
Evolutionary engineering - utopijne projekty japońskie.

Projekty amerykańskie: IBM, ARPA, C.Y.C.
Projekty europejskie: EWG, Esprit.

AI jako przedmiot nauczania

AI jako nauka, jej historia, cele; rozwiązywanie problemów, specyfikacja i metodologia, reprezentacja w przestrzeni stanów i redukcja problemu; szukanie heurystyczne; spełnianie ograniczeń; gry, drzewa decyzji, metody szukania; logika pierwszego rzędu, rezolucja, zaprzeczenie, strategie dowodzenia twierdzeń; planowanie, reprezentacja w przestrzeni stanów dla skończonych i nieskończonych przestrzeni, reprezentacja działań; zaawansowane metody reprezentacji i rozumowania: wiedza niepełna, prawdopodobieństwo, specjalne metody wnioskowania, rozumowanie i logika niemonotoniczna; rozumienie języka naturalnego: syntaktyka, semantyka, pragmatyka, ATN, definicje kategorii gramatycznych; systemy ekspertowe, koncepcje z inżynierii wiedzy, programy doradzające i rozwiązujące. .

13.2 Wiedza

Czym jest wiedza? Jak ją reprezentować?
Filozofia: nauką o naturze wiedzy jest epistemologia.

Rodzaje wiedzy:
- Obiekty, przedmioty - najprostsze? Trudności z kategoryzacją.
- Zdarzenia, zmienność w czasie.
- Umiejętności - wiedza niewerbalna
- Meta-wiedza, czyli wiem, że nic nie wiem.
- Wierzenia, przekonania lub ich brak.

Używanie wiedzy:
- Gromadzenie wiedzy, klasyfikacja i integracja
- Wydobywanie wiedzy
- Rozumowanie
- Formalne rozumowanie
- Proceduralne rozumowanie
- Rozumowanie przez analogię
- Rozumowanie przez uogólnianie
- Meta-rozumowanie

Teoria reprezentacji wiedzy - słabo rozwinięta.
- Reprezentacja logiczna
- Reprezentacja proceduralna
- Systemy produkcyjne
- Reprezentacje bezpośrednie
- Ramy (frames): złożone struktury powstałe w wyniku nagromadzenia się wcześniejszych doświadczeń
- Skrypty: wiedza dotycząca typowej sekwencji zdarzeń

Szukanie a ludzkie myślenie

Szachy: Z badań psychologicznych wiadomo, że człowiek stosuje "zmodyfikowane progresywne pogłębianie", ograniczone poszukiwanie w głąb oparte na heurystykach związanych z doświadczeniem i zdolnością oceny przewagi danej sytuacji.
Ekspert pamięta 50-100 tysięcy "prototypowych" wzorców lub struktur.
Mechanizm "porcjowania" przy pamiętaniu złożonych struktur.

Moc komputerowa, dostępna programom grającym w szachy

Poziom gry w szachy vs. moc komputerowa

Monty Hall Paradox, czyli przykład złudzenia kognitywnego.

Mamy 3 kubki. Wychodzisz z pokoju, ja pod jednym z kubków ukrywam złotą monetę. Wracasz i wybierasz jeden z kubków. Ja - wiedząc, pod którym jest moneta - odkrywam jeden z pustych kubków. Masz teraz szansę zmienić swoją decyzję i pozostać przy już wybranym kubku lub wybrać pozostały. (teleturniej "Idź na całość oparty jest na tej grze").
Czy najlepszą strategią jest:
1. Zawsze trzymanie się pierwotnego wyboru,
2. Zawsze zmiana,
3. Czy przypadkowy wybór?

Przykłady zastosowań

HCI, Human-Computer Interaction, ergonomika?

"Mapy umysłu" - alternatywne interfejsy, modele urządzeń technicznych.

Przykłady Wirtualnych Ludzi Hapteka, których mozna użyć w interfejsach programowych.

Analiza języka naturalnego.
NLP, Natural Language Processing: jest to dział informatyki, w skład którego wchodzi:
- Teoria gramatyk i języków formalnych
- Szukanie dobrych reprezentacji wiedzy zawartej w tekstach

Cel: dialog z komputerem w języku naturalnym, analiza istniejących tekstów, wydobywanie z nich informacji.

Tłumaczenie maszynowe: pierwsza praca już w 1949 r.
Historia tłumaczenia maszynowego.
1. Okno kontekstowe
2. Techniki deszyfracji
3. Język pośredni - machinese.

Pismo MT, Machine Translation od 1954 roku
1957, Noam Chomsky, Syntactic Structures
Języki sztuczne, rozwinięta teoria.
Tłumaczenie tekstów technicznych, wygładzenie przez ekspertów.

Parsery - złożone programy, różne strategie.
Problemy: brak wiedzy!
Reprezentacja znaczenia słów i fraz
Rozstrzygnięcia, do czego lub kogo odnosi się dany tekst
Dynamiczne dopełnianie fraz
Nauka fraz z przykładów kontekstowych.
Automatyczna konstrukcja baz danych i uczenie się z tekstów w języku naturalnym.
Rozumowanie w oparciu o reprezentacje lingwistyczne
Integracja nowej i starej wiedzy
Planowanie i argumentacja
Uczenie się związków przyczynowych
Modele rozumienia argumentów w tekstach gazetowych.
Symulacja procesu marzenia na jawie
Odwzorowanie wiedzy na reprezentację tekstową
Tworzenie zdań
Podejście koneksjonistyczne i symboliczne do rozumienia, uczenia się i planowania.

Systemy doradcze.

Systemy doradcze i ich zastosowania
Spośród innych programów wykorzystujących techniki AI systemy eksperckie wyróżnia używanie obszernej wiedzy w postaci faktów i procedur (sposobów postępowania) zdobytych od prawdziwego eksperta.

System ekspercki: definicja.
Jest to inteligentny program komputerowy wykorzystujący procedury wnioskowania do rozwiązywania tych problemów, które są na tyle trudne, że normalnie wymagają znaczącej ekspertyzy specjalistów. Wiedza (niezbędna, by zapewnić odpowiedni poziom ekspertyzy), wraz z procedurami wnioskowania, może być uważana za model ekspertyzy, normalnie posiadanej tylko przez najlepszych specjalistów w tej dziedzinie. Wiedza systemu eksperckiego składa się zazwyczaj z faktów i heurystyk. Fakty są podstawą bazy wiedzy systemu - informacją, która jest ogólnie dostępna i powszechnie akceptowana przez specjalistów w danej dziedzinie. Heurystyki są zwykle bardziej subiektywną informacją, która charakteryzuje proces oceny i rozwiązywania problemu przez określonego specjalistę. Przykładami heurystyk są: intuicyjne domysły, przypuszczenia, zdroworozsądkowe zasady postępowania. Poziom ekspertyzy, oferowany przez dany system ekspercki, jest przede wszystkim funkcją rozmiaru i jakości bazy wiedzy danego systemu.

Dlaczego?
1. Koszty: w dłuższym okresie czasu są znacznie tańsze, pomagają w rozwiązywaniu problemów wymagających najbardziej specjalistycznej (a więc najdroższej) wiedzy.
2. Brak ekspertów.
3. Pracują szybciej, nie męczą się, są bardziej niezawodne niż ludzie.
4. Konsekwentne, konsystentne, obiektywne, dokładne.
5. Zawsze do dyspozycji (nie strajkują!).
6. Analiza dużych ilości danych wymaga komputera.

SE: systemy oparte na wszystkich sposobach reprezentacji wiedzy, najczęściej w postaci reguł produkcji.

Tworzenie systemu: etapy

Analizy problemu - oceny, czy budowa SE dla danego problem ma sens.
Specyfikacji systemu - szczegółowego określenia funkcji i oczekiwań.
Akwizycji wiedzy - zgromadzenia, wydobycia z ekspertów i organizacji wiedzy.
Wyboru metody reprezentacji wiedzy i narzędzi do budowy SE.
Konstrukcji systemu - utworzenia bazy wiedzy, reguł wnioskowania, systemu wyjaśniającego rozumowanie i prowadzenia dialogu z użytkownikiem.
Weryfikacji i testowania systemu.
Akwizycja wiedzy wymaga transferu ekspertyzy i jej reprezentacji.

Wiedza może być w postaci:

Faktów z danej dziedziny wiedzy, np: "W starych silnikach diesla przy przegrzaniu dochodzi do gwałtownego podwyższenia obrotów na skutek chwilowego spalania oleju."
Reguł typu: "Przed zdjęciem obudowy wyciągnąć wtyczkę."
Heurystyk, czyli co by tu zrobić: "Jak nie zaskakuje a jest iskra to warto sprawdzić przewód paliwa".
Ogólnych strategii postępowania.
Teorii danej dziedziny, np. działania silników samochodowych.

Metody wydobywania wiedzy to:

prowadzenie wywiadów z ekspertami
analiza kwestionariuszy wypełnianych przez ekspertów
analiza raportów pisanych przez ekspertów
analiza komentarzy ekspertów wykonywanych w czasie pracy
obserwacja ekspertów przy pracy
introspekcja

Rodzaje systemów eksperckich:

Systemy kontrolne pozwalające na sterowanie skomplikowanymi systemami, takimi jak automatyczne zakłady produkcyjne itp.
Systemy diagnostyczne to jedno z najbardziej popularnych zastosowań SE, w zagadnieniach technicznych, medycynie, analizie chemicznej i wielu innych problemach.
Systemy testujące pomagają przy znajdywaniu problemów i mogą być częścią systemów kontrolnych lub systemów diagnostycznych.
Systemy naprawcze nie tylko prowadzą testy ale i planują działania korekcyjne. Można do nich zaliczyć również niektóre systemy medyczne, zalecające leczenie.
Systemy projektujące wspomagają prace projektowe, takie jak projektowanie układów elektronicznych, CAD czy CAM.
Systemy edukacyjne czyli CAI, lub ICAI (Intelligent Computer Aided Instruction), a więc inteligentne wspomaganie nauczania, systemy algebry symbolicznej.
Systemy interpretujące wspomagające analizę i interpretację informacji, wydobywanie informacji z baz danych, interpretujące dane geologiczne.
Systemy planistyczne wspomagające strategiczne działanie i planowanie zadań, np. planowanie syntezy związków chemicznych czy budowy systemów komputerowych.
Systemy prognostyczne wspomagające wyciąganie wniosków i przewidywanie tendencji.

Konstrukcja systemów eksperckich

Bazy wiedzy oddzielone są od mechanizmów wnioskowania.
Reguły produkcji: (obiekt,atrybut,wartość), np. (samochód,kolor,czerwony)

Architektury:
hierarchiczna: dzieli wiedzę na dziedziny, zawiera meta-poziom
wielowarstwowa: kilka poziomów, np. działanie, planowanie, strategia
tablicowa (blackboard): łączenie wiedzy z kilku źródeł
hybrydowa: regułowo-koneksjonistyczna
symulacyjna: modele numeryczne i sieci powiązań przyczynowych
korzystająca z analogii: case-based reasoning

DSS (Decision Support Systems), Systemy Wspomagania Decyzji
Dialog z użytkownikiem i wyjaśnienia sposobów wnioskowania systemu.
Nie zawsze system rozumuje w sposób podobny do człowieka.

Rozumowanie retrospektywne
Rozumowanie hipotetyczne
Rozumowanie wbrew faktom (counterfactual reasoning)

Problem: niepewność wiedzy.
Prawdopodobieństwo warunkowe, współczynniki ufności lub pewności (confidence factors), teoria wiarygodności, teoria zbiorów rozmytych.

Języki programowania do tworzenia SE

LISP (od: List PROcessing, przetwarzanie list), 1958, John McCarthy
Common Lisp 1984 rok, wiele dialektów, np. Scheme
CLOS (Common Lisp Object System)
Prolog (Programming in Logic), Marsylia i Edynburg.
POP-2 do POP-5, FUZZY

Expert System Shells (ESS):

EMYCIN, KAS (Knowledge Aquisition System), OPS5, KEE, Knowledge Engineering Environment, KES ESS: czas opracowania systemu 10-20 razy krótszy
Ostatnio również języki zorientowane obiektowo: C++, Smalltalk, Dylan

Przykłady systemów eksperckich

Tworzenie baz wiedzy: system TEIRESIAS
Do wspomagania tworzenia baz wiedzy, pomaga dodawać, modyfikować i usuwać błędy z bazy wiedzy. Zastosowany początkowo w systemie MYCIN, zajmującego się infekcjami bakteryjnymi. MYCIN rozwijano w Stanfordzie od 1972 roku jako program do diagnostyki i terapii chorób zakaźnych (Stanford, 1972).
Wiedza: reguły produkcji, listy, tabele, opis parametrów klinicznych
Typowa reguła wygląda następująco:

REGUŁA 095
IF Kultura bakteryjna rozwinęła się we krwi
i odczyn jest gramopozytywny
i bakterie wniknęły przez jelito
i żołądek lub miednica są miejscem infekcji
THEN Istnieją silne poszlaki, że klasą bakterii, które są za to odpowiedzialne są Enterobacteriacae.

META-REGUŁA 001
IF (1) infekcja ma charakter brzuszny i
(2) użyto reguł które wspominają o Enterobacteriacae i
(3) użyto reguł wspominających o pałeczkach grampozytywnych

THEN z poziomem ufności 0.4 reguły dotyczące Enterobacteriacae powinny być użyte przed regułami dotyczącymi pałeczek.

Meta-reguła nie odwołuje się do żadnych specyficznych reguł, określa tylko kolejność stosowania grup reguł.
Porównanie diagnoz i zaleceń MYCIN z zaleceniami 5 specjalistów z kliniki w Stanfordzie:
MYCIN 52 punkty, specjaliści od 34 - 50 punktów, student medycyny uzyskał 24 punkty.

EMYCIN (1981), NEOMYCIN (1984)
PUFF i jego rozwinięcie CENTAUR (1983), diagnoza chorób płuc.
INTERNIST: choroby poszczególnych organów: płuc, serca, wątroby
Wiele innych systemów medycznych.

Czemu nie ma SE w szpitalach?

Zastosowania w chemii.

System DENDRAL

Rozwijany już od 1965 roku, Stanford University
Służy do generacji struktur chemicznych zgodnych z informacjami z spektrografii masowej, NMR, widm IR, UV, informacji o reakcjach.

Określanie struktury substancji chemicznych i biologicznych: rentgenograficznie - bardzo drogo. Spektrometr masowy: rozbija wiązką elektronów cząsteczki, analizuje masę naładowanych fragmentów, wykres intensywność-e/m.
Wzór sumaryczny: C6 H13 NO2 ponad 10.000 izomerów.
Wzór sumaryczny: C25 H52 ponad 36 mln izomerów.

Moduły
Planowanie: spektrogram - fragmenty cząsteczki.
Generacja: tworzy wszystkie struktury przestrzenne zgodne z więzami. Algorytm dla struktur niecyklicznych z 1964, a cyklicznych z 1976 roku.
Testowanie: symulacja i ocena podobieństwa widm

Przykład reguły
Jeśli: widmo ma 2 piki dla mas x1 i x2 takich, że
a) x1 + x2 = M+28 i
b) x1 - 28 to wysoki pik i
c) x2 - 28 to wysoki pik i
d) przynajmniej jeden z pików x1, x2 to wysoki pik
to: cząsteczka zawiera grupę ketonową.

Ograniczenia redukują możliwe struktury dla C8H16O z 790 do 3 struktur.
Od 1969 roku używany w chemii, m.in. wyjaśniono strukturę estrów organicznych, hormonów, antybiotyków, nieczystości w substancjach chemicznych. Dla substancji mieszanych wyniki otrzymywane przy pomocy tego systemu są lepsze niż wyniki prawdziwych ekspertów.

Meta-DENDRAL: automatyczne tworzenie teorii, tworzenie koncepcji w wyniku indukcji, np. szukanie reguł typu:
R1. N-C-C-C ==> N-C * C-C
na podstawie widm znanych struktur.

Moduły: INTSUM, RULEGEN, RULEMOD (rule refinement);
Użycie version spaces.
Meta-DENDRAL odkrył znane reguły dla kilku klas cząsteczek i znalazł nowe dla wielu klas; stosowany w spektroskopii masowej i NMR 13C.

CRYSALIS

do krystalografii białek - koszt zbadania struktury 1 M$.
Interpretacja map gęstości elektronowej i innych danych w oparciu o reguły i koncepcję "tablic"; event-driven control structure.

Heurystyczna interpretacja widm:
algorytm LS (library search algorithm) - dopasowanie wzorca;
algorytm sieciowy - analiza w oparciu o drzewa decyzji;
algorytm wektorowy - tworzenie wektora opisującego strukturę.

CASD - Computer Aided Synthesis Design

Typowa synteza > 10 odrębnych reakcji.
Najprostszy steroid z 20 atomów - synteza na 10^18 sposobów!
Liczba podstawowych substratów < 500, innych w przemyśle < 2000.
Bazy danych - rzędu 500 schematów reakcji; >105 konkretnych reakcji.
Nowe reakcje chemiczne - korzystając z modelu D-U (Dugundji, Ugi).
3 macierze reakcji - 77% wszystkich reakcji przemysłowych.
Metody AI doprowadziły do odkrycia wielu nowych reakcji chemicznych.

Geologia
PROSPECTOR

SE asystujący geologom; zawiera model złóż geologicznych.
Przy jego pomocy odkryto szereg złóż.

Matematyka

Systemy algebry symbolicznej - jedno z pierwszych zastosowań AI:
FORMAC, ALTRAN, SCRATCHPAD, REDUCE, MuMath, AXIOM, MACSYMA, MAPLE, MATHEMATICA, MathCAD, ...

Co potrafią?
· dowolna precyzja np. 100! czy 10/3 z dokładnością do 50 cyfr;
· wielomiany i funkcje wymierne - upraszcza, rozwija, faktoryzuje;
· podstawia wyrażenia;
· różniczkuje i całkuje łatwo: Risch (1969) wprowadził podstawowe algorytmy, uciążliwe dla ludzi, Norman i Moor (1977) je zaimplementował. Istniejące tablice całek mają od 7-20% błędów, ostatnie wersje tablic są dlatego sprawdzane przez programy!
· możliwości definiowania własnych funkcji specjalnych i reguł ich użycia;
· operacje macierzowe na symbolicznie określonych macierzach;
· możliwości rozwiązań numerycznych równań, nie dających się rozwiązać symbolicznie;
· duże możliwości graficzne większości systemów.

Dowodzenie twierdzeń matematycznych: wielkie postępy, np. dowód hipotezy Robbinsa (1936), której przez 60 lat matematycy nie potrafili udowodnić. Inne problemy matematyczne, które niedawno rozwiązano dotyczą geometrii algebraicznej, teorii krat, teorii kwazikrat, autodualnych algebr Boolowskich, teorii grup, półgrup i kwazigrup, logiki kombinatorycznej, różnych działów logiki i wielu innych działów matematyki.

Niektóre rezultaty omówione są na stronie: http://www.mcs.anl.gov/AR/new_results/

Formalizacja całej matematyki: projekt QED.
Projekt Mizar (Uniw. Warszawski i filia w Białymstoku), od 1973 roku, stworzono bazę danych obejmująca ponad 2000 definicji i ponad 20 tysięcy twierdzeń. Projekt zmierza do stworzenia środowiska pracy dla matematyków i logików, dostarczając sformalizowanego języka zapisu twierdzeń i sprawdzając poprawność dowodów.

Inteligentne wspomaganie nauczania (ICAI)

SCHOLAR - nauczanie geografii
Tutoriale Johna Andersona: nauczanie algebry, języków programowania.

Inne systemy eksperckie

CBC, czyli komputerowy konsultant z SRI.
R1, XCON - konfiguracja sprzętu komputerowego

Uczenie maszynowe

Machine Learning, ML - część sztucznej inteligencji.
Można tu zaliczyć wszystkie metody adaptacji, łącznie z sieciami neuronowymi i algorytmami genetycznymi.

ML to metody umożliwiające mechanizację akwizycji wiedzy
Alternatywa dla tworzenia reguł na podstawie analizy zachowań ekspertów.
ML czerpie z informatyki, statystyki, pattern recognition i kognitywistyki

Często dane są w postaci przykładów
Problemy redukują się do klasyfikacji
Eksperci opisują sytuacje podając przykłady

Czasami reguły otrzymane metodami ML są znacznie lepsze niż reguły wydedukowane przez ludzi.
ML oferuje szybszą drogę do tworzenia systemów eksperckich

Klasy metod ML
Powszechnie stosowane:
Drzewa decyzji/indukcja reguł
Rozumowanie oparte na analogiach (case-based)
Rozumowanie oparte na pamięci, precedensach (memory-based)
Logika rozmyta, logika przybliżona
Sieci neuronowe

Pojawiają się:
version spaces
algorytmy genetyczne
sieci probabilistyczne (Baysowskie)
zbiory i logika przybliżona (rough logics)
induktywne programowanie logiczne (ILP)
uczenie ze wzmocnieniem (reinforcement).

Dużo zastosowań w przemyśle: maszynowym, naftowym (BP), chemicznym , finansach (American Express), komputerowym (Siemens), określanie jakości oprogramowania (NEC), eksploracja baz danych (data mining)
Oszczędności rzędu M$/rok !

Sieci neuronowe

Inspiracje biologiczne do tworzenia systemów uczacych.
Neurokomputery - nowe podejście do obliczeń.

Logika rozmyta i algorytmy ewolucyjne

Logika rozmyta - uwzględnia brak precyzji, zamiast odpowiedzi tak-nie dopuszcza dowolne stopnie.
Np. można być w pewnym stopniu wysokim lub łysym.


Wielkie projekty w dziedzinie sztucznej inteligencji

Projekt CYC (enCYClopedic knowledge)

Projekt CYC Cycorp,Inc. Najbardziej ambitny system ekspercki oparty na regułach zawartych w bazie wiedzy o świecie - realizowany od 1984 roku.
Zdrowy rozsądek wymaga milionów reguł! Czy to realne?
Do końca 1990 roku system CYC zawierał około 2 milionów reguł.
Pierwsze milion reguł dotyczy spraw ogólnych, klasyfikacji, ograniczeń, takich pojęć jak czas, przestrzeń, substancja - podstawowa ontologia.

Język reprezentacji wiedzy CycL, oparty na ramach, dla których zdefiniowano rachunek predykatów + zmienne domyślne.
Dziedziczenie przez cały łańcuch relacji.
Dodatkowo: specyfikacja ograniczeń (constraint language).
Reprezentacja obiektów, zdarzeń, nastawień, przekonań.
Wszystko jest rodzajem rzeczy, konkretnej lub abstrakcyjnej.
Rzeczy indywidualne, np. Jan, Polska, nos Jana, mogą mieć części.
Kolekcje = zbiory rzeczy, np. osoba, naród, nos, mogą mieć podzbiory.
Rzeczy nienamacalne nie mają masy, są to zdarzenia, liczby, prawa.
Rzeczy namacalne mają masę, np. ciało człowieka, jabłko czy kurz.
Rzeczy złożone - cechy namacalne i nienamacalne, np. osoba ma ciało i umysł.
Substancja to ObiektIndywidualny, pocięta zachowuje własności.

Specyficzne mechanizmy wnioskowania, ponad 20, zależnie od dziedziny, mikroteorie.
Reguły typu if-needed rule, oraz typu if-added rule, oceniane w nocy.
Spójność wiedzy - truth maintance system.
Poziom epistemologiczny (EL).

Zastosowania: 1995 firma komercyjna CyCorp
KBNLP czyli Knowledge Based Natural Language Processing system.

The Cycic Friends Network - wielu ekspertów CYC pracujących nad jednym problemem.

Sztuczna inteligencja i modele umysłu

Teorie poznania: jakie przybliżenia w teorii umysłu?
Pożądane cechy modelu umysłu:
Racjonalne, celowe zachowanie, działanie w czasie rzeczywistym, użycie obszernej wiedzy, kontrola systemu motorycznego, używanie symboli i metasymboli języka, nauka na podstawie doświadczeń w spontaniczny sposób, rozwijanie nowych zdolności, autonomicznie działanie, poczucie tożsamości, wyjaśnianie obserwacji i praw psychologii.

Przykłady: prawo Fittsa (1954).
Wskazując palcem na miejsce o rozmiarach S odległe o D od punktu startu człowiek potrzebuje t ~ log(D/S).
Prawo uczenia się:
po wykonaniu N prób czas wykonania zadania T= A*N^a

Pojemność pamięci krótkotrwałej: 7 ± 2 obiekty.

Act* i Act-R

Modele kognitywne, John Anderson (1983, 1993)
Deklaratywna pamięć długotrwała w postaci sieci semantycznej.
Pamięć proceduralna zawierają reguły produkcji.
Pamięć robocza - aktywna część pamięci deklaratywnej.
Uczenie się - przypisanie wag regułom produkcji.
Często używane reguły stają się coraz ważniejsze.

Act* zastosowano do: wyjaśnienia własności pamięci, kolejność odpowiedzi i przypominania, uczenie się nowych słów, uczenie się elementów programowania i rozumowanie geometryczne w czasie dowodzenia twierdzeń.
Act* jako baza do inteligentnych programów wspomagających nauczanie, tzw. tutoriali: LISP, Prolog, Pascal, algebra, geometria.
Testy w szkołach dały bardzo dobre wyniki.

SOAR

John Laird, Paul Rosenbloom, Allen Newell (od 1980 roku)
Umysł - system kontrolny, określający zachowanie się układu przy oddziaływaniach ze złożonym, zmiennym w czasie środowiskiem.
Umysł działa w oparciu o zgromadzoną wiedzę.
System intencjonalny.

Symbol - klasa abstrakcji znaków symbolicznych, reprezentuje wiedzę.
Systemy symboliczne mają moc uniwersalnej maszyny Turinga.
System oparty na wiedzy (SOW).

Inteligencja - zdolność do wykorzystania wiedzy.
System inteligentny jest przybliżeniem SOW.
Inteligentne zachowanie - rozważenie możliwych rozwiązań, wybór.
Podstawą inteligentnego zachowania są procesy poszukiwania rozwiązań.

Przygotowanie i szukanie: izobary stałej kompetencji.
Umysł człowieka: ograniczenia czasowe 10^-6 do 10^8 sek.
Reguła 100 kroków

SOAR: założenia
Zadania reprezentowane przez przestrzenie problemów.
Pamięć trwała i symbole określone przez reguły produkcji.
Własności obiektów określone przez wartości atrybutów.
Decyzje podejmowane są w oparciu o preferencje: akceptuj/odrzuć, lepszy/obojętny/gorszy.
Zachowanie sterowane jest przez cele; podcele generowane są automatycznie w odpowiedzi na impas w działaniu.
Mechanizm tworzenia bloczków wiedzy działa w ciągły sposób na wynikach pośredniej realizacji celów.

Elementarne funkcje:
wybór przestrzeni problemu,
wybór stanu w tej przestrzeni,
wybór operatora, który zostanie zastosowany do wybranego stanu,
zastosowanie operatora.

Przykład:
R1-Soar, system ekspercki do konfiguracji systemów komputerowych
Bez uczenia: 1731 cyklów decyzji, 232 reguł
Bez uczenia, dodatkowe 10 reguł strategicznych: 150 cykli, 242 reguły
Po nauczeniu: 7 cykli, 291 reguł (dodanych w wyniku bloczkowania)

Wirtualne środowisko nauczania.
Steve - przykład programu nauczającego z wykorzystaniem technik sztucznej inteligencji.

Projekt Cog

Projekt rozpoczęty w 1994 roku na MIT, Rodney Brooks.
Inteligencja behawioralna.
Założenie: inteligencja ludzka jest wynikiem procesów rozwojowych, oddziaływań społecznych, ucieleśnienia umysłu oraz integracji wielomodalnej informacji zmysłowej.

Nowe umiejętności powstają w oparciu o wcześniej nabyte.
Ludzie nie tworzą pełnych, wiernych reprezentacji.
Wiele niespójnych reprezentacji używanych jest w różnych kontekstach.
Mózg nie ma CPU - nie ma centralnego kontrolera (np. rozczepione mózgi).
Mózg ma specyficzne ograniczenia, nawet w zakresie logiki.
Irracjonalność zachowań człowieka, rola emocji.

Rozwój: złożone zachowanie w oparciu o prostsze, analiza strategii chwytania zabawek przez niemowlęta; uczenie w etapach prostsze niż końcowe; mapy wizualno-motoryczne, uczenie wskazywania celu wzrokowego, stopniowe zwiększanie złożoności - niemowlęta robią ruchy synchronicznie, maja początkowo słaba ostrość wzroku.

Kontakty społeczne i opiekuńcze środowisko: konieczne do prawidłowego rozwoju, dlatego potrzebna humanoidalna postać robota.
Zaburzenia, np. autyzm pokazują, jakie interakcje są ważne.
Dzielenie uwagi, kontakt wzrokowy, gesty i wyrazy twarzy, kiwanie głową.
nauka wyciagania ręki i kontakt z człowiekiem.
RoboThespian: jestem maszyną.

Cielesność: bezpośrednie sprzężenie percepcji i działania motorycznego, pozwala na ugruntowanie sensu wewnętrznych reprezentacji.
Ludzka inteligencja wymaga ludzkiego ciała; łatwiej zrobić robota niż symulować grawitację, sprężystość, koordynacje kończyn itp.
Cog ma (1998) tułów o 21 stopniach swobody.
Dynamika systemu wynika z oddziaływania ze środowiskiem, informacji priopriorecepcyjnej, zmysłu równowagi.
Jedyne reprezentacje to wewnętrzne sekwencje motoryczne.

Integracja wielomodalna: zmysły wzajemnie sobie pomagają, iluzje akustyczne mogą wywołać iluzje wzrokowe i odwrotnie!
System stabilizacji obrazu wykorzystuje system równowagi i odruch VOR.
Orientacja: sygnały akustyczne i wizualne.
Zrobiono: ruchy sakadyczne oczu, koordynację słuchu i oczu, lokalizację dźwięku, układ równowagi, kooordynację ruchu głowy i oczu, rąk i oczu, sprężystość kończyn, kontrolę ruchów, rozpoznawanie twarzy i kontakt wzrokowy, skórę wrażliwą na dotyk, kategoryzację dotykanych obiektów.

Pytania:
Jak rozwijać taki system? Jakie etapy i strategie uczenia?
Jakie zachowanie wywołuje zachowania opiekuńcze u ludzi?
Jakie motywacje, emocje, popędy są konieczne do komunikacji?
Jak ma wyglądać pamięć zdolności motorycznych i wzrokowo-przestrzennych?
Jak wykorzystać wyuczone zdolności w nowych kontekstach?
Jak osiągnąć spójne zachowanie zbioru różnych podsystemów o różnych (czasem sprzecznych) celach, zachowaniu, działaniu, stabilności? Jak szczegółowo należy modelować biologiczne cechy organizmu?
Jak oceniać postępy w tworzeniu takiego systemu?

Kismet: pierwszy robot, który "wyczuwa" emocje i odpowiednio reaguje.
Obliczenia "afektywne", analizy i ekspersji emocji, w ostatnich kilku latach stały się ważną gałęzią inteligencji obliczeniowej.
Język to prawdziwe wyzwanie, emocje są prostsze ...


Ewolucja umysłu i automaty Darwin/Nomad z grupy Edelmana

Roboty Darwin/Nomad te mają wszczepione ogólne wartości: lepiej jest mieć doznania niż ich nie mieć. Lepiej jest coś dotknąć lub posmakować niż to ominąć. Te wartości plus środowisko pozwalają na ewolucję bardzo interesujących form zachowań.

Nomad z bliska i Nomad wśród klocków

Inteligentne zabawki: Sony Aibo (1999) i Aibo 2 (2000).

Teraźniejszość: Szybkość - pamięć komputerów.
Przyszłość: Moc komputerowa za 1000 USD.


Włodzisław Duch, notatki do wykładów wstępnych, według książki Fascynujący świat programów komputerowych