Uwaga: te wykłady zostały zastąpione nową wersją.

6. Filozofia Kognitywna

Metafory epoki:
Grecja - umysł jest jak katapulta, popatrzcie na dramatyczne napięcia i katharsis.

Leibniz - umysł jest jak młyn.
Babbage - umysł jest jak krosna tkackie.
Freud - umysł jest jak system hydrauliczny, ciśnienie psychiczne powoduje choroby.
Sherrington - umysł to telefoniczna centrala - czym innym mógłby być?

Wiek XX - umysł = komputer.
Podstawowe założenie filozofii kognitywnej.
Wiek XXI - neurofilozofia?




6.1. Narodziny kognitywizmu

Koniec XIX wieku - psychologia oparta na introspekcji, nie dała wiarygodnych rezultatów.
Psychofizyka: Fechner, Wundt, Mach, Helmholtz, fizycy do początku XX wieku.
Początek XX wieku - entuzjazm dla badania odruchów warunkowych przez Pawłowa.
Behawioryzm zrobił z psychologii naukę ścisłą.
Umysł, świadomość, czynności poznawcze - nieobserwowalne = nienaukowe.
Spór o istnienie świata przeszedł w spór o istnienie umysłu.

Uniwersalne i obiektywne prawa nauki - relacje pomiędzy bodźcami a reakcjami.
John Watson, Brian Skinner, Edward Tolman, Clark Hull - nowy paradygmat badań psychologicznych.
Zachowanie jest wynikiem uwarunkowania środowiska.
Można badać tylko obiektywnie obserwowalne zachowania.

Niestety: brak jest obiektywnych praw dla złożonych form zachowania.
Sądy i przekonania nie da się zredukować do dyspozycji organizmu.
Brak rezultatów dotyczących języka, wypowiedzi nie wynikają z prostych skojarzeń.
Bolesna lekcja automatycznego tłumaczenia i badań nad analizą tekstów w sztucznej inteligencji.
Jak można zaprzeczyć realności świata wewnętrznego?

Procesy pośredniczące pomiędzy postrzeganiem a reakcjami są ukryte.
Teorie zakładające ukryte, nieświadome mechanizmy wywodziły się z psychoanalizy Freuda.
Psychodynamika i różne szkoły psychoterapii nigdy nie były naukowe, weryfikowalne.
Model przetwarzania informacji wniosła informatyka.

Sztuczna Inteligencja

Idee kognitywistyczne stworzyli eksperci AI i psychologii poznawczej.
Inteligentne zachowanie systemów złożonych nie wymaga inteligencji elementów.
"Duch w maszynie" nie jest potrzebny.
Symbol reprezentuje coś innego niż swoja fizykalną formę.
Reguły określają znaczenie symboli przez wzajemne relacje.
Stany umysłowe - myśli, przekonania, percepcja - to stany obliczeniowe maszynerii przetwarzającej informację.

Funkcjonalizm: stan umysłowy może być zrealizowany w różny sposób w różnych systemach fizycznych.
Fizyczna realizacja symboli jest drugorzędna, ważne są relacje i przetwarzanie informacji.
Krytyka "szowinizmu węglowego": inteligencja pozaziemska nie musi
Emulacja jednego komputera przez drugi.
Przetwarzanie informacji wykracza poza asocjacjonizm.
Nie ma dualizmu substancji ciała i umysłu, chociaż są jakościowe róznice.

Umysł to funkcja procesów fizycznych przetwarzających informację.
Umysł = algorytm realizowany przez mózg lub komputer.
"Silne AI": odpowiednio zaprogramowany komputer jest równoważny umysłowi, ma stany poznawcze.

Symbole językowe są elementami dyskretnymi, procesy percepcji/działania są ciągłe.
Funkcjonalizm zajmuje się wyższymi czynnościami poznawczymi, językiem i rozumowaniem.
Franz Brentano (1874) ożywił scholastyczne koncepcje intencjonalności - odniesienia do treści, sensu.
Intencjonalność systemu: symbole są o czymś, bo istnieje izomorfizm relacji obiektów rzeczywistych i umysłowych.
Czy to wystarczy?

Odpowiednia zależność przyczynowa stanów umysłu od stanów świata jest warunkiem koniecznym.
Jak symbole mogą reprezentować coś poza samym sobą?
Problem nabierania znaczenia przez symbole (symbol grounding problem), Harnad (1990, 1993).
Zagnieżdżenie znaczenia w reprezentacjach somatosensorycznych.

Umysł jako system przetwarzania informacji.
Sztuczny umysł wymaga ogromnych baz wiedzy, metod reprezentacji i korzystania z wiedzy.
System ekspertowy CYC jest próbą realizacji zdrowego rozsądku w oparciu o miliony reguł.
Czy systemy komputerowe symulują jedynie inteligentne działanie czy naprawdę mają jakieś stany poznawcze?

6.2. Argumenty Turinga

Allan Turing (1912-1954)

Twórca teorii automatów, matematycznych podstaw teorii obliczeń, w pracy z 1936 roku podał teoretyczny model komputera („automatu Turinga”), prowadził rozważania nad obliczalnością, zaangażowany w budowę maszyn liczących i szyfrujących.

W artykule "Computing Machinery and Intelligence" (1950) uznał pytanie "czy maszyny mogą myśleć?" za zbyt mało precyzyjne.

Test Turinga: biorą udział 3 osoby. A próbuje zmylić pytającego tak, by nie zgadł jego lub jej płci, B ma za zadanie mu pomoc.
Rolę A ma grać maszyna - czy pytający będzie się równie często mylić?
Obecnie test Turinga to próba udawania przez program komputerowy w czasie konwersacji, że jest człowiekiem.
Od 1991 roku zawody tego typu o nagrodę Loebnera.

Czy test Turinga wystarczy by przypisać maszynie umysł?
Turing był przekonany, że do 2000 r. będą myślące maszyny.
Możliwości stworzenia myślących maszyn są kontrowersyjne.
Turing omówił szereg zarzutów przekonując, że taki test wystarczy dla uznania, iż mamy do czynienia z rzeczywistym myśleniem.

1. Zarzut teologiczny: myślenie jest funkcją nieśmiertelnej duszy a tej maszyna mieć nie może.
Odp. teologa: kto wie, co maszyna mieć może?
Odp. Turinga - nie można tego zarzutu poważnie traktować.
Wersja współczesna – psychony wokół dendronów, John Eccles.

2. Lepiej schować głowę w piasek bo konsekwencje są straszne, przede wszystkim dla naszego antropocentryzmu.
Strach przed "terminatorem", w subtelniejszej formie często spotykany, odpowiedzialny za popularność poglądów anty-AI.
Efekt: racjonalizacje i emocje, przekonanie o beznadziejności badań nad umysłem, nadzieje na to, że problem nigdy nie zostanie zrozumiany (np. Turski 1996).
Szachiści też wyśmiewali programy komputerowe.

3. Zarzut matematyczny – twierdzenia Gödla, Churcha, Turinga o zdaniach nierozstrzygalnych.
Co jakiś czas zarzut ten powraca w innej formie (por. Lukas, Penrose).
Rezultat: poszukiwania nowej fizyki procesów nieobliczalnych, mikrotubule i kwantowa grawitacja - całkiem niepotrzebne.
Ograniczenia umysłu człowieka są dużo silniejsze niż maszyny Turinga!
Turing: człowiek też się myli, konkretna maszyna jak i konkretny człowiek nie odpowie na wszystkie pytania.
Umysł nie działa w oparciu o ustalony algorytm gdyż się uczy.
Argumenty matematyczne dotyczą jedynie systemów z logiką klasyczną. Czasami posługujemy się wiedzą sprzeczną, proceduralną lub niepełną.
Wniosek: nie można stworzyć maszyny wszechwiedzącej.

4. Świadomość, emocje, uczucia to rzeczy niedostępne maszynom – trudny problem Chalmersa.
Po przegranej Kasparowa - Deep Blue nawet nie potrafi się cieszyć z wygranej!
Turing - o umysłach innych ludzi wiemy z obserwacji, więc jeśli przejdzie test i nie uznamy, że myśli, pozostanie solipsyzm.

5. Argumenty dotyczące różnych niemożliwości.
Maszyny nie są zdolne do: samodzielnej inicjatywy, humoru, zakochania się, rozkoszowania lodami ...
Maszyna jest głupia i zawsze taka być musi?
Są to błędne generalizacje doświadczeń z obecnie istniejącymi maszynami.
Pamięć, liczenie, rozumienie mowy, ekspertyza - kiedyś nie do wyobrażenia.

6. Maszyna sam nie może nic stworzyć.
Teraz już może! W szachach, matematyce, patenty na procesy przemysłowe, a nawet malowaniu obrazów czy komponowaniu muzyki.
Odkrywanie wiedzy (data mining), systemy ekspertowe odkrywające nowe rozwiązania.
Einstein: człowiek nie widzi dopóki się o odkrycie nie potknie.

7. Układ nerwowy nie działa w sposób dyskretny
Możliwe są dowolnie dokładne aproksymacje.
Analogowe komputery zastąpiły cyfrowe.
Buduje się analogowe neurony i neurokomputery.

8. Zachowanie człowieka nie da się opisać przy pomocy reguł
Wielu programów również!
Złożony zbiór reguł nie da się wykryć.
Algorytmy stochastyczne i probabilistyczne - rozwiązują zagadnienia zbyt trudne dla algorytmów deterministycznych.

9. Argument związany z postrzeganiem pozazmysłowym.
Równie mało aktualny teraz jak i w 1950 roku.
Nawet jeśli istnieje to nie ma wpływu na zwykłe myślenie.

Oddzielenie abstrakcyjnych możliwości przetwarzania informacji od własności sprzętu realizującego ten proces.
Analogia: umysł tak się ma do mózgu jak program do komputera.
Czy umysł to rodzaj programu komputerowego?
Test Turinga: warunek konieczny, ale czy wystarczający by uznać program za umysł?

6.3. Funkcjonalizm

Funkcjonalizm - teoria filozoficzna.
Kognitywistyka - metoda badawcza, opierająca się początkowo na funkcjonalizmie.
Podstawy funkcjonalizmu stworzył Allen Newell, Herbert Simon, Hilary Putnam, Jerry Fodor, Zenon Pylyshyn.

Umysł to system kontrolny określającym zachowanie w oddziaływaniach ze środowiskiem.
Zbiór funkcji określających odpowiedzi organizmu na sytuacje środowiska.
Odpowiedzi różnią się zależne od stanu środowiska i indywidualnej historii.
System kontrolny realizuje cele, to wymaga wiedzy.
Umysł = system kontrolny posiadający cele i wykorzystujący wiedzę.

Częsta pomyłka kategorialna to zły poziom opisu systemu.
Komputer tylko liczy a mózg "wie".
Zachowanie: opisywane przez intencje, cele, wiedzę.
Poziom intencjonalny - opis systemu działającego w oparciu o wiedzę.

System sztuczny Człowiek
Poziom: Systemy przetwarzające wiedzę Umysły
Substrat:      Wiedza Świat wewnętrzny
Prawa:Zasady racjonalnego działania Prawa psychologii
  
Poziom: Systemy oprogramowania Zachowania wyuczone, obyczaje
Substrat: Struktury danych i programy Transformacje sensomotoryczne
Prawa: Interpretacja syntaktyczna instrukcji Dynamika złożonych układów
  
Poziom: Uniwersalny komputer Mózg
Substrat: Ciągi bitów Impulsy elektryczne
Prawa: Teoria obliczeń Wynikające z ewolucji
  
Poziom: Architektura sprzętowa Przetwarzanie sygnałów
Substrat: Obwody logiczne Funkcjonalne grupy neuronów
Prawa: Logika Neurofizjologia
  
Poziom: Obwody elektryczne Neurony
Substrat: Napięcia/prądy/zjawiska elektryczne Zjawiska elektryczne
Prawa: Prawa Ohma, Kirchoffa, Faradaya Prawa Ohma, Kirchoffa, Faradaya
  
Poziom: Obwody scalone Biochemiczny
Substrat: Atomy i elektrony półprzewodników Neurocząsteczki
Prawa: Fizyka ciała stałego Fizyka molekularna

SOW, Systemy Oparte na Wiedzy - aproksymacja systemami ekspertowymi.
O systemach ekspertowych można powiedzieć: "ten program już to wie".
Metafora językowa czy coś więcej?
John McCarthy: nawet termostaty mają przekonania: za gorąco.
Wiedza SOW to przekonania, wierzenia, niekoniecznie prawdziwe.

Reprezentacja wiedzy: potrzebny odpowiedni substrat zachowujący relacje reprezentacja-rzeczywistość.
Reprezentacja - zakodowana informacja, kombinatorycznie składana, często w postaci symbolicznej.

Symbol: klasa abstrakcji wszystkich znaków, które reprezentują to samo.
Wiedza zawarta w relacjach pomiędzy symbolami.

System symboliczny: realizuje uniwersalny model obliczeń.
Zawiera: pamięć, operacje działające na strukturach symbolicznych i procesy interpretujące (I/O).
Systemy symboliczne aproksymują możliwości SOW.
Semantyka symboli: wynik oddziaływania systemu ze środowiskiem.

SOW oddziałuje ze środowiskiem, akcje dają opis jego zachowania.
Wiedza określa cele jego działania.
SOW podejmuje działania by spełnić swoje cele korzystając z posiadanej wiedzy.
Komputery - umożliwiają realizację modeli SOW.

System symboliczny:

  1. Zbior fizycznych desygnatów symboli, które
  2. podlegają manipulacjom za pomocą wewnętrznych reguł,
  3. będących ciągami fizycznych desygnatów symboli.
  4. Transformacje symboli zależne są jedynie od ich formy, a nie treści i
  5. są złożeniem kombinacji różnych reguł.
  6. Symbole proste, "atomowe" i złożone, "molekularne"
  7. plus reguły ich rozpoznawania i łączenia są "semantycznie interpretowalne".

Semantyczna interpretowalność - własność całego systemu.
Transformacje symboli da się rozłożyć na reguły najprostsze (Fodor - "dekompozycyjność").
Złożone reguły powstają z najprostszych (Fodor - "kompozycyjność").
Jedynie takie systemy są semantycznie interpretowalne i "symboliczne".
Kombinatoryczna produktywność oznacza zdolność do tworzenia nieskończenie wielu kombinacji elementów.

Łańcuchy symboli tworzą myśli, nastawienia.
Niezależność od implementacji, autonomiczność poziomu symbolicznego.
Inne poziomy organizacji widać tylko jako skutek błędów w działaniu (wynik uszkodzeń mózgu lub błędów programu).

Co to jest inteligencja?
IQ - kiepski wskaźnik; teoria Gardnera - przynajmniej 7 różnych cech.
W sztucznej inteligencji: inteligencja to umiejętność rozwiązywania zadań efektywnie niealgorytmizowalnych.
Inteligencja: zdolność do wykorzystania wiedzy. Rola procesów poszukiwania rozwiązań w przestrzeniach różnych możliwości.
Rola reprezenatacji wiedzy.

Nieporozumienie: komputery przeszukują wszystkie możliwości, ludzie dokonują świadomych wyborów.
Komputer rozważa miliony wariantów a szachista tylko kilka.
Różne ograniczenia konstrukcjyjne mózgów i komputerów.
Szybkość - posiadana wiedza, razem dają kompetencję.

Człowiek - pamięć i szybkość działania mózgu nadal 10.000 wieksze od komputerów.
Brak obszernych baz wiedzy, porównywalnych z podstawową wiedzą każdego człowieka.
Pamięć: uaktywnia jednocześnie tysiące złożonych reprezentacji sytuacji.
Neurokomputery - bliższe działaniu mózgu.
Wiedza eksperta: 10-100 tysięcy specjalistycznych reguł, płytkie lub proceduralne rozumowanie.
Zdrowy rozsądek: miliony reguł.
Baza wiedzy systemu CYC przekracza milion reguł.

Hitech (program szachowy): 175.000 poz/sek i 10 reguł, siła 1900 punktów.
100 reguł - siła 2360 punktów.
Deep Blue - powyżej 2800 punktów, wystarczy by wygrać z mistrzem świata.
Perspektywy - za 1000 dolarów więcej niż mózg!

Funkcjonalizm: technologia to sprawa drugorzędna.
Neurobiologia i elektronika - inne umysły, oba typy intencjonalne.

Warianty filozofii kognitywnych

Psychofunkcjonalizm: Jerry Fodor "The language of thought" (1975), "Psychosemantyka" (1987).
Stany psychologiczne to stany mózgu rozumiane jak stany obliczeniowe, realizowane przez stany fizyczne.
Model uniwersalnego komputera: maszyna Turinga.
Maszyny równoważne gdy końcowe stany obliczeniowe są identyczne.
Realizacja fizyczna sposobu obliczeń jest nieważna.
Poziom funkcjonalny: komputery "wierzą", że 2+2=4.
Poziom stanów neurofizjologicznych słabo wpływa na nasze wierzenia.
Te same stany psychiczne - różne stany mózgu.

Teoria identyczności stanów centralnych (central state identity theory): stany umysłowe = stany neurofizjologiczne.
Z funkcjonalizmu wynika, że tylko ludzie o normalnych mózgach mogą mieć umysły.
Stany psychologiczne zależą od relacji pomiędzy stanami sprzętowymi, ale nie są z nimi tożsame.
Stany umysłu dają się charakteryzować przez zależności typu bodziec-reakcja.
Teoria typów: typ stanu psychologicznego odpowiada typowi stanu fizycznego.

Indywidualizm: przekonania i sądy = wewnętrznymi stanami przetwarzania informacji.
Naturalistyczny indywidualizm (Pylyshyn 1980): działanie w środowisku pozwala przypisać znacznie semantyczne stanom informacyjnym.

Metodologiczny solipsyzm (Fodor 1980): tworząc teorię umysłu istnienie świata zewnętrznego można pominąć.
Do świata zewnętrznego dostęp mamy tylko przez wiedzę i przekonania.
Jednak przekonania to wynik oddziaływań ze środowiskiem.

Problem jakości wrażeń, "qualia" (łac. "qualis", jakiego rodzaju).
Smak czekolady, zachód Słońca, czy są to wrażenia niedostępne sztucznym umysłom?
Przekonania to relacje, qualia to własności wewnętrzne umysłu, nieobserwowalne.
Funkcjonalnie identyczne stany mogą się różnić jakościami wrażeń.
Czy nie istnieją różnice niefunkcjonalne stanów umysłowych, w których występują jakości, i stanów ich pozbawionych? Jak to określić?


6.4. Chiński pokój

Rozwiązanie problemu ciała i umysłu - umysł, tak jak algorytm, jest niematerialny.
Czy nie jest to rodzaj dualizmu? Umysł można umieścić w dostatecznie złożonym sprzęcie.
Myślenie = przetwarzanie informacji = manipulacja symbolami.
Czy można stworzyć "dostatecznie złożony" substrat w krzemie?
Problem z aproksymacją stanów sprzetowych w przypadku mózgu jest poważny!
Rożne mózgi tworzą różne umysły, zarówno sztuczne jak i naturalne. Bez definicji umysłu nie wiemy, o czym mówimy!

Czy program może rozwinąć prawdziwą intencjonalność?
John Searle (1980), eksperyment myślowy, argument przeciwko możliwości rozumienia przez maszynę oparta na dyskretnych symbolach.
Searl rozróżnił słabą i mocną wersją programu badań AI.
Silne AI: odpowiednio zaprogramowany komputer myśli, ma stany poznawcze, umysł.

Przypisywanie maszynom rozumienia, intencji, odczuwania to metafora językowa (ale Lakoff: wszystko jest metaforą).
Opis formalny, syntaktyczny, prowadzi do impotencji semantycznej.

Program prowadzący dialog po chińsku, spełniający test Turinga (Kloch 1969).
Czy taki program rozumie język chiński?
"Rozumieć" - intuicyjnie, np. rozumieć opowiadania po angielsku, polsku czy chińsku.

Jesteśmy zamknięci w pokoju wypełnionym koszami z napisami w języku chińskim.
Nie znamy chińskiego, mamy szczegółową instrukcję postępowania z regułami, manipulujemy symbolami rozpoznając kształty.
Przez okienko dostajemy pytania w pisemnej formie.
Analizujemy symbole i posługując się regułami zestawiamy odpowiedzi.
Chińczycy widzą w nich sens i myślą, że w środku ktoś rozumie pytania.
Wiadomości po polsku rozumiemy i udzielamy dobrych odpowiedzi.

Wykonywanie formalnego programu nie wystarczy nam do zrozumienia.
Maszyna wykonująca program też nie rozumie.
Syntaktyka nie wystarcza do semantyki.
Rozumienie znaczenia symboli przez człowieka i programy jest całkiem odmienne.

Artykuł Searle'a w "Behavioral and Brain Sciences", w sumie 34 komentarze, artykuł w encyklopedii MIT.
Skąd mogłoby się pojawić rozumienie w systemie formalnym?

  1. "Odpowiedź systemowa": osoba + pokój = system, rozumie jako całość.
    Searle: osoba ma reguły i symbole w pamięci, a i tak nie rozumie.
    Jeśli zrozumienia = korelacja danych, to żołądek czy wątroba "poznają" tak jak komputerowe programy.
    Panpsychizm - wszystko rozumie, ma przekonania, umysł jest wszędzie.

  2. Robot poruszający się po świecie.
    Searl: obserwator w głowie robota.

  3. Symulacja działania mózgu na poziomie neuronów i synaps.
    Searle: nie wystarczy, konieczna symulacja "mocy będących przyczyną powstania stanów umysłowych".
    Demon kontrolujący neurony nadal nie rozumie.

Chińska "sala gimnastyczna" - pełna demonów pobudzajacych sztuczne neurony.
Sztuczne systemy neuronowe można w idealny sposób symulować za pomocą zwykłego komputera, więc nie wnoszą nic nowego.
Zespół ludzi nadal nie rozumie języka chińskiego.
Organizacja przetwarzania informacji wzorowana na działaniu ludzkiego mózg nie gwarantuje intencjonalności systemu.

Wnioski Searla: Test Turinga trzeba odrzucić!
Podstawy kognitywistyki są błedne, dualistyczne.
Prawdziwe są następujące przesłanki:

A1. Mózgi są przyczyną umysłów
A2. Syntaktyka nie wystarcza do semantyki
A3. Program komputerowy całkowicie określa syntaktyka (a intencje programisty?)
A4. Umysły zawierają treści semantyczne (psychiczne)
A5. Umysły są przyczyną zachowania

Stąd wypływają następujące wnioski:

W1. Programy nie wystarczają do powstania umysłu.
W2. Czynności mózgu ograniczone do realizowania programów komputerowych nie wystarczają do powstania umysłu.
W3. Przyczyna powstania umysłu musi mieć porównywalną moc oddziaływania przyczynowego z możliwościami mózgu.
W4. Robot i program komputerowy nie może mieć stanów umysłowych porównywalnych z ludzkimi. Stany umysłowe są zjawiskiem biologicznym.
W5. Mózgi są przyczyną zachowania.

Procesy fizyczne opisać można tak, jakby przetwarzały informacje (np. zasada minimalnego działania).
"Przetwarzanie informacji":" w komputerach - tylko metaforycznie, chociaż przyczyny i skutki takie same jak w mózgach.
Mózg "jakby przetwarzał informację", ale naprawdę są tylko stany neurofizjologiczne.
Pomiędzy stanami mózgu a stanami psychicznymi nie ma żadnego pośredniego poziomu.


Krytyka Chińskiego pokoju

Płodny punkt widzenia - wiele poziomów pośrednich.
Opis umysłu wymaga odpowiednich aproksymacji.
Argument Searla podobny do "ducha w maszynie" Ryle'a.
Jak człowiek mógłby wykonać pracę tak złożoną?
Jak mógłby zapamiętać miliony reguł?
Pylyshin: zamieniając kolejno neurony prawdziwego mózgu na krzemowe elementy stopniwo zniknie rozumienia, zostanie przetwarzanie symboli?
Krzemowa kora wzrokowa spowoduje brak zrozumienia wrażeń wzrokowych?
Tajemnicze "moce przyczynowe" mózgu - bezpłodna koncepcja.

Eksperyment z chińskim pokojem kontrolowany pokrętłami zmieniającymi (Hofstadter i Dennett, "Oko umysłu" 1981):

  1. substrat fizyczny: neurony i cząsteczki chemiczne, papier i symbole, struktury danych i procedury
  2. poziom dokładności symulacji: od zdarzeń na poziomie atomowym, przez poziom komórkowy do reprezentacji procesów, koncepcji i symboli
  3. zoom, czyli powiększenia procesów: od miniaturowego pokoju mieszczącego się w czaszce do powiększonych cząsteczek chemicznych makroskopowej wielkości
  4. rozmiary demonów kontrolujących procesy
  5. szybkość pracy demonów.

Ustawienia Searle'a:
1) papier i symbole 2) koncepcje, idee 3) rozmiary pokoju 4) demon wielkości człowieka 5) powolne operacje.

Neurony w mózgu kobiety nie działają i nie ma ona umysłu.
Mały szybki demon dostarcza odpowiednie impulsy we właściwym czasie, przywracając jej umysł.
Czy umysł ten jest prawdziwy, czy tylko symulowany? Searle - prawdziwy.
Searle zakłada z góry, że wszystko, co nie jest biologicznej natury, nie wystarcza do osiągnięcia intencjonalności.
Powiększmy rozmiary: mózg wielkości Ziemi, demon człowieka, jedna operacja na sekundę - czy nadal umysł wydaje się prawdziwy?

Searle nie rozumie idei reprezentacji.
W mózgu nie widać obrazów, dźwięków, kolorów, przeżyć psychicznych.
Informacja wymaga architektury aktualizującej, np. elektroniki DVD, membrany głośnika.
Symbole w mózgu = specyficzne wibracje sieci neuronów.
"Moc przyczynowa neuronów" nie ma nic do rzeczy.
Informacja nie zastąpi fizycznego substratu doznającego odpowiednich stanów.

Działanie systemów uczących się nie jest określone przez syntaktykę programu.
Obserwator w mózgu człowieka nie dostrzeże myśli.
Jakie są warunki powstania zrozumienia w naszym umyśle?
Rezonans, empatia, zestrojenie mózgów pozwala współ-czuć, zrozumieć.
Demon-obserwator nie wystarczy, musi miec podobny mózg, działać z odpowiednią szybkością i być zestrojony z obserwowanym mózgiem.
Program jest warunkiem koniecznym, ale nie wystarcza do wywołania intencjonalności.
Program + odpowiednia architektura całego systemu wystarcza.

"Intencje" termostatu - prymitywne, nie przypominają naszych.
Searle: intencje termostatu to absurdalny poglądu, prowadzi do panpsychizmu.
Stopień komplikacji wrażeń u normalnie rozwiniętego człowieka największy.
Ciągłość i skoki ewolucyjne aparatu poznawczego.
Nieciągłości: pojawienie się autorefleksji, odróżnienie siebie od otoczenia.
Ciągłość rozwoju umysłu: niedorozwój mózgu, mózgi zwierząt, urządzenia sztuczne.
Osiągnięcie intencjonalności: subtelne wibracje fizycznego substratu odzwierciedlające treści mentalne.

Test Turinga pozwala odrzucić programy, które nie można uznać za umysł.
Eksperyment z chińskim pokojem zawsze prowadzi do negatywnego wyniku, również dla mózgów!
Searle: wiemy skądinąd, iż mózgi "rozumieją" i "mózgi są przyczyną umysłów".
W jaki sposób możemy się o tym przekonać? Przez test Turinga.
Chiński pokój to nie test, tylko demagogicznie ustalony punkt widzenia!

Poczucie "rozumiem" i operacyjne rozumienie to dwie różne sprawy.
Poczucie rozumiem to sygnał mózgu "O.K. mogę słuchać dalej, przetrawiłem porcję informacji", takie jest jego sens ewolucyjny.
Brak poczucia "rozumiem" nie oznacza braku rozumienia - pytany na egzaminie mogę odpowiadać sensownie, chociaż boję się, że jeszcze nie rozumiem.
Odwrotnie, poczucie rozumienia nie oznacza, że się rozumie (np. wszechwiedza po zażyciu środków halucynogennych).
Searle chce mieć samo poczucie rozumienia, ale to nie wystarcza, nie można pomijać sprawdzenia czy się rozumie.

Czy "Chiński pokój" to system, który może mieć wewnętrze poczucie rozumienia?
Przypomina on raczej zombi, nie ma w nim bowiem miejsca na ocenę własnych stanów wewnętrznych, nie potrafi sobie wmówić, że coś wie.
Nie ma tu nawet pamięci epizodycznej, która pozwala na budowanie modelu sytuacji na podstawie dialogu.
Nie jest to dobra aproksymacja systemu poznawczego.

Trudno będzie przybliżyć działanie mózgu za pomocą reguł - jest to problem aproksymacji mózgopodobnych struktur przez struktury sztuczne.
Rożna struktura sprzętu => różna struktura umysłu.
Zrozumienie możliwe tylko dla podobnego sprzętu, potrzebna jest empatia, rezonans.

6.5. Nieobliczalność

Roger Penrose, fizyk matematyczny z Oxfordu, "Nowy umysł cesarza" i "Cień umysłu".
Popularność ksiażki te zawdzięczają chęci chowania głowy w piasek (Turing).
Argument przeciwko "silnemu AI" oparty na twierdzeniu Gödla i Churcha-Turinga.
Filozof z Oxfordu, J.R. Lucas (1961), rozważał ten argument, ale jest to rozumowanie błędne.
250 stron dyskusji tw. Gödla by dowieść, że:

Żaden program komputerowy, działający w oparciu o zbiór niesprzecznych wewnętrznie aksjomatów, nie może rozstrzygnąć pewnych pytań, z którymi człowiek sobie poradzi.

Penrose sądzi, że człowiek sobie radzi dzięki świadomości.
Nie potrafi jednak sprecyzować, o co mu chodzi: "świadomość bez wątpienia jest czymś".

Penrose wyróżnił 4 podejścia do świadomości:

A) Myślenie jest po prostu obliczaniem a świadomość wynikiem tych obliczeń.

B) Świadomość jest cechą fizycznych właściwości mózgu. Można je symulować rachunkowo ale samo obliczanie nie powoduje świadomości.

C) Fizyczne działania mózgu wywołujące świadomość nie mogą być symulowane rachunkowo.

D) Świadomości nie można wyjaśnić metodami naukowymi.

Wg. Penrose'a A) jest zgodą na test Turinga do oceny inteligencji i świadomości, ale sam Turing o świadomości celowo nic nie mówił!
Krytyka AI przez Penrose'a nie wykazuje zrozumienia przedmiotu: wyśmiewa się z pomysłu "algorytmu umysłu", bo gdyby zapisać algorytm w książce, to by umysł nie powstał ...
Autor walczy z wiatrakami, poszukując umysłu abstrakcyjnego, a nie realnego: nikt nie sądzie, że sam algorytm to umysł.
Nie wynikają z tego żadne ograniczenia dla możliwości maszyn: twierdzenie, że nie da się zrobić dobrego programu do gry w go, nie jest niczym poparte.
Na go nie ma takich pieniędzy jak na szachy; go jest trudne, bo trzeba skupić się na wzorcach a nie procesach szukania, ale świadomość nic do tego nie ma.

Penrose pomija całkowicie możliwości B) i D), a skupia się na C).
Ma to wynikać z twierdzenia Gödla i Turinga, gdyż świadomości (to znaczy czego?) nie można symulować.
Maszyny nie mogą rozwiązać zagadnień niealgorytmicznych, a ludzie mogą, dzięki "świadomemu myśleniu".

Połowa książki to poszukiwanie ezoterycznej fizyki jakoby koniecznej do zrozumienia umysłu.
Trudności w zrozumieniu świadomości prowadzą Penrose'a do ezoterycznej fizyki procesów nieobliczalnych.
Grawitacja kwantowa i pętle czasowe mają być pomocne w zrozumieniu umysłu?
Procesy kwantowe w mikrotubulach, strukturach cytoszkieletalnych znajdujących się we wszystkich komórkach, miałyby grać rolę w powstawaniu świadomości? Niestety czasy ich koherencji są niezwykle krótkie.
W książce nie ma natomiast prawie nic o neuronach, neuropsychologii czy konkretnych funkcjach poznawczych, które należy wyjaśnić.
Zupełne manowce!

6.6. Suma sumarum

W dyskusjach o umyśle często brak jest rozróżnienia inteligencja - myślenie - intencjonalność - świadomość.
Test Turinga dotyczy myślenia, a nie intencjonalności; chiński pokój dotyczy "rozumienia".
Czy do myślenia konieczna jest świadomość? Tak się nam wydaje, ale psycholodzy są przeciwnego zdania (M. Velmans, Is human information processing conscious? BBS 1991).
Obserwujemy ciągły postęp w symulacjach działań inteligentnych.
Brak jest konkretnych ograniczeń możliwości komputerów.

Searle: stany mózgu są fizycznymi stanami, nie tylko przepływem informacji.
Symulacja wibracji membrany nie czyni z programu membrany, symulacja atmosfery nie da burzy.
Mapa to nie terytorium! Symulacja to nie rzeczywistość.

Zasada "niezmienniczości organizacyjnej" jest podstawą wielu rozumowań w filozofii umysłu:

Funkcje systemu nie ulegną zmianie jeśli tylko wzorce oddziaływań determinujące sposób przetwarzania informacji przez system nie ulegną zmianie.

Jednak wrażenia przypisać można aktualizującym informację mózgom (sprzętowi), a nie abstrakcyjnym procesom przetwarzania informacji.

Częste eksperymenty myślowe oparte na funkcjonaliźmie: zamieńmy część mózgu stopniowo na kawałki krzemu.
Jeśli elementy sztuczne odpowiednio oddziaływują z biologicznymi to niczego nie zauważymy.
Jednak identyczność funkcjonalna na poziomie molekuł => identyczność atomów.
Białkowe receptory neuronów i neurotransmitery nie da zastąpić się krzemem.
Identyczność funkcji => identyczność budowy fizycznej!
Funkcjonalizm jest słuszny tylko w sensie przybliżonym, a nie absolutnym.

Włąściwe pytanie to: czy aproksymacja działania umysłu prowadzi tylko do sztucznej inteligencji, czy do czegoś, co skłonni bylibyśmy nazwać sztucznym umysłem?
Kwestia umowna, zależy co uznamy za umysł, na ile ma być podobny do ludzkiego.
Na ile podobne do mojego są inne umysły?
Projekcja naszej własnej intencjonalności spowoduje, że większość ludzi zaakceptuje robota jako partnera.
Symulacja wrażeń to kwestia doskonałości technicznej.
Zła aproksymacja => karykatura; np. dźwięk 100 kb/s doskonały, ale 10 kb/s marny, obraz z dużą kompresją.

Przekonanie, że kolory i dźwięki są realnymi wrażeniami, może powstać w systemie sztucznym opartym na mózgopodobnych zasadach.
Wrażenia to realne stany mózgopodobnej materii.
Rozgraniczenie "prawdziwej" i "sztucznej" intencjonalności nie da się utrzymać.

Teoria obliczalności i rozważania o możliwościach komputerów opiera się tylko na fizyce klasycznej.
Każdy system fizyczny to program obliczeniowy, a wynik eksperymentu to wynik obliczeń.
Przykłady: zasada minimalnego działania dla układów mechanicznych, obliczenia wykonywane za pomocą DNA.
Ewolucja w czasie układu fizycznego to proces obliczeniowy.
Komputer kwantowy może symulować ewolucję prawdziwych systemów, komputer klasyczny tylko w przybliżeniu.
Zagadnienia "obliczalne" to te, które są zgodne z prawami fizyki.

Wniosek: filozofia kognitywna powinna opierać się na fizyce, a nie automatach Turinga.
Klasyczne obliczenia dają dobre przybliżenia na poziomie własności bioelektrycznych neuronów.
Zbieżność modeli neuronów w środowisku biochemicznym do właściwego zachowania jest wątpliwa.
Nie dostrzegamy ruchu godzinnych wskazówek zegara, ale zmiany się kumulują.
Wymiana części mózgu na krzemową zmieni sposób odczuwania wrażeń.

Dopiero informacja + system aktualizujący informację może być modelem umysłu!
Pora powiązać filozofię umysłu z neurobiologią.


W. Duch, Wstęp do kognitywistyki - spis treści.