Czym jest kognitywistyka?
Poznacie prawdę i prawda was wyzwoli.
Jan 8:32
Czym jest kognitywistyka? Artykuł ukazał się w: Kognitywistyka i Media w Edukacji 1 (1998) pp. 9-50.
Wydaje się, że dla człowieka nie ma nic ważniejszego jak poznanie samego siebie, a to oznacza poznanie swojego umysłu. Przekonywali o tym starożytni filozofowie na Wschodzie i Zachodzie, nawoływali do tego wybitni przedstawiciele wszystkich tradycji religijnych. Nasze wyobrażenia o świecie, poglądy, wszystko w co wierzymy i co dla nas istnieje, poczucie szczęścia lub jego brak, jest wynikiem działalności układu nerwowego a w szczególności mózgu, którego funkcją jest umysł. Z punktu widzenia jednostki umysł jest wszystkim: nie mamy żadnej bezpośredniej wiedzy o świecie, nasza wiedza dotyczy jedynie form poznania, które uwarunkowane są określoną strukturą naszego umysłu.
Dla człowieka współczesnego zjawiska psychiczne stanowią nadal rodzaj pewnego tabu. Najlepszym tego przykładem jest nasz stosunek do ludzi z zaburzeniami psychicznymi: na dolegliwości wątroby czy nerek nikt nie wstydzi się narzekać, o chorobach mózgu staramy się zapomnieć. Świat problemów psychiatrycznych jest czymś, od czego przeciętny człowiek ucieka, wobec czego przyjmuje postawę cyniczną i opowiada kawały o wariatach, tak jakby choroby mózgu były czymś śmiesznym a choroby serca czymś smutnym. Jak daleko udało się nam uciec od zagadnień związanych z poznawaniem siebie obrazować może również fakt braku odpowiedniego określenia na całokształt zagadnień, które wiążą się z życiem psychicznym. Obejmują one zarówno podstawy biologiczne, budowę układu nerwowego, zmysłów i mózgu, modele matematyczne działania mózgu i procesów mentalnych, filozofię umysłu, psychologię poznawczą, niekonwencjonalne działy psychologii (takie jak psychoanaliza, różne formy psychoterapii czy psychologia transpersonalna), lingwistykę, antropologię a nawet zagadnienia związane z introspekcją i życiem duchowym.
Z kilku powodów postępy w badaniach nad naturą umysłu były dość powolne. Do dzisiaj wielu naukowców ma nadzieję, że kwestia umysłu jest tak złożona, iż nigdy nie da się jej zgłębić. Chociaż “prawda nas wyzwoli” istnieje jakaś psychiczna bariera, chroniąca nas przed zbyt głębokim wnikaniem w swój umysł. Dopiero całkiem niedawno, w wyniku integracji wielu różnych gałęzi nauki pojawiła się realna perspektywa zrozumienia umysłu. Tą grupę nauk nazwano “naukami o poznawaniu” (cognitive sciences), lub naukami kognitywnymi, od łacińskiego słowa cognitio, czyli wiedza. Rdzeń “kognicja” obecny jest w używanym w języku polskim słowie “prekognicja”, pochodzącym od łacińskiego słowa oznaczającego “wiedzieć wcześniej”. Chociaż w skład nauk kognitywnych wchodzi wiele tradycyjnych gałęzi nauki to powoli wyłania się z nich wspólny obszar badań, któremu warto jest nadać odrębną nazwę. Jak powiedział jeden z twórców tej dziedziny, Allen Newell, nowe gałęzie nauk nie powstają dlatego, że ktoś postanowił je zdefiniować, a raczej dlatego, że pewna grupa ludzi dostrzega, iż mają wspólny temat do dyskusji, powstają pisma, stowarzyszenia, zwołuje się konferencje. Ściśle rzecz ujmując nazwę “kognitywistyka” należałoby zarezerwować tylko dla tych prac prowadzonych w ramach nauk kognitywnych, które zajmują się tworzeniem modeli umysłu. W praktyce używana jest ona zamiennie z nazwami “nauki o poznawaniu” czy “nauki kognitywne”.
Próba zrozumienia umysłu to najbardziej interdyscyplinarne i trudne przedsięwzięcie, jakie można sobie wyobrazić. Nie mam wątpliwości, że jest to największe wyzwanie przed którym obecnie stoi nauka i że jest to najbardziej fascynująca, w pewnym sensie być może już ostatnia, intelektualna przygoda ludzkości. Z punktu widzenia neurobiologii na zjawiska umysłowe wpływ maja zarówno procesy zachodzące na poziomie pojedynczych molekuł (rozmiary rzędu 10-10 m) jak i całego układu nerwowego (1 m). Psycholodzy tworzą czysto opisowe teorie ignorujące neurobiologię, a specjaliści od sztucznej inteligencji idą jeszcze dalej tworząc modele umysłu oparte wyłącznie na przetwarzaniu informacji w postaci symboli. Zadaniem kognitywistyki jest tworzenie modeli umysłu zgodnych z wszystkimi gałęziami wiedzy, a więc wielka integracja wyników badań z wielu niezależnych dziedzin. W ostatnim dziesięcioleciu w naukach kognitywnych nastąpił ogromny postęp i czas już najwyższy, by i w Polsce rozwinęły się one w odrębną gałąź nauki.
W tym artykule postaram się nakreślić historię powstania kognitywistyki, motywację do jej rozwoju, główne problemy i cele, które przed sobą stawia. Najpierw warto się jednak chwilę zastanowić się, czego się możemy spodziewać po badaniach nad umysłem.
Pytanie tu postawione - co to znaczy rozumieć - jest wbrew pozorom bardzo praktyczne i konkretne. Rozumienie zakłada pewien język, znajomość pojęć w ramach których układa się nam obraz całości. Zrozumienie to odwołanie się do pewnego modelu świata. Dla człowieka doszukującego się we wszystkim woli Boga choroba jest karą za grzechy i w takim modelu rzeczywistości jest to adekwatne wyjaśnienie. Dla człowieka szukającego wyjaśnień w ramach magicznego modelu świata zrozumienie oznacza odkrycie, kto rzucił urok na chorego. Dla człowieka szukającego wyjaśnień w ramach współczesnej medycyny zrozumienie choroby może oznaczać ustalenie rodzaju zakażenia. Ze zrozumienia wynika pewne działanie: religijne zrozumienie pociąga za sobą modlitwę jako lekarstwo, zrozumienie magiczne wypędzanie demonów, a zrozumienie naukowe najczęściej prowadzi do stosowania terapii oferowanych przez współczesną medycynę. Skuteczność każdego z tych działań może być różna, a efekty tłumaczone są znowu w ramach danego modelu świata. Te same wrażenia zmysłowe i procesy myślowe pogrupować można w różne kategorie. By dotrzeć do człowieka trzeba nauczyć się patrzeć na świata jego oczami – doskonale wiedzą o tym antropolodzy.
Naukowy model rozumienia świata jest niewątpliwie najbardziej skuteczny i w najpełniejszy sposób opisuje rzeczywistość. Żaden inny model nie pozwala odpowiedzieć w równie precyzyjny sposób na szczegółowe pytania dotyczące świata, nie pozwala na budowanie urządzeń technicznych przesyłających przy pomocy niewidzialnych promieni dźwięki i obrazy. Żaden inny model nieustannie nie kwestionuje uznanych przez siebie prawd i nie przypomina, iż jest tylko przybliżeniem, modelem a nie prawdą ostateczną. Z tego punktu widzenia inne modele, roszczące sobie pretensje do wiedzy absolutnej, są dla wielu ludzi bardziej satysfakcjonujące, gdyż nie pozostawiają ich w niewiedzy. Wszystko znajduje proste wyjaśnienie, wszystkie zdarzenia odnoszone są do “ja” ustawianego w centrum świata. Nauka odmawia nam takiego komfortu. Rozumienie naukowe zakłada znajomość specjalistycznego języka, często bardzo odmiennego od języka używanego na co dzień podczas gdy inne modele posługują się najczęściej językiem potocznym. Język ten pełen jest metafor, których nie należy oceniać w kategorii prawdy czy fałszu lecz jedynie w kategorii ich użyteczności dla powiązania licznych faktów między sobą. Podstawowe pojęcia nauk przyrodniczych, takie jak czas i przestrzeń, są abstrakcjami, bardzo płodnymi metaforami mającymi niewiele wspólnego z subiektywnym poczuciem przestrzeni i czasu.
Dobrym przykładem ilustrującym specyfikę podejścia naukowego do rozumienia świata jest teoria ewolucji. Jest to chyba najczęściej krytykowana teoria naukowa, jednakże jeśli przyjrzeć się krytyce łatwo dostrzec, jak bardzo jest ona bezpłodna. Wrogowie teorii ewolucji to przede wszystkim kreacjoniści, opierający się na dosłownym rozumieniu historii stworzenia świata opisanej w Biblii. Niektórzy z nich są specjalistami w dziedzinie nauk społecznych lub inżynierskich, nie rozumieją jednak istoty samej teorii ewolucji i kontrowersji pomiędzy specjalistami w tej dziedzinie. Teoria jest interesująca tylko wtedy, jeśli jest płodna, jeśli pozwala na stawianie bardzo szczegółowych pytań. Bez wątpienia teoria ewolucji jest taką teorią, szczególnie w połączeniu z genetyką i biologią molekularną, dając bardzo szczegółowy obraz drzewa filogenetycznego i wyobrażenie o pokrewieństwie organizmów żywych nie tylko na poziomie ich ogólnej budowy, lecz również na poziomie ich materiału genetycznego. Dawkins (1994, s. 74) przytacza liczne przykłady języka, którym posługują się krytycy teorii ewolucji, pełnego zwrotów: “ ... trudno wyjaśnić, ... trudno pojąć, ... trudno zrozumieć”. Jednym trudno, innym łatwo, zależy to od przygotowania naukowego i od wyobraźni danej osoby. Bez wątpienia nauki kognitywne, nauki o naturze umysłu, mają również swoich kreacjonistów, którym trudno jest zrozumieć, że umysł jest funkcją mózgu.
Zrozumienie “intuicyjne” różni się od czysto intelektualnego. Żeby naprawdę coś przekazać musimy odwołać się do już posiadanej wiedzy danej osoby lub do jej bezpośrednich przeżyć. Słowa nabierają znaczenia tworząc w miarę spójny system odwołań do siebie nawzajem, ale w ostatecznym rozrachunku musimy sięgnąć do wspólnego mianownika, jakim jest indywidualne, subiektywne, bezpośrednie doświadczenie wewnętrzne nadające sens podstawowym symbolom języka. Człowiek myśli w oparciu o kategorie, które przyswaja sobie w dzieciństwie i w latach szkolnych. Pojęcia całkiem nowe trudno sobie w dojrzałym wieku przyswoić. Około 1600 roku znany matematyk Hieronimus Clavius udowadniał, że chociaż dla liczb jest prawdą iż (-2)×(-3) = 2×3 to dla symboli (-a)×(-b) nie równa się a×b, pisząc: umysł ludzki nie jest w stanie uchwycić powodów, dla których niewiadome i ich znaki zachowują się w taki sposób. Teraz prawa mnożenia liczby ujemnych uczymy się w szkole podstawowej i nie wydaje nam się ono wcale niezrozumiałe. Odkrycie, że woda składa się z dwóch wybuchowych gazów było tak trudne do pojęcia, że pewien francuski chemik pragnąc udowodnić, że to jakaś bzdura i wydzielające się z wody gazy są tylko pęcherzykami powietrza, nabrał w płuca wodoru i dmuchnął w płomień. Poparzenie i utrata zębów przekonały tego niedowiarka - i pozostałych chemików - jak to naprawdę jest. Max Planck, który w 1900 roku odkrył kwanty, nigdy nie mógł się do swojego własnego odkrycia przekonać. Poczynił on słuszną uwagę: nowe idee nie zostają zaakceptowane dzięki temu, że starsi uczeni się do nich przekonują, tylko dzięki temu, że wymierają.
Współczesny system kształcenia nie stara się niestety ukształtować sceptycznego, zgodnego z nauką obrazu świata, ograniczając się jedynie do przedstawienia wiedzy specjalistycznej, fragmentarycznej. Podając zbyt wiele faktów nie znajduje się czasu na wyjaśnienia błędów w alternatywnych sposobach rozumowania. Wielu ludzi nie potrafi odróżnić astronomii od astrologii, ogromnie popularnej pseudonauki usiłującej przewidywać przyszłość lub określać charakter człowieka. Mało kto wie, że przy współpracy Brytyjskiego Towarzystwa Astrologicznego wykonano szczegółowe badania przepowiedni astrologicznych, polegające na korelacji wyników testów osobowości z datami urodzin. Wyniki, otrzymane przez astrologów, nie odbiegały od przypadkowego zgadywania (Nature 1985). Dlaczego więc tyle osób dopatruje się w horoskopach swoich cechy osobowości? Okazuje się, że człowiek nie potrafi rozpoznać wśród kilku przypadkowo wybranych opisów osobowości swojego własnego. Niewiele o sobie wiemy, stąd przy odrobinie dobrej chęci w każdym opisie doszukamy się opisu swoich cech. Nasza zdolność do samooszustwa, zwłaszcza w przypadku zagadnień związanych z naszą własną psychiką i zdrowiem, jest niewyobrażalna. Dobrym przykładem jest homeopatia, alternatywne podejście do medycyny opierające się na idei używania środków wywołujących podobne symptomy co choroba, przy czym środki te rozcieńczone są wodą w takim stopniu, że często nie pozostaje po nich w roztworze ani śladu. Badania statystyczne wykazują, że roztwór taki daje typowy efekt placebo, około 30% pacjentów odczuwa poprawę w wyniku autosugestii oraz naturalnego przebiegu choroby. Rezultaty badań nie wpływają jednak na spadek popularności aptek homeopatycznych.
Polska przeżywa dziś prawdziwy zalew pseudonaukowych terapii o niesprawdzonej skuteczności. Bez dokładnych badań porównawczych nie można twierdzić, że terapia jest skuteczna. Przez setki lat podstawową metodą leczenia było upuszczanie krwi. Chociaż w ten sposób skrócono życie ogromnej liczbie ludzi z pewnością nie brakowało i takich, którym się wkrótce po zabiegu z zupełnie niezależnych powodów trochę polepszyło. Korelacja wydarzeń nie oznacza jednak istnienia pomiędzy nimi związku przyczynowego. Jeśli jednej osobie się poprawi a dziesięciu pogorszy, to przedstawiciele paramedycyny posłużą się tą jedną osobą do reklamy a o pozostałych zapomną. Uczniowie szkół średnich i podstawowych nie mają pojęcia o krytycznym myśleniu i wpadają w przeróżne psychologiczne pułapki, uzależniając się od ideologii politycznych, sekt religijnych czy narkotyków. Na podstawie kilku obserwacji wyciągamy pochopne wnioski i wydaje nam się, że coś rozumiemy. Twierdzenie, że człowiek jest istotą rozumną wydaje się często przesadne - w książce Rozum na manowcach (1996) Stuart Sutherland opisał liczne przykłady irracjonalnych zachowań ludzi.
Teorie naukowe mogą wychodzić bezpośrednio od podstaw naszej wiedzy o świecie, czyli fizyki mikroświata, mogą też być teoriami fenomenologicznymi, to znaczy operować na poziomie opisu złożonych zjawisk i posługiwać się pojęciami klasyfikującymi te zjawiska. Obydwa podejścia są równouprawnione i niewiele teorii fenomenologicznych udało się zredukować do teorii fundamentalnych, chociaż wielu uczonych wierzy, że redukcja taka jest w zasadzie możliwa. Dobrym przykładem jest biologia, chemia i fizyka. Czy opis procesów chemicznych da się zredukować do podstawowych zasad fizyki? Fizyka kwantowa dobrze opisuje małe cząsteczki i ich oddziaływania. Nie udało się dotychczas znaleźć ani jednego przypadku, w którym przewidywania tej teorii zawodzą. Z drugiej strony przewidywania te stają się coraz bardziej niepewne wraz ze wzrostem stopnia komplikacji układu, który opisuje. W praktyce dla opisu większych cząsteczek, interesujących dla chemików i biologów, stosuje się bardzo przybliżone metody i na podstawie otrzymywanych wyników nie można jednoznacznie powiedzieć, czy wszystkie ich własności wynikają z równań mechaniki kwantowej. Chemicy rozwinęli jeszcze przed powstaniem mechaniki kwantowej swój własny język, zbiór pojęć odwołujących się do własności cząsteczek, klasyfikujący te cząsteczki na różne sposoby. Większość z tych pojęć z punktu widzenia mechaniki kwantowej nie daje się dobrze określić. Chociaż teorie fundamentalne, takie jak mechanika kwantowa, pozwalają na odpowiedzi na konkretne pytania chemiczne (w tych przypadkach, gdy dają się zastosować) ich wpływ na praktykę chemików, na pojęcia, którymi się posługują w pracy doświadczalnej, nie jest duży. Z teorii fundamentalnych nie wyłoniło się wyjaśnienie pojęć chemicznych ani nie pojawiły się nowe koncepcje, przydatne chemikom, chociaż jesteśmy przekonani, że z chwilą odkrycia mechaniki kwantowej chemia stała się częścią fizyki.
W jeszcze większym stopniu jest to widoczne w przypadku biologii. Powinna się ona zredukować do chemii i fizyki. Na poziomie podstawowym tak się w znacznym stopniu stało, biologia molekularna jest częścią biochemii, metody fizyczne, takie jak dynamika molekularna, stosuje się przy modelowaniu białek. Nie wydaje się prawdopodobnym by konieczna była jakaś specjalna “siła witalna”, jak to jeszcze 50 lat temu postulowano. Postępy w komputerowych symulacjach układów złożonych pokazują, w jaki sposób życie powstać mogło w układach, których zachowanie się jest prawie chaotyczne. Być może w przyszłości uda się nawet prześledzenie drogą komputerowych symulacji dróg ewolucji niektórych gatunków poprzez mutacje ich kodu genetycznego. Medycyna w coraz większym stopniu opiera się na biochemii i biologii molekularnej. Z drugiej strony tradycyjne działy biologii i medycyny, podstawowy język nauk biologicznych dotyczący np. fizjologii czy patologii oparty jest na obserwacjach cech i klasyfikacji tych obserwacji. Chociaż doszukać się możemy mechanizmów biofizycznych czy biochemicznych, leżących u podłoża tych obserwacji, nie spodziewamy się, by wszystkie pojęcia biologiczne uległy redukcji do poziomu fizyki i chemii.
Richard Dawkins w swojej znakomitej książce “Ślepy zegarmistrz” zwrócił uwagę na kilka istotnych aspektów dotyczących zrozumienia naukowego. Nasze intuicje dotyczące świata są często całkowicie błędne, zarówno w odniesieniu do teorii ewolucji jak i do własnego umysłu. Jeśli spotykamy w literaturze informacje o tym, że nauka czegoś nie rozumie, że nie wiemy jak to jest lub nie można sobie tego wyobrazić, to wcale nie znaczy, że tak jest naprawdę. Należy to raczej odczytać w bardziej osobisty sposób: nie wiem, nie potrafię dostrzec mechanizmu, wydaje mi się, że inni też nie wiedzą, nie chcę się przyznać do swojej niewiedzy. Jeśli jest to opinia wybitnego eksperta w danej dziedzinie można do niej przywiązywać pewną wagę, nie większą jednak niż do opinii innych ekspertów w tej dziedzinie. Nawet wybitni naukowcy wypowiadający się na tematy odległe od ich specjalności, na przykład na tematy dotyczące umysłu lub funkcjonowania mózgu, mogą całkowicie rozmijać się ze stanem współczesnej wiedzy i ich opiniami nie należy się sugerować.
Kiedy przechodzimy do zagadnień związanych z mózgiem i kwestii psychologicznych postulat redukcjonizmu jest jeszcze bardziej dyskusyjny. Stosunek świata psychiki do świata materii jest jednym z najstarszych tematów filozoficznych. Nie ma wątpliwości, że istnieją wpływy wzajemne materii na umysł: niewielkie ilości środków chemicznych zmienić mogą kompletnie nasz sposób widzenia świat i wywołać liczne halucynacje. Wpływ umysłu na materię jest już jednak dyskusyjny: czy naprawdę myśl jest czymś pierwotnym, niezależnym, czy też wynikiem procesów zachodzących w mózgu, a więc czymś wtórnym w stosunku do zjawisk materialnych? Jest to w zasadzie pytanie o istnienie wolnej woli. Czy umysł jest naprawdę produktem mózgu czy też mózg jest tylko odbiornikiem zjawisk świata psychicznego, jak chcą dualiści? Niezależnie od odpowiedzi na te pytania nasza wiedza o tym, w jaki sposób wyjaśnić zjawiska psychiczne przez zjawiska elektryczne i biochemiczne w mózgu jest jeszcze daleko niekompletna. Redukcjoniści mają nadzieję, że w dłuższym okresie czasu uda się wyjaśnić zjawiska psychiczne poprzez procesy zachodzące w mózgu. Czy wyjaśnienie takie może zastąpić codziennie używane pojęcia? Czy nasze przyjemności, odczucia, odruchy, przekonania wystarczy wyjaśnić przez wzbudzenia odpowiednich struktur mózgu? Takie wyjaśnienia nigdy nie zastąpią języka naturalnego, wykształconego w oparciu o fenomenologiczne klasyfikacje zachowań indywidualnych i społecznych człowieka.
Jaka jest przyczyna trudności redukcjonizmu? Teorie podstawowe dają nam bardziej szczegółowe możliwości przewidywania, niestety nie potrafimy ich stosować do naprawdę interesujących, skomplikowanych przypadków, gdyż są zbyt trudne. Z układów złożonych wyłaniają się istotnie nowe jakości. To nie sama ilość elementów układu złożonego przechodzi w jakość, lecz oddziaływania pomiędzy tymi elementami wytwarzają nową organizację a w efekcie nową jakość. Z drugiej strony redukcjonizm jest najbardziej płodną hipotezą badawczą i można zaryzykować twierdzenie, że wyjaśnienia zjawisk dopiero wtedy są pełne, gdy odnoszą się do języka nauk podstawowych, czyli fizyki. Jeśli pojawiają się głosy krytykujące redukcjonizm to najczęściej chodzi nie tyle o samą zasadę co o zbyt uproszczone modele. Słynny “Raport Rzymski” określający granice wzrostu i przewidujący wielką katastrofę oparty był na modelu ekonomii świata w którym było pięć zmiennych parametrów. Dzisiaj tworzy się modele zawierające dziesiątki tysięcy zmiennych i w dalszym ciągu jest to zbyt mało by w pełni opisać złożoność makroekonomicznych procesów.
Inny aspekt trudności związanych z próbą rozumienia świata zauważył Immanuel Kant. Fizyczne cechy zwierząt są odbiciem środowiska, w którym zwierzęta się rozwijały. Jak mówi słynny etolog, Konrad Lorenz, kopyto jest odbiciem płaskiego terenu stepowego, oko odbiciem światła, skrzydło odbiciem powietrza a płetwa ryby wody. Oznacza to niemal doskonałe dopasowanie się struktur organizmów do warunków, w których powstawały. Każde przystosowanie jest pewnym poznaniem środowiska przez organizm. Kant odkrył pewne wrodzone (aprioryczne) struktury poznania u człowieka. Doprowadziło go to do rezygnacji z możliwości dowiedzenia się czegokolwiek o realnym świecie. W obserwacjach i doświadczeniach, które prowadzimy, odnajdujemy wrodzone nam struktury myślenia, postrzegania, wyobrażenia, a według Kanta ze względu na swoją aprioryczną naturę nie mają one związku ze światem realnym. Obserwując nie dowiadujemy się niczego o świecie, widzimy jedynie siebie. Rozwiązaniem tego problemu jest oczywiście stwierdzenie, że nasze aprioryczne formy myślenia są wykształconym na drodze ewolucji odbiciem pewnych struktur i regularności świata realnego, nasze spostrzeżenia nie są więc tak całkiem niezależne od rzeczywistości. Jest to jednak subtelny argument i wielu uczonych sądzi, że naszych pojęć o rzeczywistości fizycznej nie należy utożsamiać z obiektywnie istniejącymi elementami rzeczywistości, lecz jedynie z tworzeniem sobie obrazu rzeczywistości przez pewien określony sposób jej badania. Od nastawienia pytającego zależą nie tylko odpowiedzi na zadawane pytania, lecz również sam wybór pytań.
Czy istnieje inny, alternatywny język pozwalający na zdobywanie wiedzy? Zwolennicy “nowego wieku” od czasu do czasu próbują rozszerzyć ramy tradycyjnych nauk o pomysły Rudolfa Steinera, Ruperta Sheldrake’a czy Jamesa Lovelocka, twierdząc, że wartość eksperymentalną mają również odczucia ludzi w zmienionych stanach świadomości. Z punktu widzenia neo-animistów czy zwolenników new age to robienie powtarzalnych eksperymentów mija się z celem, np. Doświadczenie mistycznej unii ma świadczyć o obecności świadomości w roślinach itp. Natura świadomości nie może się ujawnić w eksperymentach zakładających dualistyczne podejście do świata. Jednakże tego typu teorie nigdzie nie prowadzą i łatwo jest zauważyć, że ich zwolennicy ulegają złudzeniom i omawiają wkoło te same rezultaty zdyskredytowanych eksperymentów. Jak zobaczymy w dalszych rozdziałach bardzo łatwo jest, szczególnie w psychologii czy biologii, otrzymać błędne rezultaty eksperymentów a sformułowane w oparciu o takie rezultaty hipotezy nabierają własnego życia i przez dziesiątki lat traktowane są przez pseudonaukową prasę jako wielkie odkrycia. Sheldrake namawia do prowadzenia własnych eksperymentów uważając, że naukę uprawiać może każdy, ale nic bardziej błędnego: specjaliści naprawdę nie mają czasu na wykrywanie elementarnych błędów w prowadzonych przez amatorów doświadczeniach. Jednakże pisma, zajmujące się takimi zagadnieniami jak świadomość, niezbyt dobrze jeszcze rozumianymi, w trosce o otwartość przepuszczają prace mające jedynie pozory naukowości, w efekcie udzielając im pewnej legitymizacji (por. A. Nagel, 1997)
Język, pozwalający nam opisać w zadowalający sposób działanie mózgu dopiero się tworzy. Można zaryzykować paradoksalne stwierdzenie, iż wszystko co udało się dotychczas zrozumieć jest proste. Dzieje się tak dlatego, że za każdym razem gdy tworzona jest nowa koncepcja jest ona jedynie drobnym krokiem na drodze rozwoju. Korzystając z już istniejącego specjalistycznego języka możemy dodawać nowe koncepcje, łatwo dla specjalistów zrozumiałe. Uświadamiamy sobie, jak trudno jest zrozumieć pewne sprawy, dopiero wówczas, gdy usiłujemy tłumaczyć je studentom i potrzebny jest na to cały rok! Jeśli coś wydaje się skomplikowane, to być może nie znaleźliśmy jeszcze odpowiedniego punktu widzenia ani nie stworzyliśmy odpowiedniego języka, w którym sytuację da się prosto opisać. Jak głosi chińskie przysłowie nawet długą podróż odbyć można idąc małymi krokami.
Odrębnym zagadnieniem jest rola matematyki w poznaniu naukowym. Można wysunąć twierdzenie, iż matematyka jest zbyt ważna by ją pozostawić matematykom. Budujemy modele w oparciu o symbole odnoszące się do lepiej lub gorzej określonych kategorii. Korzystamy z idei, które często rozwijały się całe wieki zanim nie nauczyliśmy się spostrzegać rzeczywistości przez ich pryzmat. Matematyka oferuje nam bardziej ogólny język, niż tylko opis słowny. Nie trzeba się jej bać, jak często robią to osoby o skłonnościach humanistycznych. Wszystko, o czym da się mówić, można ująć w pewien model matematyczny, nawet jeśli mówimy w sposób bardzo mglisty. Z drugiej strony nie wszystkie modele matematyczne dają się wyrazić przy pomocy słów języka potocznego. Matematyka oferuje więc szersze możliwości opisu rzeczywistości. Nieskończony, Platoński świat idealnych form matematycznych istnieje w potencjalny sposób. Ponieważ liczba takich form jest nieskończona niektóre z nich muszą przydać się do konstruowania modeli rzeczywistości. Istnienie potencjalne jest bardzo subtelnym zagadnieniem filozoficznym - dopiero w momencie rozpoznania jakiejś formy przez umysł istnienie to aktualizuje się. Świat sztucznych form biologicznych, nazywanych przez Dawkinsa “biomorfami”, w potencjalny sposób istniał zawsze, dopiero jednak komputerowe eksperymenty Dawkinsa zamieniły to potencjalne istnienie na aktualne.
Nie jest prawdą, że całkowicie nie rozumiemy, czym jest umysł. Nie jest również prawdą to, że w pełni rozumiemy już działanie umysłu lub mózgu. O mózgu, wbrew powszechnym opiniom, wiemy już bardzo dużo. Niestety, chociaż prawda zawsze jest prosta, to jest prosta dla specjalistów a w dzisiejszych czasach nie ma już specjalistów od wszystkich dziedzin nauki. Próba przedstawienia wiedzy współczesnej na temat mózgu musi być z konieczności bardzo fragmentaryczna i musi odwoływać się do wielu różnych nauk operujących specyficznymi pojęciami. Czego możemy się spodziewać po takiej próbie? Jak zwykle w nauce oczekujemy stworzenia modelu pozwalającego na formułowanie szczegółowych pytań i przewidującego odpowiedzi na te pytania. Model jest zawsze przybliżeniem do rzeczywistości, lecz w przypadku umysłu mamy wyjątkową sytuację. Przypuśćmy, że uda się nam stworzyć bardzo szczegółowy model czyjegoś umysłu pozwalający wyjaśnić, czym jest świadomość, uczucia, przewidzieć wszystkie reakcje danego człowieka. Czy zniknie wówczas poczucie tajemnicy istnienia, zdumienie wynikające z refleksji nad bytem, czy wyjaśnione uczucia stracą swoją intensywność? Żaden model naukowy nie zastąpi rzeczywistości.
Może się nawet okazać, że pełne zrozumienie umysłu nie jest konieczne do jego budowy. Czy nie można, znając pewne ogólne zasady działania układu nerwowego, zbudować dobrze działającego modelu? Do budowy urządzeń technicznych nie jest bowiem konieczna pewna i szczegółowa teoria. Przykładem może tu być samolot. Do tej pory nie mamy pełnej teorii lotu ptaków: nie można ich lotu testować w komorach aerodynamicznych, budowa skrzydeł, upierzenie, sposób ich poruszania, wszystkie cechy biologiczne trudno jest opisać przy pomocy prostych modeli. Kiedy bracia Wright rozpoczynali swoje próby lotów o prawach aerodynamiki wiedziano bardzo niewiele i wielu ludzi nie wierzyło, że latanie jest możliwe. Obecnie okazuje się, że lata spadochron ślizgowy, lotnia, szybowiec, skrzydło typu delta, wiele typów rakiet. Jeszcze bardziej skrajnym przykładem jest rower, motocykl i samochód: pojazdy te zastąpiły konie chociaż z ich budową nie mają nic wspólnego.
Pełne zrozumienie jakiegokolwiek obiektu rzeczywistego nie jest możliwe. Fizycy w dalszym ciągu pracują nad atomem wodoru w bardzo silnych polach elektromagnetycznych, a cząsteczka wodoru jest tak skomplikowana, że daleko nam jeszcze do szczegółowego zrozumienia wszystkich subtelności jej zachowania. Czy oznacza to, że umysł nie może zrozumieć samego siebie? Jest to często zadawane pytanie, ale odpowiedź zależy oczywiście od tego, co to znaczy zrozumieć. Ani atomu wodoru, ani pojedynczej komórki, w której w ciągu sekundy zachodzi ponad 100 tysięcy biochemicznych reakcji, nie możemy zrozumieć w pełni, jednak mamy poczucie, że ogólnie rozumiemy ich zachowanie. To samo dotyczy umysłu - możemy zrozumieć wiele, nabrać poczucia, że nie jest on tak wielką tajemnicą, jak się nam to dotychczas wydawało.
Naszym celem jest zrozumienie sposobu działania umysłu. Ludzkość rozwinęła na ten temat wiele róznych teorii. W ramach prostych modeli pozwalają one na pewne zrozumienie umysłu, nie jest ono jednak wystarczające dla zbudowania funkcjonalnego modelu działającego w zbliżony do niego sposób. Jedynie zrozumienie działania mózgu, sposobu w jaki jego praca prowadzi do konstrukcji wewnętrznego modelu rzeczywistości, daje nam szansę na pełniejsze zrozumienie umysłu. Wymaga to wiedzy pochodzącej z różnych dziedzin: wiedzy o rzeczywistej konstrukcji mózgu oraz układu nerwowego, organizacji struktur mózgu na poziomie neuronowym lecz również wiedzy o składzie biochemicznym i reakcjach zachodzących w neuronach. Zrozumienie zakłada więc zbudowanie różnych modeli, dających nam szczegółowe odpowiedzi na pytania dotyczące sposobu funkcjonowania umysłu. Pewne jakościowe zrozumienie umysłu można zdobyć bez wnikania w szczegóły funkcjonowania mózgu – tak właśnie postępowała początkowo psychologia.
Kognitywistyka: krótka historia
Dążenie do zrozumienia siebie, zanim jeszcze ludzie uświadomili sobie, gdzie mieści się to “siebie” (starożytni Grecy sądzili, że mózg ma ochładzać krew a dusza mieści się w wątrobie) znacznie wyprzedza rozwój myślenia naukowego. Dążenie to znalazło odbicie w prądach mistycznych pojawiających się we wszystkich religiach świata. W indyjskiej jodze i w wielu szkołach buddyzmu (Chan, Zen, Chogye, wielu szkołach tybetańskich) pojawiają się systematyczne metody zmierzające do głębszego zrozumienia świadomości przez wnikliwą introspekcję. Koniec wieku XIX przynosi odkrycie podświadomości i rozwój szkół psychoanalitycznych i psychologii głębi. W pewnym sensie introspekcja jest nadal jedyną metodą zrozumienia siebie i swoich prawdziwych dążeń: nauka opisuje, tworzy modele, daje władzę nad światem, ale nie mądrość i zrozumienie.
Szybki rozwój nauki rozpoczął się wraz z odkryciem metod eksperymentalnych przez Galileusza na początku XVII wieku. Metody te nie zostały jednak szybko zastosowane do badania natury ludzkiego umysłu. Pierwsze laboratoria psychologiczne pojawiają się dopiero w drugiej połowie XIX wieku. Przyczyną tak dużego opóźnienia była filozoficzna postawa większości badaczy uznająca umysł za coś tak odmiennego, iż nie można tego badać naukowymi metodami. Do pewnego stopnia postawę taką spotykamy nawet dzisiaj. Wiek XVII i XVIII zajęły dyskusje filozoficzne, rozpoczynające się od Kartezjusza. Chociaż były one bardzo interesujące, a niektórzy badacze, tacy jak angielski lekarz David Hartley (1749), słusznie doszukiwali się przyczyn wrażeń umysłowych w wibracji nerwów, uczenia się w asocjacji tych wibracji, traktując umysł jako funkcje mózgu, to brak systematycznych eksperymentów nie pozwalał na jednoznaczne rozstrzygnięcie żadnej kwestii dotyczącej natury umysłu. Jedna z pierwszych teorii popartych eksperymentami okazała się zresztą całkowicie błędna! Josef Gall i Johan Spurzheim, medycy i anatomowie, opracowali bardzo szczegółową teorię lokalizacji funkcji mózgu, znaną jako frenologia. Ich wkład w opis anatomii mózgu był znaczny (między innymi opisali spoidło wielkie i podział na szarą i białą materię w rdzeniu kręgowym). Frenologia opierała się na hipotezie łączącej rozwój struktur kory mózgu z wypukłościami i wklęsłościami czaszki. Cechy umysłu i charakteru usiłowano więc związać z kształem czaszki, czyli kranioskopią. W pierwotnym systemie Gall wyróżnił 27 takich obszarów, związanych ze skłonnościami do stałości, ostrożności, duchowością, kochliwością, opiekuńczością, zdolnościami językowymi i wieloma innymi.
Gall i Spurzheim poczynili tysiące obserwacji potwierdzających ich system. Jest rzeczą zdumiewającą, że pomimo swojej wiedzy anatomicznej nie dostrzegli oni, iż kształt czaszki nie ma wiele wspólnego z kształtem mózgu. System ochrony mózgu przed uszkodzeniami mechanicznymi jest dość skomplikowany i składa się z trzech struktur, zwanych oponami. Pomiędzy czaszką i oponą pajęczą a przylegającą do mózgu oponą naczyniową znajduje się płyn mózgowo-rdzeniowy, którego rolą jest chronić mózg przed zmianami ciśnienia i wstrząsami. Kora mózgowa jest istotnie w znacznym stopniu odpowiedzialna za wyższe czynności poznawcze, ale wybrane przez frenologów cechy były tak mgliste i trudne do zdefiniowania, że trudno im przypisać precyzyjną lokalizację a większość z nich z pewnością jej nie ma. W całej historii frenologii widoczny jest efekt dobrych chęci eksperymentatora, nie pozwalający na porzucenie z góry przyjętych założeń. Frenologia została wyśmiana głównie z powodu głoszenia poglądów, które okazały się być prawdą: umysł jest wynikiem działania mózgu, wiele cech charakteru to cechy wrodzone a mózg składa się z lokalnych obszarów pełniących wyróżnione funkcje. Fałszywe idee, raz rozpowszechnione, umierają bardzo powoli i do dziś można zapewne znaleźć zwolenników frenologii.
Niektóre badania pierwszych psychologów zdawały się potwierdzać pogląd o niezwykłej naturze umysłu, gdyż oparte na introspekcji wyniki doprowadziły do znacznego zamętu. Pierwsze laboratorium zajmujące się eksperymentalnym badaniem umysłu zostało założone w 1879 roku w Lipsku przez Wilhelma Wundta. Podstawowym założeniem podejścia opartego na introspekcji było to, że każdy z nas najlepiej wie, co się w jego umyśle dzieje i po odpowiednim przygotowaniu będzie mógł to dokładnie opisać. Typowe eksperymenty polegały na badaniu skojarzeń i mierzeniu czasów reakcji. Analiza treści świadomości pomiędzy pojawieniem się skojarzenia a odczytaniem danego słowa była trudna i doprowadziła do dyskusji o roli myślenia bez konkretnych obrazów i świadomości pozbawionej konkretnej treści. Laboratoria psychologiczne donosiły o wynikach zgodnych z lokalnie przyjętymi założeniami. W USA kładziono nacisk na pragmatyczne podejście do psychologii, a zwłaszcza zastosowania w edukacji. Edward Thorndike rozwinął teorię uczenia się badając efektywność karania i nagradzania (przede wszystkim na zwierzętach), a rozważania nad zawartością świadomości były w tym celu mało przydatne. Zagadnienia związane ze świadomością a nawet sama koncepcja istnienia świadomości stała się bardzo podejrzana. Około 1920 roku rozwijająca się szkoła behawiorystów przypuściła atak na “subiektywne pojęcia”, takie jak wrażenia, postrzeganie, cel, myślenie czy uczucia. Wszelkie próby stworzenia teorii umysłu uznane zostały za nienaukowe (wielu psychologów do dziś obawia się posądzenia o nienaukowych charakter swoich badań), behawiorysta zajmował się tylko obiektywnie mierzalnymi wielkościami dotyczącymi reakcji na bodźce i opisującymi zewnętrzne zachowania. Przez następne 40 lat głównym obiektem badań stał się szczur w labiryncie.
Zwolennicy introspekcji naiwnie sądzili, że obserwacja swojego umysłu doprowadzi do zrozumienia sposobu jego działania. Behawioryści tak wystraszyli się problemów subiektywnej interpretacji, że uznali, iż umysł nie istnieje, jest źle określoną koncepcją, spuścizną średniowiecza, podobnie jak koncepcja duszy. Trudno obecnie zrozumieć, w jaki sposób behawioryści mogli na tak długo zdominować naukę nie dopuszczając do tworzenia modeli umysłu. Fizycy na początku XX wieku stworzyli bardzo abstrakcyjne teorie budowy atomów i molekuł, zakładając istnienie struktur, których nie można było bezpośrednio obserwować. Psychologia mogła pójść w podobnym kierunku, ale zrobiła to dopiero pod wpływem rozwoju teorii informacji i obliczeń, a zwłaszcza rozwoju komputerów. W czasie drugiej wojny światowej rozwinęły się też znacznie badania nad psychologią działania, a więc czynności ruchowych, manipulacyjnych, komunikacyjnych i operacji myślowych. Obsługa urządzeń technicznych musi uwzględniać możliwości przetwarzania informacji przez człowieka. Doprowadziło to do powstania nowej dziedziny wiedzy, zwanej ergonomiką.
W połowie lat 50. pojawiły się pierwsze idee stworzenia sztucznej inteligencji, a więc rozwiązywania zagadnień, dla których nie istnieje algorytm prowadzący do rozwiązania. Ambitne projekty Allena Newella i Herberta Simona, takie jak “General Problem Solver” (“Ogólny Rozwiązywacz Problemów”), nie doprowadziły co prawda do stworzenia uniwersalnych inteligentnych programów ale pomogły lepiej zrozumieć złożoność zagadnienia i naturę inteligencji. Wkrótce po powstaniu komputerów wydawało się, że stworzenie sztucznej inteligencji to kwestia krótkiego czasu. Pokładano wówczas wielkie zaufanie w logice i sposobach rozumowania z niej się wywodzących. Sztuczna inteligencja poszukiwała “algorytmu myślenia”, ogólnych zasad rozwiązywania problemów Chociaż udało się osiągnąć liczne ciekawe rezultaty już w latach 60-tych zaczęto zdawać sobie sprawę, iż nie ma prostej drogi do sztucznej inteligencji, nie ma ogólnych reguł czy algorytmów na myślenie, potrzebna jest obszerna wiedza, pewna reprezentacja wewnętrzna świata w programie, który ma przejawiać inteligentne zachowanie. Wiele nadziei po prostu się nie sprawdziło, łącznie z japońskim programem budowy komputerów 5 generacji z lat 1982-1994.
W celu uchwycenia w programie komputerowym zdrowego rozsądku rozpoczęto budowę systemu opartego na 100 milionach reguł, specyficznych dla różnych sytuacji! Okazało się bowiem, że ludzka wiedza tylko w niewielkim stopniu związana jest z ogólnymi zasadami rozumowania, a w znacznie większym stopniu oparta na wiadomościach i regułach specyficznych dla danej dziedziny czy problemu. Badania psychologiczne wykazały również, iż ogólne metody rozwijania inteligencji są mało skuteczne i przenoszenie zdolności do rozwiązywania problemów z jednej dziedziny na drugą nie jest łatwe. Jednym z najbardziej ambitnych projektów zmierzających do pobudzenia twórczego myślenia był rozpoczęty w 1979 roku przez rząd Wenezueli projekt Odyseja. Powołano specjalne “Ministerstwo Rozwoju Ludzkiej Inteligencji”. Po paru latach okazało się, że uczniowie kształceni według tego programu radzili sobie znacznie lepiej przy rozwiązywaniu problemów podobnych do wcześniej poznanych ale ich przewaga przy zadaniach nowego typu znikała. Ocena tego i kilku podobnych programów wskazuje na silną zależność metod rozwiązywania problemów od dziedziny. Nie udało się znaleźć dobrej metody na uczenie myślenia (Garnham i Oakhill 1994).
Badania nad sztuczną inteligencją doprowadziły do nowego spojrzenia na umysł jako maszynerię do przetwarzania informacji, wpływając zarówno na powstanie filozofii kognitywnej jak i psychologii kognitywnej. Informatyka pokazała, w jaki sposób z wielu prostych procesów przetwarzania informacji zbudować można procesy złożone, wykazujące pewne cechy inteligencji. Manipulacja symbolami przy pomocy niewielkiego zbioru reguł pozwala na tworzenie nieskończenie wielu kombinacji. Algorytmy manipulowania symbolami powinny więc pozwolić, przynajmniej w zasadzie, na odtworzenie nieskończenie złożonego zachowania za pomocą mechanicznie wykonywanych mikroprocesów. Wynika stąd, że systemy przetwarzające informacje, takie jak ludzkie umysły, powinny się dać zrozumieć dzięki badaniu algorytmów oraz badaniu sposobu wewnętrznej reprezentacji pojęć, czyli związków symboli z tym, co one reprezentują. Pojęcie reprezentacji pozwala nadać sens formalnym manipulacjom symboli, gdyż wyniki takich manipulacji odnoszą się do rzeczywistych zdarzeń, do świata wykraczającego poza zbiór symboli. Tak rozumiana kognitywistyka poszukuje więc reguł przetwarzania informacji i bada reprezentacje używane przez umysł przy tworzeniu modelu świata. Procesy przetwarzania informacji są częściowo niezależne od fizycznego substratu, za pomocą którego są realizowane. Natura posłużyła się związkami węgla by na drodze ewolucji stworzyć mózgi, których funkcją są umysły. Człowiek posłużyć się może krzemem by stworzyć sztuczne umysły przetwarzające informację w podobny sposób, co nasze.
Takie ujecie kognitywistyki stanowiło bez wątpienia postęp w stosunku do ujęcia behawiorystycznego. Do ostatecznego odrzucenia behawioryzmu przyczyniła się również lingwistyka. W szczególności badania Noama Chomskiego pokazały, iż subtelności dotyczące rozumienia języka nie można zrozumieć bez modelu opartego na przetwarzaniu informacji. Rozpoczęto poszukiwanie uniwersalnych reguł (ukrytej, głębokiej gramatyki) rządzących rozumieniem języka naturalnego. Wszystkie te tendencje doprowadziły do wyodrębnienia się psychologii kognitywnej od innych działów psychologii. Pierwszy podręcznik pod tytułem “Psychologia poznawcza”, napisany przez Ulrica Neissera, pojawił się w 1967 roku. Pierwsze pismo o nazwie “Cognitive science” powstało dopiero w 1976 roku. W tym czasie rozpoczęto regularne organizowane interdyscyplinarnych konferencji w tej dziedzinie. W napisanym w 1976 roku artykule “Informatyka jako badania empiryczne” Allen Newell do spółki z Herbertem Simonem jasno przedstawili program badawczy kognitywistyki. Umysł jest w ich ujęciu systemem kontrolnym określającym zachowanie się systemu w jego skomplikowanych oddziaływaniach ze środowiskiem. Umysł dostarcza różnorakich funkcji określających odpowiedzi organizmu na sytuacje środowiska. Dla każdej sytuacji (lub dla każdego typu sytuacji) odpowiedzi te mogą być różne, zależne nie tylko od aktualnego stanu środowiska, ale i od historii poprzednich oddziaływań. Język systemów kontrolnych pozwala przypisać im pewne cele. Realizacja tych celów wymaga posiadania wiedzy. Umysł jest systemem kontrolnym posiadającym liczne cele i wykorzystującym szeroką wiedzę. Systemy można opisywać na różnych poziomach, od składu molekularnego substancji z której są fizycznie zrobione do poziomu organizacji ich zachowania. Mówiąc o zachowaniu używamy języka intencji, celów, wiedzy. Na poziomie programu mówimy o instrukcjach, na poziomie sprzętowym mówimy o zachowaniu się sterowanych urządzeń, na poziomie opisu fizycznego o ich własnościach fizycznych. Poziom funkcjonalny opisu organizacji i zachowania jest według kognitywistów poziomem intencjonalnym. Różne systemy intencjonalne redukują się na różnych poziomach do poziomu molekularnego opisywanego przez prawa fizyki. Każdy z tych poziomów różni się jakościowo od siebie. Poziom intencjonalny jest po prostu jednym z poziomów opisu systemów działających w oparciu o wiedzę.
Takie ujęcie kognitywistyki, dominujące przez 20 lat, można nazwać klasycznym. Pomniejszało ono rolę rzeczywistych procesów neurofizjologicznych zachodzących w mózgu. Po raz drugi to właśnie lingwistyka przyczyniła się w znaczniej mierze do ujawnienia ograniczeń ujęcia kognitywistyki opartego na przetwarzaniu informacji. Okazało się, że bardzo trudno jest zrobić dobre programy do analizy języka naturalnego. Jest to jedno z najważniejszych, a zarazem najtrudniejszych zadań sztucznej inteligencji. Trwający 12 lat japoński program budowy komputerów piątej generacji, oparty na klasycznym podejściu do kognitywistyki, nie przyniósł oczekiwanych rezultatów. W coraz większym stopniu zaczęto doceniać rolę mózgu i ciała jako maszynerii implementującej algorytmy zachowania. Nawet stosunkowo proste programy analizujące sens zdań musza odwoływać się do modelu ciała, który pozwala na ustalanie relacji czasoprzestrzennych. Reprezentacje, nadające sens symbolom, wynikają przede wszystkim z naszej budowy biologicznej.
Badania nad mózgiem liczą sobie około 100 lat. Jeszcze w 1873 roku Sir John Ericksen, brytyjski chirurg królewski stwierdził: “Żołądek, klatka piersiowa i mózg będą na zawsze zamknięte przed penetracją mądrego chirurga”. Przed wojną badano w zasadzie najprostsze odruchy (szkoła Pawłowa, amerykańscy behawioryści). Nestorem fizjologów mózgu w Polsce był Jerzy Konorski, uczony światowej sławy, współpracownik Pawłowa. Jeszcze wcześniej działał Adolf Beck, który w pracy doktorskiej z 1890 roku opisał jako pierwszy czynność elektryczną mózgu, znaną obecnie jako czynność EEG (jego praca nie wpłynęła jednak na rozwój nauki).
Neurofizjolodzy usiłują opisać nasz “hardware poznawczy” na dość prymitywnym poziomie, psycholodzy na poziomie bardzo wysokim. Jakie obszary leżą pomiędzy tymi dwoma skrajnościami? Prof. Żernicki, neurofizjolog, napisał: “Czynności psychiczne, które niewątpliwie są związane z pracą mózgu, stanowią dla fizjologa do tej pory całkowitą zagadkę. Nie potrafimy w tej chwili nawet wyobrazić sobie mechanizmu ich powstawania. ... osiągnięcie celu ostatecznego jest mało prawdopodobne.” Podzielam ten pesymizm: nie wydaje się by metody neurofizjologiczne dały nam zrozumienie działania umysłu, tak jak badanie reakcji telewizora przy zniekształceniach sygnału i pomiary prądów powierzchniowych na obudowie niewiele nam powiedzą o jego konstrukcji. By zrozumieć działanie urządzenia technicznego musimy je zbudować od nowa. Modelowanie układu nerwowego daje nam taką możliwość.
Kongres Stanów Zjednoczonych docenia problem badań nad mózgiem i dlatego ogłosił ostatnią dekadę XX wieku Dekadą Mózgu. Prezydent Bush odczytał proklamację zaczynającą się od słów:
Trzyfuntowa masa komórek nerwowych i ich wypustek, kierująca naszymi działaniami, jest najwspanialszym, a zarazem najbardziej tajemniczym, produktem aktu stworzenia.
Postępy neurobiologii w ostatnich latach są ogromne, coraz więcej wiemy o biochemicznej strukturze układu nerwowego, o roli czynników genetycznych w rozwoju mózgu i ich wpływie na choroby układu nerwowego. Polska ma piękne tradycje w badaniach neurofizjologicznych (Instytut Nenckiego istnieje od ponad 70 lat, szkoła neurofizjologii prof. Jerzego Konorskiego znana jest szeroko na świecie), neurobiologicznych, neurofarmakologicznych, neuropatologicznych i neurochemicznych, lecz wielkie braki w badaniach nad sztuczną inteligencją i komputerowym modelowaniem układu nerwowego. Dziedziny te nie są wcale wymieniane wśród nauk wchodzących w skład polskiego programu badań nad mózgiem. W Polsce pierwsza konferencja na temat sieci neuronowych odbyła się w 1994 r, ale niewielu jest badaczy zainteresowanych komputerowymi modelami działania mózgu, większość prac w dziedzinie sieci neuronowych dotyczy raczej zastosowań technicznych układów neuropodobnych. Tymczasem właśnie komputerowe podejście do badania działania mózgu, znane pod nazwą “computational cognitive neuroscience”, czyli “obliczeniowych neuronauk kognitywnych”, wydaje się najbardziej obiecujące. Nie uwzględnia ono niektórych szczegółowych zjawisk związanych z pracą mózgu człowieka czy zwierząt, np. procesów genetycznych lub niektórych zjawisk bioelektrycznych, daje jednak nadzieję na zrozumienie planu całości, na wyłonienie się nowej jakości z organizacji elementów neuronowych połączonych w podobny sposób, jak ma to miejsce w prawdziwym mózgu.
Kognitywistyka zajmuje się wszystkimi zjawiskami dotyczącymi umysłu, szczególnie zagadnieniami dotyczącymi sposobu postrzegania bodźców i oddziaływania umysłu ze światem i innymi umysłami. Zwykle wymienia się pięć nauk o podstawowym znaczeniu dla zrozumienia umysłu: są to pewne działy psychologii, sztucznej inteligencji, psycholingwistyki, nauk o mózgu oraz filozofii kognitywnej (filozofii umysłu). Można do nich dodać antropologię, psychofizykę, lingwistykę komputerową, sztuczne życie (artificial life), sieci neuronowe, algorytmy ewolucyjne, komputerowe widzenie (computer vision) i wiele innych gałęzi nauki. Na rysunku przedstawiłem niektóre z zasilających kognitywistykę dziedzin nauki. Psychologia poznawcza (cognitive psychology) jest najbardziej znaną z tych nauk. Nauki te wywodzą się również z wielkiej tradycji filozoficznych dociekań dotyczących natury umysłu, takich jak kwestia wolnej woli i stosunku ciała do umysłu. Celem nauk poznawczych jest zrozumienie, w jaki sposób poznajemy świat, jakie są mechanizmy rozumowania i tworzenia wewnętrznych modeli świata, jakie są podstawy neurobiologiczne tych mechanizmów, jak je modelować matematycznie i symulować przy pomocy komputerów.
Czy kognitywistyka nie jest po prostu zbiorem wiadomości z różnych dziedzin? Czy naprawdę jako gałąź nauki kognitywistyka ma swoją unikalną tożsamość? Próba pewnej syntezy wiadomości z różnych dziedzin (nazywana przez niektórych badaczy “syntopią”) i tworzenie modeli umysłu zgodnych z wiedzą dostępną z wszystkich źródeł jest głównym zadaniem kognitywistyki. Jest to zadanie bardzo trudne, jednakże fakt, że szczegółowe, pełne zrozumienie pojedynczej komórki czy nawet molekuły nie jest możliwe nie oznacza, iż nie można zrozumieć najważniejszych koncepcji. Najlepsze ośrodki naukowe w dziedzinie kognitywistyki istnieją w Stanach Zjednoczonych i Wielkiej Brytanii. Struktura badań naukowych w Europie nie sprzyja niestety badaniom interdyscyplinarnym.
Niestety, niektóre dziedziny nauki stanowiące podstawę kognitywistyki są w Polsce słabo rozwinięte. Dotyczy to przede wszystkim sztucznej inteligencji, którą zajmują się tylko bardzo nieliczne grupy badawcze, modelowania matematycznego w neurobiologii, a nawet filozofii umysłu, zaniedbanej na rzecz innych działów filozofii. Wiele informacji o kognitywistyce znaleźć można w Internecie.
Książki LibreText na temat nauk społecznych, biologicznych aspektów rozwoju i psychologii, socjologii, antropologii, komunikacji społecznej i innych zagadnień są dostępne za darmo. Są tam też książki o podstawach nauk kognitywnych, zaburzeniach psychicznych, biopsychologii, czy analizie potencjałów wywołanych ERP.
Polecam też swoje strony Wikispaces:
http://duch-links.wikispaces.com/Cognitive+Science,
na których zebrałem liczne odnośniki do wszelkich zagadnień związanych z kognitywistyką.
Kolorowy efekt Phi obejrzeć można na stronie WWW
W. Duch |
Wstęp do kognitywistyki - spis treści