Informatyka i ambitne zastosowania komputerów.
Murray Gell-Mann (Nobel 1969 za teorię kwarków), przemawiając w czasie „Complex Systems Summer School” w Santa Fe, powiedział:
Transformacja społeczeństwa przez rewolucję naukową XIX i XX wieku zostanie wkrótce przyćmiona przez jeszcze dalej idące zmiany, wyrastające z naszych rosnących możliwości zrozumienia złożonych mechanizmów, które leżą w centrum zainteresowania człowieka. Bazą technologiczną tej nowej rewolucji będą niewyobrażalnie potężne komputery razem z narzędziami matematycznymi i eksperymentalnymi oraz oprogramowaniem, które jest niezbędne by zrozumieć układy złożone... Przykładami adaptujących się, złożonych systemów jest ewolucja biologiczna, uczenie się i procesy neuronalne, inteligentne komputery, chemia białek, znaczna część patologii i medycyny, zachowanie się ludzi i ekonomia.
Komputerowe dowody są często znacznie pewniejsze niż dowody klasyczne, w których jest sporo błędów. Przykładem mogą być tablice całek, w których programy do algebry symbolicznej znajdowały od 10 do 25% błędnie podanych całek.
Jakie odkrycie polskiego matematyka zrobiło największą karierę? W 1946 roku Stanisław Ulam, układając w szpitalu pasjansa, wpadł na pomysł rachunku Monte Carlo. Jest to metoda uniwersalna, pod warunkiem, że mamy pod ręką narzędzie które potrafi w ciągu sekundy zbadać miliony przypadkowych możliwości. Jedynie komputery dają nam takie możliwości.
Projekt QED (od ,,Quod Erant Demonstratum”) zmierza on do zbudowania komputerowego systemu w którym zgromadzona zostanie cała wiedza ludzkości o matematyce!
We wrześniu 1990 na konferencji w Amsterdamie stwierdzono:
„Fizyka komputerowa to fizyka teoretyczna studiowana metodami eksperymentalnymi”
Steven Wolfram, nazywany przez kolegów w Princeton następcą Einsteina, pracował nad teorią cząstek elementarnych i przyczynił się do rozwoju teorii automatów komórkowych. Jego największym sukcesem jest jednak system algebry symbolicznej Mathematica. Wolfram tak pisze o komputerach w fizyce:
Lata 80 wspominane będą jako dekada, w której komputery powszechnie wkroczyły do metod nauk fizycznych. W dawnych czasach fizyka była gałęzią filozofii. Za czasów Galileusza nastąpiła rewolucja i fizyka jest nauką doświadczalną. Teraz mamy kolejną rewolucję tj. symulowanie świata przez komputery. Jest to fundamentalna zmiana sposobu myślenia o nauce. Praca nad automatami komórkowymi i fraktalami pokazała, jak proste fizyczne modele prowadzą do niezwykle złożonych zachowań.
W nadchodzących latach zobaczymy związki pomiędzy pytaniami fizycznymi i teorią obliczeń, fizyka statystyczna pojawi się w projektowaniu systemów współbieżnych.
Modelowanie molekularne, farmakologia kwantowa
Bardzo ciekawe zagadnienia informatyczne związane są z projektem
mapowania ludzkiego genomu. Specjaliści od baz danych oceniają, że problemy
związane z sekwencjonowaniem genomów, wymagające zapisu informacji o miliardach
par nukleotydów to jedno z największych wyzwań, przed którymi stanęli.
Coraz więcej biologów zamiast prowadzić badania doświadczalne korzystać
będzie z baz danych i symulacji komputerowych w biologii i w medycynie.
Przykładem takiego problemu obliczeniowego, gdy już powstanie odpowiednia
baza danych, będzie próba rekonstrukcji drzewa ewolucji.
Ważnym działem biologii komputerowej są symulacje działania komórek
nerwowych jak i fragmentów układu nerwowego, a w szczególności mózgu. Biologia
komputerowa przechodzi tu w komputerową medycynę. Należą do niej symulacje
działania organizmu ludzkiego i zwierzęcego na różnym poziomie, począwszy
od symulacji całych narządów do symulacji cykli biochemicznych pozwalających
śledzić na komputerowym modelu co dzieje się w organizmie z podawanym lekiem
czy innymi substancjami.
Różne odnośniki do lingwistyki, zagadnień związanych z mową i uczeniem się języków.
Różne odnośniki do psychologii i
psychiatrii.
Neuronauki kognitywne, czyli jak komputerowe
symulacje funkcji mózgu wyjasniają zachowanie.
Klio, muza historii, udzieliła swojego imienia nauce o nazwie kliometria,
zajmującej się ilościowymi (statystycznymi) metodami w historii.
Wkrótce doczekamy czasów, gdy wszystkie informacje historyczne będą
natychmiast dostępne badaczom i zamiast szperać po starych dokumentach
będą spędzali całe dnie przed monitorem.
The Association for History and Computing (AHC), czyli stowarzyszenie do spraw historii i komputerów, wydaje od 1989 roku pismo „History and Computing”. Polskie Towarzystwo Historyczne powołało Komisję Metod Komputerowych, która jest jednocześnie Polskim Oddziałem AHC.
Minęło niedawno 500-lecie odkrycia Ameryki. 11 października 1492 roku, o godzinie 10 wieczorem, ze statku Krzysztofa Kolumba dostrzeżono przy świetle księżycowym zarys brzegu. Fala była duża i trzeba było czekać do drugiej w nocy zanim brzeg nie pojawił się wyraźniej. Po 33 dniach podróży statki Kolumba dotarły do lądu. Ale jakiego lądu? Wiadomo, że była to wyspa należąca do archipelagu wysp Bahama. Kolumb nazwał ją San Salvador. Niestety, jej dokładne położenie pozostało przez wieki nie znane. Rozstrzygnięcie możliwe było dzięki stworzeniu komputerowego modelu tej podróży.
Stylometria, czyli badanie stylu literackiego metodami ilościowymi, powstała jeszcze przed epoką szerokich zastosowań komputerów, jednak dopiero dzięki wprowadzeniu nowych, komputerowych metod klasyfikacji i pełnej dostępności tekstów w formie elektronicznej dziedzina ta mogła się w pełni rozwinąć. Dzięki stylometrii można rozstrzygnąć sporne kwestie dotyczące autorstwa dzieł literackich, np. na początku lat 90-tych rozstrzygnięcia doczekała się kwestia autorstwa ostatniego z dzieł przypisywanych Szekspirowi (The two noble kinsmen), napisanego wspólnie z Johnem Fletcherem. Niektóre z rozdziałów (pierwszy i piąty) okazały się w całości być dziełem Szekspira, rozdział drugi jest autorstwa Fletchera, a trzeci i czwarty w różnych proporcjach nosi cechy stylu obu autorów.
Bardziej ambitne zastosowania komputerów w naukach prawniczych zmierzają do wprowadzenia metod sztucznej inteligencji do wyszukiwania informacji na podstawie opisów, które wymagają głębszej analizy (rozumienia pytania, a nie tylko szukania słów kluczowych), do wyszukiwania sprzeczności wewnętrznych w danym zbiorze przepisów, szukania precedensów itp. W dalszej perspektywie rozumowanie prawników zostanie całkowicie skomputeryzowane!
Czy nauki komputerowe nie powinny pozostać działami poszczególnych nauk? I tak i nie. Tak, gdyż wymagają one kształcenia w zasadniczych kierunkach, z których wyrastają, w naturalny sposób wyodrębniając się z tych kierunków, jak to się stało z chemią komputerową. Nie, bo ludzie mają w nich wspólny język i można kształcić w znacznym stopniu tak samo ekonomistów, biologów, chemików i fizyków: programowanie, analiza numeryczna, techniki wizualizacji danych, symulacji, modelowania, nienumeryczne metody komputerowe. Często łatwiej porozumieć się chemikowi komputerowemu z fizykiem czy ekonomistą robiącym symulacje ekonometryczne niż z chemikiem analitykiem czy biochemikiem. Nauki komputerowe to nietrywialne, a więc wykraczające poza elementarne wiadomości, zastosowania komputerów w tych dziedzinach. Poza tym do nauk obliczeniowych należą podejścia interdyscyplinarne, które nigdzie nie pasują.
Czy nie są to działy informatyki? W pewnym sensie tak, jest to informatyka stosowana w różnych naukach, a cała informatyka jest gałęzią matematyki. Taki dział nie wyrasta jednak z badań w już istniejących instytutach informatyki. Programy nauczania informatyki nie są dostosowane do potrzeb w tych dziedzinach. Jeśli któraś z gałęzi zaczyna przerastać całe drzewo to czas już chyba na jej odłączenie... Wielkie opisywanie świata dopiero się zaczęło a pojawienie się komputerów pozwala nam na dokonanie wielkiego postępu na każdym etapie tego procesu.
Do czego na przykład zaliczyć grafikę komputerową? Artyści korzystają jedynie z narzędzi i niepotrzebna im informatyka, ale jest też cała grupa ludzi - a potrzeba ich coraz więcej - posiadająca głęboką wiedzę o matematycznym modelowaniu rzeczywistości, psychologii percepcji, teksturach fraktalnych, znających się na animacji a jednocześnie obdarzonych artystycznym talentem. Im bardziej wyrafinowane narzędzia dają artystom do dyspozycji producenci oprogramowania tym głębszej trzeba wiedzy by je udoskonalić.
Co zrobiono, by ustalić tożsamość tych nowych gałęzi nauk? Mamy zatrzęsienie pism z „komputer” w tytule, konferencje na przeróżne komputerowe tematy, ale niewielu specjalistów skłonnych jest jeszcze przyznać, że jest to istotnie „trzecia siła” w nauce. Nowych nauk nie można jednak zdefiniować, powoli nabierają one tożsamości w miarę jak pojawia się grupa specjalistów zaczynająca pracować nad podobnymi tematami używając podobnych metod, zakładając pisma i organizując konferencje.
Jest rzeczą coraz wyraźniej widoczną, że zrozumienie złożonych systemów wymagać będzie wspierających się nawzajem badań, prowadzonych przez specjalistów reprezentujących szerokie spektrum, od matematyki i nauk przyrodniczych do nauk humanistycznych. Społeczeństwo musi znaleźć sposoby, by pielęgnować to niezbędne zbliżenie się różnych dyscyplin naukowych i innych ważnych czynników. Istniejące obecnie instytucje akademickie nie są dobrze przygotowane by podołać tym naglącym potrzebom.
Pojawianie się symulacji komputerowych jako nowego sposobu rozwiązywania zagadnień wymaga dostosowania programów nauczania. Zmiany powinny sięgać bardzo głęboko. Geoffrey Fox porównuje obliczanie do tak fundamentalnych umiejętności jak czytanie, pisanie czy arytmetyka, umiejętności których posiadanie jest podstawą wszelkiego działania w świecie współczesnym. Powstaje więc problem, jak nauczać takiego podejścia do nauki.
Instytut Modelowania Matematycznego i Komputerowego (Warszawa) i inne Ośrodki Superkomputerowe w Polsce pełnią ważną rolę integrującą zainteresowanych symulacjami komputerowymi.
Komitet Informatyki PAN powołał w 2009 roku "Sekcję Nauk Obliczeniowych".