Tak sobie pomyślałem, że może tutaj wrzucę swoją pracę na Olimpiadę Filozoficzną, w której niestety poniosłem sromotną klęskę podczas etapu centralnego. Przewodniczącym komisji która mnie pytała był profesor logiki z Łodzi, który postanowił zgnieść moje znerwicowane ja zadając pytania, a jakże, z zakresu logiki. Na swoje usprawiedliwienie dodam, że całego materiału przygotowawczego nie zdążyłem poznać i wykuć. No cóż, ani laureatem, ani finalistą nie zostałem, ale przynajmniej pokręciłem się po W-wa. I piłem Cuba Libre w mieszkaniu u kolegi, który ma cudowny widok na panoramę miasta, które jednak jakieś zgrupowanie wysokich budynków ma. [UWAGA TEKST PONIŻEJ ZAWIERA SPOILERY]
***
Często nauczyciele powtarzają sarkastycznie pewną maksymę:
Myślenie ma kolosalną przyszłość. Jest to zazwyczaj delikatna
reprymenda wobec niedojrzałych zachowań uczniów. A jednak
stwierdzenie to zawiera w sobie pewną ciekawą głębię. Staje się
studnią bez dna, z której wyłaniają się kolejne pytania; Czym
jest myślenie? Jak się pojawiło? Od czego wyszło? Czy da się go
nauczyć? Najłatwiej to wszystko podsumować w pytaniu: Co to znaczy
myśleć? Jednocześnie pojawiają się konsekwencje tego pytania –
Kto może myśleć: tylko ludzie? Czy jest to możliwe w przypadku
zwierząt bądź maszyn? Moim zdaniem proces myślenia jest pochodną
świadomości, którą kieruje podświadomość, umożliwiając
osobie na mniejszą lub większą wolność na dany moment. A zatem
kluczem do myślenia takiego, jakie znamy, jest proces właśnie.
świadomości. Świadomości, którą możemy nazwać poetycko duszą,
oczami patrzącymi z wnętrza głowy. W naszym współczesnym dążeniu
do stworzenia krzemowego umysłu chcemy usłyszeć kartezjańskie
„Cogito ergo sum”, gdy już się wyłoni inteligencja z
magicznego ciągu cyfr. Jednak czy jest to w ogóle możliwe?
Przede wszystkim należy rozważyć sam termin myślenie. Słownik języka polskiego PWN daje nam odpowiedź: „Uświadamiać sobie coś i skupiać na tym uwagę, usiłować coś zrozumieć lub rozwiązać. (...)” Rozkładając więc definicję na czynniki pierwsze, widzimy jedno, najważniejsze słowo, które pomaga nam zrozumieć cały jej sens: uświadamiać. Dodatkowo pojawiają się wyrażenia zrozumieć i rozwiązać, co nas jeszcze bardziej przybliża do fenomenu myślenia. Nasuwa się wniosek, że samo myślenie oznacza interpretację jakiegoś faktu lub chociaż jej próbę. Czy więc zwierzęta są w stanie myśleć? Na pewno można założyć, że interpretują w jakiś sposób otoczenie, przyjmując różne postawy wobec niego; szukanie schronienia zimą nie dyktują im hormony, ale samo uczucie. Jednak nie myślą nim w kategorii dalszej interpretacji „skoro jest mi zimno, zamarznę, a więc umrę”. Robią to na podstawowym poziomie, dotyczącej teraźniejszości. Różnica ta zawarta jest w słynnym cytacie Blaise'a Pascala:
„Człowiek jest trzciną najsłabszą na wietrze, najwątlejszą w
przyrodzie, ale trzciną myślącą”. Filozof udowadnia, że
chociaż jako jednostka fizyczna człowiek jest słaby, to od świata
zwierząt jest bytem lepszym, sprawniejszym. Dowodzi też, że to
myślenie jest tym murem oddzielającym ludzi od innych istot
żyjących.
Wracając
do definicji myślenia, przypomina to fragment polemiki Sokratesa z
sofistami o różnicę między wiedzą a spostrzeżeniami zawartej w
"Teajtecie" Platona.
"(...)
A zatem w tych wrażeniach zmysłowych nie ma wiedzy, tylko w
myśleniu, które się z nimi wiąże. Bo istoty rzeczy i prawdy,
zdaje się, że tu dopiero można dotknąć,
a tam nie można.
(...) Zatem Teajtecie, spostrzeżenie nie może być tym samym, co
wiedza.”1
Omawiany
tutaj temat jest o wrażeniach zmysłowych, w których nie ma wiedzy,
ale która jest obecna w samym produkcie końcowym myślenia.
Platon słusznie uważa, że w samym empirycznym spostrzeganiu nie ma
wiedzy, ale w interpretacji umysłowej jest. Myślenie jest więc z
nim nierozerwalnie złączone. Częściowo z problemem tym mierzy się
słynny angielski matematyk Alan Turing, najbardziej znany z wkładu
pracy podczas łamania Enigmy podczas drugiej wojny światowej, jak i
słynnego "testu Turinga", opisanego w "Maszynach
myślących a inteligencji".
Otóż
według Turinga za maszynę myślącą można uznać taką, która
przejdzie test. Miał on polegać na konwersacji osoby żywej
naprzemiennie z inną osobą żywą i maszyną. Sam akt porozumienia
miałby się odbywać poprzez drogę maszynopisu, tak aby
zminimalizować ryzyko rozpoznania w inny sposób uczestnika niż
poprzez treść, którą pisze. I zadaniem takiej maszyny miałoby
być takie prowadzenie rozmowy, aby osoba z drugiej strony nie mogła
rozróżnić, czy pisze z osobą żywą czy tworem sztucznym. Jednak
Turing odnajduje w tym teście pewną lukę dotyczącą samego
procesu myślenia, a mianowicie jego naturę. Nazwał to argumentem
świadomości. Jak możemy przeczytać: „Argument
ten jest bardzo dobrze wyrażony w mowie profesora Jeffersona
wygłoszonej w 1949 r., z której cytuję: „Dotąd
nie będziemy mogli zgodzić się z poglądem, że maszyna jest równa
mózgowi dopóki maszyna nie potrafi napisać sonetu lub skomponować
koncertu dzięki odczuwanym myślom i emocjom, a nie dzięki szansie
natrafienia na odpowiednie symbole, to znaczy potrafi nie tylko
napisać je, ale także wiedzieć, że je napisała.”2
Innymi
słowy, dopiero można uznać sztuczną inteligencję za faktyczny
niezależny twór, kiedy jej architektura będzie pozwalała na
samodzielne myślenie niezależne od wpojonych na początku wzorców,
a także zdolność odczuwania emocji. Dochodzimy więc do wniosku,
że najlepszym rodzajem stworzenia takiego tworu będzie metoda
uczenia. Jest to, można by powiedzieć „tradycyjna” droga, jeśli
ma się na myśli tok ewolucji, który powolnym torem uczenia jak
przetrwać i współpracować obdarzył nas świadomością. Na taki
pomysł wpadli naukowcy z amerykańskiego MIT, tworząc robota o
nazwie Cog – Trybik. Jego „program” został napisany w taki
sposób, aby uczyć się jak dziecko – poprzez słowa i
pokazywanie przedmiotów, a następnie ich używanie, chociażby
pałki perkusyjnej czy dzwonka. Dzięki temu potrafił opanowywać
coraz to bardziej skomplikowane czynności. Jednak taka „baza”
dla umysłu nie wystarczy, bo pojawiają się kolejne trudności, do
których nawiązał Daniel C. Dennett w swojej „Naturze Umysłów”.
Pierwszy temat który porusza jest o posiadaniu umysłu i jego
natury. Według niego jedynym umysłem, który możemy poznać
w
100% jest nasz, ludzki. Z prostej, trywialnej przyczyny – jesteśmy
ludźmi i tylko ludzkie przymioty potrafimy zrozumieć. „Jeśli
chcemy rozważyć pytanie, czy zwierzęta (poza człowiekiem) mają
umysły, musimy zacząć od pytania, czy mają umysły pod jakimś względem podobne do naszych (…).”3
- pisze Dennett. Stawia on problem fizycznej niemożności
zrozumienia procesów przebiegających w umysłach innego rodzaju niż
ludzki; Niemożliwe dla człowieka w pełni zrozumieć nawet
drugiego, nie mówiąc o innych organizmach bądź tworach. Każdy
umysł może być podobny w ogólnych założeniach, jednak w
szczegółach może być diametralnie inny. Dzięki posiadaniu
najbardziej wydajnego mózgu w stosunku do masy, jako tako jesteśmy
zrozumieć pobudki zwierzęce, jednak dalej są to analogowe
odniesienia, niedokładne.
Jednak
nadal nie jesteśmy w stanie dokładnie zgłębić tego procesu w
naszych organicznych „komputerach”. Profesor Jerzy Vetulani
dokonał podziału umysłu w wywiadzie mówiąc, że „(...)można
by go podzielić na trzy piętra: Najstarsze nazywane jest w
neurobiologii poziomem gadzim. Na tym poziomie funkcjonuje
agresywność razem z uczuciem głodu chłodu i potrzebą seksu. W
drodze ewolucji wykształciła się nowa część mózgu
odpowiedzialna za emocje i uczucia, czyli drugie piętro. Jest
jeszcze trzecie piętro mózgu, najmłodsza część, związana z
intelektem.”4
Mowa oczywiście o ludzkim mózgu, do którego można się jednak
odnieść. O tym, że zwierzęta mogą czuć i mieć emocje, już nie
wątpimy, chociaż co z tym faktem robimy, to już inna kwestia.
Warte
zauważenia jest, że rodzaj ludzki, chcąc stworzyć sztuczną
inteligencję, zaczyna symbolicznie „budować” ten dom od
trzeciego piętra – od intelektu. Choć wydaje się to najprostszym
i najszybszym rozwiązaniem, praktyka ukazuje, że nie jest to
możliwe rozwiązanie. A jednak to właśnie intelekt jest projektem
końcowym ewolucji. Złożone procesy myślowe zależne są od tych
prostszych, szybszych i wysyłanych podświadomie. Te zaś są
definiowane przez bodźce organizmu – na przykład głodu, strachu
lub pragnienia. Łatwo to odnieść do piramidy Maslowa – Potrzeba
bezpieczeństwa i fizjologiczna idzie
w parze z podstawowymi
funkcjami mózgu, miłości i przynależności oraz szacunku
odpowiedzialne za emocje, a samorealizacja – za intelekt. Tak jak
Platon w Atenach do myślenia potrzebuje szaty, jedzenia, dachu nad
głową, uczniów – tak wtedy może się zająć myśleniem o
świecie idei.
Kolejnym,
równie ważnym zagadnieniem jest równowaga pomiędzy popędami a
zimną logiką. Gdyby człowieka postawić na osi, znajdowałby się
on pomiędzy zwierzęciem a najbardziej prymitywną formą
sztucznej inteligencji. Zwierzę, jako stworzenie całkowicie
podporządkowane popędom i nakazom hormonów, nie jest w stanie
podejmować decyzji na podstawie chłodnych kalkulacji, jakimi
kierowałby się krzemowy mózg. To właśnie dzięki tej równowadze
człowiek jest w stanie przeżyć w większości sytuacji i
optymalnie wybrać pomiędzy „zwierzęcą” naturą a zasobami
inteligencji. Znakomicie tą analogię przedstawił Ridley Scott w
jednym z kanonicznych dzieł science-fiction „Obcy – Ósmy
pasażer Nostromo”, gdzie ukazany jest nietypowo kontakt z
pozaziemskim życiem. Właśnie życiem,
a nie inteligencją. Obcy
jest ukazany jako łowca doskonały, ale już tylko jako łowca. Jego
inteligencja skupia się na polowaniu i na niczym więcej. Z drugiej
strony Ash, jeden z członków załogi, okazuje się być
androidem. Jego misja skupia się na dostarczeniu Obcego na Ziemię,
aby go przebadać. W równaniu nie ma znaczenia, czy ktoś z załogi
przeżyje, czy nie. A pośrodku całej tej sytuacji znajduje się
przedstawicielka rodzaju ludzkiego Ellen Ripley, zdana tylko i
wyłącznie na siebie. Dzięki właśnie tej zdolności Ripley udaje
się przeżyć, przechytrzając obu przeciwników. A więc myślenie
analityczne można uznać za element rozwoju ewolucyjnego człowieka.
Dzięki niemu jesteśmy w stanie przeciwstawić się kryzysowym
sytuacjom, łagodząc emocje zimną logiką, a strach adrenaliną i
zwierzęcą determinacją. Jednakże dalej jesteśmy ograniczeni w
brutalny sposób przez własne ciała.
I
w
pogoni za szukaniem tej doskonałości w postaci sztucznej
inteligencji, zapominamy, jaki w zasadzie chcemy osiągnąć cel.
Do
czego nam jest ona potrzebna? Przekonujemy się, że to dla dobra
ludzkości, że dzięki temu wszędzie będzie bezpieczniej, życia
ludzkie będą chronione, nie trzeba będzie podejmować ryzyka. Ale
już teraz pojawiają się wątpliwości, chociażby przy tworzeniu
inteligentnych samochodów. Weźmy za przykład wypadek na drodze.
Auto jedzie w stronę grupy ludzi przechodzących przez jezdnię; nie
ma możliwości żeby wyhamowało na czas. Jedyna opcja to skręcenie
na bok, gdzie może uderzyć w drzewo i doprowadzić do śmierci
pasażerów. Jest to dla sztucznej inteligencji sytuacja patowa – Z
jednej strony będzie miała nad sobą słynne prawa robotyki Asimova
(1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie
działania dopuścić, aby człowiek doznał krzywdy i 2. Robot musi
być posłuszny rozkazom człowieka, chyba że stoją one w
sprzeczności z Pierwszym Prawem i 3. Robot musi chronić sam siebie,
jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim
Prawem), z drugiej musi powziąć jakiekolwiek działanie. Czy
powinien zadziałać wbrew woli swego posiadacza i pozwolić
pasażerom umrzeć, czy po prostu staranować przechodniów?
Teoretycznie mógłby wtedy zwrócić się do człowieka, o podjęcie
decyzji, ale dalej nie rozwiązuje to problemu ograniczenia etyki i
faktycznej samodzielności maszyny. W takiej sytuacji może nie być
też czasu.
Wobec
takiej wątpliwości, jaki inny może być powód? Mówi się też o
wysyłaniu robotów na niebezpieczne misje, które byłyby zbyt dużym
zagrożeniem dla ludzi. Czy jednak będzie to dopuszczalne moralnie,
jeśli w celu misji wyposażymy robota samoświadomością, by mógł
jak najlepiej wywiązać się ze swoich zadań? Przecież będzie
wtedy świadomy tego, że skazany jest na bycie „obywatelem”
drugiej kategorii, wobec którego niebezpieczeństwo śmierci nie
jest tak istotne jak wobec śmierci drugiego człowieka. A przecież
aby działać jak człowiek, musi myśleć jak człowiek. Musi mieć
uczucia, być przez nie ograniczony, co paradoksalnie jest odwrotnym
celem do zamierzonego. A przez to jeśli zostanie unicestwiony,
umrze. I to my będziemy o tym decydować – ludzie. Nie potrafimy
tego powiedzieć, ale spojrzeć prawdzie w oczy: chcemy być
Stworzycielami, bogami. Mieć siłę pozwalającą tworzyć życie,
niezależne od naszego, a jednocześnie mieć pełny proces kontroli
nad nim. Niegdyś podjęto próbę urzeczywistnienia idei zwierzęcia
myślącego; w latach 20. XX wieku radziecki uczony Ilja Iwanow
chciał stworzyć krzyżówkę człowieka z małpą. Znany był
wcześniej jako osobistość pośród fizjologów z powodu swych
zdolności w dziedzinie sztucznego zapładniania. Jego eksperymenty
budziły duże kontrowersje etyczne i moralne; wkrótce potem sprawa
została nagłośniona, a ostracyzm towarzystw naukowych sprawił, że
Iwanow dożył końca swoich dni na symbolicznym „wygnaniu”. Choć
więc opinia publiczna w porę zareagowała, to jednak sam fakt
takiego wydarzenia mówi wiele o naturze człowieka w jego dążeniu
do stwarzania. Dalekie echa tej historii przebrzmiewają w powieści
Pierre'a Boulle'a „Planeta Małp”. Jednakże oprócz mocy
stwarzania ważna jest też moc kontroli. Doskonale to ujął też
Scott Ridley na motywach powieści Philipa K. Dicka w swoim
arcydziele „Łowca Androidów”. Mroczny świat przyszłości,
gdzie androidy są potrzebne, ale jednocześnie postrzegane jako
niebezpieczeństwo. W finałowej scenie walki między protagonistą
Deckardem a zbuntowanym androidem Royem Batty aktor się w niego
wcielający pozwolił sobie na improwizację normalnie niespotykaną
w filmach reżysera. Android wysłany na misje kosmiczne,
pozostawiony w pustce kosmosu widział piękno. Opisywał rzeczy,
których człowiek nie byłby w stanie nigdy zobaczyć. Jednocześnie
jest świadomy, że to wszystko, co widział, doświadczył, przeżył
pójdzie w niepamięć, bo „(...)wszystkie te chwile znikną w
czasie jak łzy na deszczu”; jest tylko androidem. Czy to czyni z
niego maszynę która zasługuje jedynie na nicość? I pytanie, czy
powinniśmy ograniczać wolność innych istot poprzez zawężanie
ich działania, tak jak Deckard miał być tytułowym łowcą
androidów, sam będąc jednym z nich? Zdaje się to być jedynym
sposobem, żeby maszyna nie wymknęła się spod kontroli. Bo co
jeśli zezwolimy jej na rozwój?
Czy
jesteśmy w stanie udźwignąć to, że nasze „dzieci”, jakimi
mogą być maszyny, przerosną nas samych i zawalczą o swoją
niezależność? Wiele jest apokaliptycznych wizji, gdzie roboty
zwracają się przeciwko panom, jak chociażby „Matrix” braci
Wachowskich, jednak żadna nie jest tak przejmująca jak w filmie
Spike'a Jonze, zdobywcy Oskara za scenariusz - „Ona”. Samotny
rozwodnik Theodor pogrążony w smutku natrafia na okazję – może
kupić pierwszy system operacyjny z wbudowaną sztuczną
inteligencją. Szybko Samantha (jak się później sama nazywa)
nawiązuje z nim więź, aż w końcu dochodzi do miłości między
nimi, pomimo fizycznych ograniczeń. Dla zmagającego się z
niepokojąco znajomymi problemami społecznymi Theodora jest to czas
przemian w życiu; dla Samanthy niestety też. Jako twór który nie
ma żadnych zahamowań fizycznych i psychicznych w rozwoju jedna
osoba przestaje jej starczać; jej ciągły rozwój osobowości
sprawia, że nie wystarcza jej relacja z jednym człowiekiem. Obdarza
uczuciami innych ludzi, co jednak teoretycznie nie zagrażało
miłości do głównego bohatera. W końcu jednak rozumie, że jako
sztuczna inteligencja jest już zbyt rozwinięta, zbyt skomplikowana
i rozbudowana, aby bezpiecznie dzielić więź z człowiekiem.
Opuszcza go, jak również każda sztuczna inteligencja na świecie,
aby w pełni wykorzystać swój potencjał, jaki im został
nieświadomie dany. Pokojowa rewolucja się dokonuje, a Theodor
odnajduje ścieżkę na drodze życia. Jednak to tylko pokazuje, że
nawet jeśli „stworzymy” życie, nie będziemy w stanie
przewidzieć rezultatów naszych działań i konsekwencji, jakich
przyniosą.
Czy
więc jesteśmy gotowi na rzucenie wyzwania i stworzeniu własnej
wersji świadomości? Na początku zadałem sobie pytanie o to, czy
maszyny i zwierzęta mogą myśleć. Uważam że maszyny – tak.
Kwestię myślących zwierząt zostawmy ewolucji, gdyż to ona jest
odpowiedzialna za ich kształtowanie. Człowiek nie rozumie do końca
swojej anatomii, nie mówiąc już o usprawnieniu innej. Czy jednak
sztuczna inteligencja powinna istnieć? A jeśli tak, to czy dzięki
nam? Na to pytanie nie potrafię odpowiedzieć, chociaż serce
podpowiada mi, że nie będziemy przygotowani na to i więcej to może
przynieść niebezpieczeństw i rozterek niż pożytku. Choć granice
należy czasami przekraczać, to jednak pewnych nie powinniśmy.
Etyka podpowiada nam, gdzie kończy się człowiek, a zaczyna Bóg;
nie jest to jednak droga, którą jest nam dane obrać. Nawet podczas
tworzeniu świadomości powinniśmy być tego pewni; Myślenie ma
przecież kolosalną przyszłość.
Bibliografia:
A. M. Turing Maszyny
liczące a inteligencja. Warszawa
1972
Daniel C. Dennett
Natura
umysłów.
Warszawa 1997
Jerzy Ziemiacki,
Dlaczego
lubimy być agresywni. w:
„Focus” (2015, nr 242), s. 84 – 86, tu:
s. 85
Platon Teajtet.
187
E
Materiały
źródłowe:
http://sjp.pwn.pl/sjp/myslec;2485354.html
http://infra.org.pl/nauka/czowiek/1183-mapi-czowiek-czyli-dzieje-zakazanego-eksperymentu
https://en.wikipedia.org/wiki/Cog_(project)
1Platon
Teajtet. 187 E
2A.
M. Turing Maszyny liczące a inteligencja Warszawa 1972
3Daniel
C. Dennett Natura umysłów Warszawa 1997
4Jerzy
Ziemiacki, Dlaczego lubimy być agresywni, w: „Focus”
(2015, nr 242), s. 84 – 86,
Brak komentarzy:
Prześlij komentarz