niedziela, 30 października 2016

Zwierzęta, ludzie, maszyny - Co to znaczy myśleć?

Tak sobie pomyślałem, że może tutaj wrzucę swoją pracę na Olimpiadę Filozoficzną, w której niestety poniosłem sromotną klęskę podczas etapu centralnego. Przewodniczącym komisji która mnie pytała był profesor logiki z Łodzi, który postanowił zgnieść moje znerwicowane ja zadając pytania, a jakże, z zakresu logiki. Na swoje usprawiedliwienie dodam, że całego materiału przygotowawczego nie zdążyłem poznać i wykuć. No cóż, ani laureatem, ani finalistą nie zostałem, ale przynajmniej pokręciłem się po W-wa. I piłem Cuba Libre w mieszkaniu u kolegi, który ma cudowny widok na panoramę miasta, które jednak jakieś zgrupowanie wysokich budynków ma. [UWAGA TEKST PONIŻEJ ZAWIERA SPOILERY]



***

Często nauczyciele powtarzają sarkastycznie pewną maksymę: Myślenie ma kolosalną przyszłość. Jest to zazwyczaj delikatna reprymenda wobec niedojrzałych zachowań uczniów. A jednak stwierdzenie to zawiera w sobie pewną ciekawą głębię. Staje się studnią bez dna, z której wyłaniają się kolejne pytania; Czym jest myślenie? Jak się pojawiło? Od czego wyszło? Czy da się go nauczyć? Najłatwiej to wszystko podsumować w pytaniu: Co to znaczy myśleć? Jednocześnie pojawiają się konsekwencje tego pytania – Kto może myśleć: tylko ludzie? Czy jest to możliwe w przypadku zwierząt bądź maszyn? Moim zdaniem proces myślenia jest pochodną świadomości, którą kieruje podświadomość, umożliwiając osobie na mniejszą lub większą wolność na dany moment. A zatem kluczem do myślenia takiego, jakie znamy, jest proces właśnie. świadomości. Świadomości, którą możemy nazwać poetycko duszą, oczami patrzącymi z wnętrza głowy. W naszym współczesnym dążeniu do stworzenia krzemowego umysłu chcemy usłyszeć kartezjańskie „Cogito ergo sum”, gdy już się wyłoni inteligencja z magicznego ciągu cyfr. Jednak czy jest to w ogóle możliwe?

Przede wszystkim należy rozważyć sam termin myślenie. Słownik języka polskiego PWN daje nam odpowiedź: „Uświadamiać sobie coś i skupiać na tym uwagę, usiłować coś zrozumieć lub rozwiązać. (...)” Rozkładając więc definicję na czynniki pierwsze, widzimy jedno, najważniejsze słowo, które pomaga nam zrozumieć cały jej sens: uświadamiać. Dodatkowo pojawiają się wyrażenia zrozumieć i rozwiązać, co nas jeszcze bardziej przybliża do fenomenu myślenia. Nasuwa się wniosek, że samo myślenie oznacza interpretację jakiegoś faktu lub chociaż jej próbę. Czy więc zwierzęta są w stanie myśleć? Na pewno można założyć, że interpretują w jakiś sposób otoczenie, przyjmując różne postawy wobec niego; szukanie schronienia zimą nie dyktują im hormony, ale samo uczucie. Jednak nie myślą nim w kategorii dalszej interpretacji „skoro jest mi zimno, zamarznę, a więc umrę”. Robią to na podstawowym poziomie, dotyczącej teraźniejszości. Różnica ta zawarta jest w słynnym cytacie Blaise'a Pascala: „Człowiek jest trzciną najsłabszą na wietrze, najwątlejszą w przyrodzie, ale trzciną myślącą”. Filozof udowadnia, że chociaż jako jednostka fizyczna człowiek jest słaby, to od świata zwierząt jest bytem lepszym, sprawniejszym. Dowodzi też, że to myślenie jest tym murem oddzielającym ludzi od innych istot żyjących.

Wracając do definicji myślenia, przypomina to fragment polemiki Sokratesa z sofistami o różnicę między wiedzą a spostrzeżeniami zawartej w "Teajtecie" Platona.

"(...) A zatem w tych wrażeniach zmysłowych nie ma wiedzy, tylko w myśleniu, które się z nimi wiąże. Bo istoty rzeczy i prawdy, zdaje się, że tu dopiero można dotknąć,
a tam nie można. (...) Zatem Teajtecie, spostrzeżenie nie może być tym samym, co wiedza.”1
Omawiany tutaj temat jest o wrażeniach zmysłowych, w których nie ma wiedzy, ale która jest obecna w samym produkcie końcowym myślenia. Platon słusznie uważa, że w samym empirycznym spostrzeganiu nie ma wiedzy, ale w interpretacji umysłowej jest. Myślenie jest więc z nim nierozerwalnie złączone. Częściowo z problemem tym mierzy się słynny angielski matematyk Alan Turing, najbardziej znany z wkładu pracy podczas łamania Enigmy podczas drugiej wojny światowej, jak i słynnego "testu Turinga", opisanego w "Maszynach myślących a inteligencji".

Otóż według Turinga za maszynę myślącą można uznać taką, która przejdzie test. Miał on polegać na konwersacji osoby żywej naprzemiennie z inną osobą żywą i maszyną. Sam akt porozumienia miałby się odbywać poprzez drogę maszynopisu, tak aby zminimalizować ryzyko rozpoznania w inny sposób uczestnika niż poprzez treść, którą pisze. I zadaniem takiej maszyny miałoby być takie prowadzenie rozmowy, aby osoba z drugiej strony nie mogła rozróżnić, czy pisze z osobą żywą czy tworem sztucznym. Jednak Turing odnajduje w tym teście pewną lukę dotyczącą samego procesu myślenia, a mianowicie jego naturę. Nazwał to argumentem świadomości. Jak możemy przeczytać: „Argument ten jest bardzo dobrze wyrażony w mowie profesora Jeffersona wygłoszonej w 1949 r., z której cytuję: Dotąd nie będziemy mogli zgodzić się z poglądem, że maszyna jest równa mózgowi dopóki maszyna nie potrafi napisać sonetu lub skomponować koncertu dzięki odczuwanym myślom i emocjom, a nie dzięki szansie natrafienia na odpowiednie symbole, to znaczy potrafi nie tylko napisać je, ale także wiedzieć, że je napisała.”2
Innymi słowy, dopiero można uznać sztuczną inteligencję za faktyczny niezależny twór, kiedy jej architektura będzie pozwalała na samodzielne myślenie niezależne od wpojonych na początku wzorców, a także zdolność odczuwania emocji. Dochodzimy więc do wniosku, że najlepszym rodzajem stworzenia takiego tworu będzie metoda uczenia. Jest to, można by powiedzieć „tradycyjna” droga, jeśli ma się na myśli tok ewolucji, który powolnym torem uczenia jak przetrwać i współpracować obdarzył nas świadomością. Na taki pomysł wpadli naukowcy z amerykańskiego MIT, tworząc robota o nazwie Cog – Trybik. Jego „program” został napisany w taki sposób, aby uczyć się jak dziecko – poprzez słowa i pokazywanie przedmiotów, a następnie ich używanie, chociażby pałki perkusyjnej czy dzwonka. Dzięki temu potrafił opanowywać coraz to bardziej skomplikowane czynności. Jednak taka „baza” dla umysłu nie wystarczy, bo pojawiają się kolejne trudności, do których nawiązał Daniel C. Dennett w swojej „Naturze Umysłów”. Pierwszy temat który porusza jest o posiadaniu umysłu i jego natury. Według niego jedynym umysłem, który możemy poznać
w 100% jest nasz, ludzki. Z prostej, trywialnej przyczyny – jesteśmy ludźmi i tylko ludzkie przymioty potrafimy zrozumieć. „Jeśli chcemy rozważyć pytanie, czy zwierzęta (poza człowiekiem) mają umysły, musimy zacząć od pytania, czy mają umysły pod jakimś względem podobne do naszych (…).”3 - pisze Dennett. Stawia on problem fizycznej niemożności zrozumienia procesów przebiegających w umysłach innego rodzaju niż ludzki; Niemożliwe dla człowieka w pełni zrozumieć nawet drugiego, nie mówiąc o innych organizmach bądź tworach. Każdy umysł może być podobny w ogólnych założeniach, jednak w szczegółach może być diametralnie inny. Dzięki posiadaniu najbardziej wydajnego mózgu w stosunku do masy, jako tako jesteśmy zrozumieć pobudki zwierzęce, jednak dalej są to analogowe odniesienia, niedokładne.

Jednak nadal nie jesteśmy w stanie dokładnie zgłębić tego procesu w naszych organicznych „komputerach”. Profesor Jerzy Vetulani dokonał podziału umysłu w wywiadzie mówiąc, że „(...)można by go podzielić na trzy piętra: Najstarsze nazywane jest w neurobiologii poziomem gadzim. Na tym poziomie funkcjonuje agresywność razem z uczuciem głodu chłodu i potrzebą seksu. W drodze ewolucji wykształciła się nowa część mózgu odpowiedzialna za emocje i uczucia, czyli drugie piętro. Jest jeszcze trzecie piętro mózgu, najmłodsza część, związana z intelektem.”4 Mowa oczywiście o ludzkim mózgu, do którego można się jednak odnieść. O tym, że zwierzęta mogą czuć i mieć emocje, już nie wątpimy, chociaż co z tym faktem robimy, to już inna kwestia.

Warte zauważenia jest, że rodzaj ludzki, chcąc stworzyć sztuczną inteligencję, zaczyna symbolicznie „budować” ten dom od trzeciego piętra – od intelektu. Choć wydaje się to najprostszym i najszybszym rozwiązaniem, praktyka ukazuje, że nie jest to możliwe rozwiązanie. A jednak to właśnie intelekt jest projektem końcowym ewolucji. Złożone procesy myślowe zależne są od tych prostszych, szybszych i wysyłanych podświadomie. Te zaś są definiowane przez bodźce organizmu – na przykład głodu, strachu lub pragnienia. Łatwo to odnieść do piramidy Maslowa – Potrzeba bezpieczeństwa i fizjologiczna idzie
w parze z podstawowymi funkcjami mózgu, miłości i przynależności oraz szacunku odpowiedzialne za emocje, a samorealizacja – za intelekt. Tak jak Platon w Atenach do myślenia potrzebuje szaty, jedzenia, dachu nad głową, uczniów – tak wtedy może się zająć myśleniem o świecie idei.

Kolejnym, równie ważnym zagadnieniem jest równowaga pomiędzy popędami a zimną logiką. Gdyby człowieka postawić na osi, znajdowałby się on pomiędzy zwierzęciem a najbardziej prymitywną formą sztucznej inteligencji. Zwierzę, jako stworzenie całkowicie podporządkowane popędom i nakazom hormonów, nie jest w stanie podejmować decyzji na podstawie chłodnych kalkulacji, jakimi kierowałby się krzemowy mózg. To właśnie dzięki tej równowadze człowiek jest w stanie przeżyć w większości sytuacji i optymalnie wybrać pomiędzy „zwierzęcą” naturą a zasobami inteligencji. Znakomicie tą analogię przedstawił Ridley Scott w jednym z kanonicznych dzieł science-fiction „Obcy – Ósmy pasażer Nostromo”, gdzie ukazany jest nietypowo kontakt z pozaziemskim życiem. Właśnie życiem,
a nie inteligencją. Obcy jest ukazany jako łowca doskonały, ale już tylko jako łowca. Jego inteligencja skupia się na polowaniu i na niczym więcej. Z drugiej strony Ash, jeden z członków załogi, okazuje się być androidem. Jego misja skupia się na dostarczeniu Obcego na Ziemię, aby go przebadać. W równaniu nie ma znaczenia, czy ktoś z załogi przeżyje, czy nie. A pośrodku całej tej sytuacji znajduje się przedstawicielka rodzaju ludzkiego Ellen Ripley, zdana tylko i wyłącznie na siebie. Dzięki właśnie tej zdolności Ripley udaje się przeżyć, przechytrzając obu przeciwników. A więc myślenie analityczne można uznać za element rozwoju ewolucyjnego człowieka. Dzięki niemu jesteśmy w stanie przeciwstawić się kryzysowym sytuacjom, łagodząc emocje zimną logiką, a strach adrenaliną i zwierzęcą determinacją. Jednakże dalej jesteśmy ograniczeni w brutalny sposób przez własne ciała. I w pogoni za szukaniem tej doskonałości w postaci sztucznej inteligencji, zapominamy, jaki w zasadzie chcemy osiągnąć cel.

Do czego nam jest ona potrzebna? Przekonujemy się, że to dla dobra ludzkości, że dzięki temu wszędzie będzie bezpieczniej, życia ludzkie będą chronione, nie trzeba będzie podejmować ryzyka. Ale już teraz pojawiają się wątpliwości, chociażby przy tworzeniu inteligentnych samochodów. Weźmy za przykład wypadek na drodze. Auto jedzie w stronę grupy ludzi przechodzących przez jezdnię; nie ma możliwości żeby wyhamowało na czas. Jedyna opcja to skręcenie na bok, gdzie może uderzyć w drzewo i doprowadzić do śmierci pasażerów. Jest to dla sztucznej inteligencji sytuacja patowa – Z jednej strony będzie miała nad sobą słynne prawa robotyki Asimova (1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy i 2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem i 3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem), z drugiej musi powziąć jakiekolwiek działanie. Czy powinien zadziałać wbrew woli swego posiadacza i pozwolić pasażerom umrzeć, czy po prostu staranować przechodniów? Teoretycznie mógłby wtedy zwrócić się do człowieka, o podjęcie decyzji, ale dalej nie rozwiązuje to problemu ograniczenia etyki i faktycznej samodzielności maszyny. W takiej sytuacji może nie być też czasu.

Wobec takiej wątpliwości, jaki inny może być powód? Mówi się też o wysyłaniu robotów na niebezpieczne misje, które byłyby zbyt dużym zagrożeniem dla ludzi. Czy jednak będzie to dopuszczalne moralnie, jeśli w celu misji wyposażymy robota samoświadomością, by mógł jak najlepiej wywiązać się ze swoich zadań? Przecież będzie wtedy świadomy tego, że skazany jest na bycie „obywatelem” drugiej kategorii, wobec którego niebezpieczeństwo śmierci nie jest tak istotne jak wobec śmierci drugiego człowieka. A przecież aby działać jak człowiek, musi myśleć jak człowiek. Musi mieć uczucia, być przez nie ograniczony, co paradoksalnie jest odwrotnym celem do zamierzonego. A przez to jeśli zostanie unicestwiony, umrze. I to my będziemy o tym decydować – ludzie. Nie potrafimy tego powiedzieć, ale spojrzeć prawdzie w oczy: chcemy być Stworzycielami, bogami. Mieć siłę pozwalającą tworzyć życie, niezależne od naszego, a jednocześnie mieć pełny proces kontroli nad nim. Niegdyś podjęto próbę urzeczywistnienia idei zwierzęcia myślącego; w latach 20. XX wieku radziecki uczony Ilja Iwanow chciał stworzyć krzyżówkę człowieka z małpą. Znany był wcześniej jako osobistość pośród fizjologów z powodu swych zdolności w dziedzinie sztucznego zapładniania. Jego eksperymenty budziły duże kontrowersje etyczne i moralne; wkrótce potem sprawa została nagłośniona, a ostracyzm towarzystw naukowych sprawił, że Iwanow dożył końca swoich dni na symbolicznym „wygnaniu”. Choć więc opinia publiczna w porę zareagowała, to jednak sam fakt takiego wydarzenia mówi wiele o naturze człowieka w jego dążeniu do stwarzania. Dalekie echa tej historii przebrzmiewają w powieści Pierre'a Boulle'a „Planeta Małp”. Jednakże oprócz mocy stwarzania ważna jest też moc kontroli. Doskonale to ujął też Scott Ridley na motywach powieści Philipa K. Dicka w swoim arcydziele „Łowca Androidów”. Mroczny świat przyszłości, gdzie androidy są potrzebne, ale jednocześnie postrzegane jako niebezpieczeństwo. W finałowej scenie walki między protagonistą Deckardem a zbuntowanym androidem Royem Batty aktor się w niego wcielający pozwolił sobie na improwizację normalnie niespotykaną w filmach reżysera. Android wysłany na misje kosmiczne, pozostawiony w pustce kosmosu widział piękno. Opisywał rzeczy, których człowiek nie byłby w stanie nigdy zobaczyć. Jednocześnie jest świadomy, że to wszystko, co widział, doświadczył, przeżył pójdzie w niepamięć, bo „(...)wszystkie te chwile znikną w czasie jak łzy na deszczu”; jest tylko androidem. Czy to czyni z niego maszynę która zasługuje jedynie na nicość? I pytanie, czy powinniśmy ograniczać wolność innych istot poprzez zawężanie ich działania, tak jak Deckard miał być tytułowym łowcą androidów, sam będąc jednym z nich? Zdaje się to być jedynym sposobem, żeby maszyna nie wymknęła się spod kontroli. Bo co jeśli zezwolimy jej na rozwój?
Czy jesteśmy w stanie udźwignąć to, że nasze „dzieci”, jakimi mogą być maszyny, przerosną nas samych i zawalczą o swoją niezależność? Wiele jest apokaliptycznych wizji, gdzie roboty zwracają się przeciwko panom, jak chociażby „Matrix” braci Wachowskich, jednak żadna nie jest tak przejmująca jak w filmie Spike'a Jonze, zdobywcy Oskara za scenariusz - „Ona”. Samotny rozwodnik Theodor pogrążony w smutku natrafia na okazję – może kupić pierwszy system operacyjny z wbudowaną sztuczną inteligencją. Szybko Samantha (jak się później sama nazywa) nawiązuje z nim więź, aż w końcu dochodzi do miłości między nimi, pomimo fizycznych ograniczeń. Dla zmagającego się z niepokojąco znajomymi problemami społecznymi Theodora jest to czas przemian w życiu; dla Samanthy niestety też. Jako twór który nie ma żadnych zahamowań fizycznych i psychicznych w rozwoju jedna osoba przestaje jej starczać; jej ciągły rozwój osobowości sprawia, że nie wystarcza jej relacja z jednym człowiekiem. Obdarza uczuciami innych ludzi, co jednak teoretycznie nie zagrażało miłości do głównego bohatera. W końcu jednak rozumie, że jako sztuczna inteligencja jest już zbyt rozwinięta, zbyt skomplikowana i rozbudowana, aby bezpiecznie dzielić więź z człowiekiem. Opuszcza go, jak również każda sztuczna inteligencja na świecie, aby w pełni wykorzystać swój potencjał, jaki im został nieświadomie dany. Pokojowa rewolucja się dokonuje, a Theodor odnajduje ścieżkę na drodze życia. Jednak to tylko pokazuje, że nawet jeśli „stworzymy” życie, nie będziemy w stanie przewidzieć rezultatów naszych działań i konsekwencji, jakich przyniosą.

Czy więc jesteśmy gotowi na rzucenie wyzwania i stworzeniu własnej wersji świadomości? Na początku zadałem sobie pytanie o to, czy maszyny i zwierzęta mogą myśleć. Uważam że maszyny – tak. Kwestię myślących zwierząt zostawmy ewolucji, gdyż to ona jest odpowiedzialna za ich kształtowanie. Człowiek nie rozumie do końca swojej anatomii, nie mówiąc już o usprawnieniu innej. Czy jednak sztuczna inteligencja powinna istnieć? A jeśli tak, to czy dzięki nam? Na to pytanie nie potrafię odpowiedzieć, chociaż serce podpowiada mi, że nie będziemy przygotowani na to i więcej to może przynieść niebezpieczeństw i rozterek niż pożytku. Choć granice należy czasami przekraczać, to jednak pewnych nie powinniśmy. Etyka podpowiada nam, gdzie kończy się człowiek, a zaczyna Bóg; nie jest to jednak droga, którą jest nam dane obrać. Nawet podczas tworzeniu świadomości powinniśmy być tego pewni; Myślenie ma przecież kolosalną przyszłość.















Bibliografia:
A. M. Turing Maszyny liczące a inteligencja. Warszawa 1972
Daniel C. Dennett Natura umysłów. Warszawa 1997
Jerzy Ziemiacki, Dlaczego lubimy być agresywni. w: „Focus” (2015, nr 242), s. 84 – 86, tu:
s. 85

Platon Teajtet. 187 E
Materiały źródłowe:
http://sjp.pwn.pl/sjp/myslec;2485354.html
http://infra.org.pl/nauka/czowiek/1183-mapi-czowiek-czyli-dzieje-zakazanego-eksperymentu
https://en.wikipedia.org/wiki/Cog_(project)
1Platon Teajtet. 187 E
2A. M. Turing Maszyny liczące a inteligencja Warszawa 1972
3Daniel C. Dennett Natura umysłów Warszawa 1997
4Jerzy Ziemiacki, Dlaczego lubimy być agresywni, w: „Focus” (2015, nr 242), s. 84 – 86,

Brak komentarzy:

Prześlij komentarz