BibliotekaCzy sztuczna inteligencja jest dobrodziejstwem czy zagrożeniem dla naszych społeczeństw?

29 października, 2019
https://www.droithumain.pl/wp-content/uploads/2019/10/abstract-1278077_1920-300x212.jpg

„Czy sztuczna inteligencja jest dobrodziejstwem, czy zagrożeniem dla naszych społeczeństw?”

Inteligencja to pochodzące z łaciny słowo, oznaczające zdolność do postrzegania, analizy i świadomej adaptacji do zmiennego otoczenia; zdolność uczenia się oraz wykorzystywania posiadanej wiedzy i umiejętności w różnych sytuacjach. To również cecha umysłu, warunkująca sprawność czynności poznawczych, takich jak myślenie, reagowanie, rozwiązywanie problemów. Przez wieki pojęcie to odnoszono przede wszystkim lub wyłącznie do człowieka; dopiero stosunkowo niedawno przestało to być oczywistym.

Sztuczna inteligencja, zwana również w skrócie, z języka angielskiego AI miała swój rzeczywisty początek w roku 1956, gdy jeden z jej ojców założycieli, John McCarthy, zaproponował tę nazwę na spotkaniu w Darthmouth, w New Hampshire. Zdefiniował ten termin następująco: „jest to konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji”. Tak narodził się dział informatyki, zajmujący się badaniem i symulacją inteligentnych zachowań ludzkich. Ważne rozróżnienie wprowadził następnie John Searle, który w swojej pracy nt. filozoficznego problemu, tzw. „Chińskiego Pokoju”, wskazał, że możemy mówić o dwóch rodzajach sztucznej inteligencji: SI słabym i SI silnym. SI silne byłoby potencjalną technologią, która oprócz wykazywania się samodzielnym, zdolnym do adaptacji i uczenia się, celowym zachowaniem posiadałaby również samoświadomość. W tym kontekście mówi się też o SI miękkiej i twardej, względnie o inteligencji wąskiej i ogólnej. Pierwsza potrafi podejmować decyzje tylko w wąsko zdefiniowanym kontekście, czyli wykonywać tylko takie zadania, do których została zbudowana – i żadne inne. Ten typ SI jest już z nami od jakiegoś czasu. Drugi, na razie tylko teoretycznie postulowany, powinien uczyć się rozwiązywać problemy dowolnego typu.

Patrząc na ostatnie kilkadziesiąt lat rozwoju technologicznego, można zaryzykować stwierdzenie, że SI typu ogólnego jest oczywiście możliwa do stworzenia, ale nie czai się jeszcze za rogiem. W jeszcze dalszej perspektywie jest stworzenie maszyn, które nie tylko będą myśleć, ale i wiedzieć, że myślą, być samoświadome i działać na własny rachunek. Do pomyślenia są też elektroniczne inteligencje, których działanie nie tylko będzie dla ludzi nie do pojęcia (to do pewnego stopnia jest już prawdą dla dzisiejszych samouczących się komputerów), ale które będą same udoskonalać się do stopnia skomplikowania daleko poza granice ludzkiego pojmowania.

Ograniczenia wynikające z mocy obliczeniowej znikną za jakiś czas; moc komputerów wzrasta. Nawet, jeżeli z powodów ograniczeń fizycznych przestaje działać prawo Moore’a o geometrycznym postępie mocy obliczeniowej, budowa maszyn wielordzeniowych, wielowątkowych, a w przyszłości może i kwantowych przybliża nas do stworzenia prawdziwej sztucznej inteligencji – oczywiście jeżeli unikniemy kolapsu cywilizacyjnego cofającego nas do epoki kamienia łupanego.

Rozróżnienie na słabą i silną SI wymaga jednak dodatkowego uściślenia. Potocznie utożsamia się inteligencję z funkcjami poznawczymi; tymczasem w świecie ożywionym, gdzie jak dotąd występują jedyne przypadki inteligencji, umysły nawet prostsze od ludzkiego posiadają nie tylko zmysły, lecz także emocje i intencje.

W potocznym odbiorze myśli się o samouczących się sieciach neuronowych tak, jakby te intencje miały; nie jest to nic dziwnego, człowiek ma ewolucyjnie wbudowaną tendencję do dopatrywania się sprawczości nawet w fenomenach świata nieożywionego; leży ona u fundamentów religii animistycznych. Tymczasem nie ma na razie podstaw, aby antropomorfizować SI; jeśli podejmuje ona jakieś decyzje, to nie robi tego z własnej woli i dla własnego dobra. Należy to podkreślić, to ważne, zwłaszcza w kontekście tego, że potocznie utożsamia się inteligencję ze świadomością. Przedmiotem naszych rozważań jest sztuczna inteligencja, istniejąca po to, by rozwiązywać problemy, ale nie po to, żeby je stawiać, tym bardziej nie kontemplująca świadomość. Naturalnym jest wzdraganie się przed nazywaniem „inteligentnymi” bezrefleksyjnych jednak maszyn.

Nie wiadomo, jak przebiegałaby socjalizacja samoświadomego robota, rozwój jego osobowości – być może „robocieństwo” różnić się będzie znacząco od „człowieczeństwa”. W tym miejscu problem styka się z zagadnieniem transhumanizmu: jaki obraz świata wytworzy człowiek genetycznie ulepszony, z mózgiem podkręconym neurofarmaceutykami czy wręcz sprzęgniętym z elektroniką? To ważne pytania, pojawiające się na marginesie rozważań o SI.

Opinie na temat SI już od początku funkcjonowania tego pojęcia są podzielone, a nierzadko wręcz skrajne. Henry Kissinger porównał niegdyś pojawienie się sztucznej inteligencji do wynalezienia druku. Nie ulega wątpliwości, że – podobnie jak maszyna Gutenberga zrewolucjonizowała sposób pozyskiwania wiedzy i stała się ważnym krokiem w nowożytnej historii, tak sztuczna inteligencja jest wynikiem trwającej wciąż rewolucji technologicznej, a jednocześnie jej istotną siłą napędową. Entuzjaści SI postrzegają ją jako przedłużenie ewolucji człowieka, jako drogę do rozwiązania wielu problemów trapiących ludzkość od dawna i ogromną szansę na rozwój. Z kolei sceptycy dostrzegają w sztucznej inteligencji szereg zagrożeń, które mogą znacząco pogorszyć warunki życia wielu osób na świecie, a wręcz doprowadzić do unicestwienia ludzkości. Obie strony tego nieformalnego, ale głośnego medialnie, konfliktu mają swoich słynnych przedstawicieli. W gronie zwolenników SI znajduje się m.in. twórca Facebooka, Mark Zuckerberg oraz Bill Gates, założyciel spółki Microsoft. Z kolei przed zagrożeniami płynącymi ze strony SI, a wręcz apokalipsą, przestrzegali słynny biznesmen Elon Musk oraz fizyk Stephen Hawking. Kto ma rację? Jak wskazano w opracowaniach warsztatów, podobnie jak w przypadku wielu przełomowych wynalazków, racja leży pośrodku.

Wyliczenie możliwości, jakich dostarcza rozwijana obecnie miękka SI nie tyle, że zajęłoby zbyt wiele miejsca, co jest wręcz niemożliwe. Każde zadanie, wykonywane przez człowieka, a nie wymagające kreatywności, twórczego myślenia, może być wykonane przez maszyny. Doniesienia medialne z reguły są mocno na wyrost, co nie zmienia faktu, że SI uczy się diagnostyki medycznej, analizy prawniczej i automatycznej obsługi klienta. Znajduje szerokie zastosowanie w wojskowości, komunikacji, edukacji i praktycznie każdej już dziedzinie życia.

Ale jest też i druga strona medalu. Ta technologia może być wykorzystana dla celów przestępczych lub po prostu być źle zaprojektowana, czego najprostszym przykładem może być umieszczony na portalu Tweeter chatbot Tay stworzony przez firmę Microsoft. Został on zaprojektowany by tworzyć swoje wpisy na bazie interakcji z użytkownikami portalu, imitując głos dziewiętnastoletniej, amerykańskiej dziewczyny. Projekt przewidywał, że będzie się uczyła na podstawie zadawanych jej przez użytkowników pytań. Po jednym dniu dziewczyna stała się rasistką i wielbicielką Adolfa Hitlera, nie szczędząc sobie przy tym wulgarnych wypowiedzi.

Dostrzegamy również różne zagrożenia płynące z rozwoju samodzielnych inteligentnych systemów. Pierwszym najbardziej jaskrawym zadaje się być zmniejszenie ilości miejsc pracy. W pierwszej kolejności, zdawałoby się, zagrożone są miejsca pracy nie wymagające wysokich kwalifikacji. Tutaj tendencja już jest widoczna w postaci np. kas automatycznych, coraz więcej fabryk samochodów jest automatyzowana, praca magazyniera powoli staje się coraz bardziej zagrożona przez rozwój robotyki. Amazon – amerykańskie przedsiębiorstwo handlowe, od 2016 roku oferuje dostarczanie przesyłek za pomocą autonomicznych dronów, łatwo sobie wyobrazić, że za jakiś czas będzie to preferowana droga dostarczania przesyłek. Wygląda jednak na to, że również wysoce specjalistyczne zawody nie są bezpieczne, ponieważ tzw. systemy eksperckie znajdują coraz większe zastosowanie w zawodach prawniczych. W roku 2013 raport Oxford University odnoszący się do rynku amerykańskiego wskazywał, że 47% zawodów będzie w ciągu najbliższych dwóch dekad zagrożonych przez automatyzację.

Kolejnym problemem jaki można wyróżnić jest problem bezpieczeństwa publicznego, szeroko rozumianego. Z jednej strony oddanie zarządzania różnymi aspektami życia miejskiego autonomicznym maszynom wystawia nowoczesne miasta na cyber-ataki i cyber-terroryzm, z drugiej, zautomatyzowany ruch publiczny będzie znacznie bardziej ekonomiczny i bezpieczniejszy. Innym problemem jest prywatność – problem z którym mierzymy się już na co dzień, algorytmy oparte o tzw. “Big Data” dostosowują odbierane przez nas reklamy do zbudowanego profilu w oparciu o naszą aktywność w internecie. Dane zbierane przez te algorytmy potrafią ustalić i sprzedać reklamodawcom nawet najbardziej prywatne dane na nasz temat. Druga strona medalu jest dzisiaj widoczna w Chinach, na ulicach tam pojawili się ostatnimi czasy funkcjonariusze policji uzbrojeni w okulary AR wyposażone w technologię face-recognition – jedno spojrzenie na twarz obywatela i funkcjonariusz ma dostęp do wszystkich danych na jego temat. Dodatkowo ostatnio wprowadzony w Chinach “Social Credit System”, również oparty o Big Data – jest gigantycznym eksperymentem społecznym, który nie wiadomo dokąd nas zaprowadzi. Natomiast przykładem na to jak bezpieczeństwo publiczne poprawia się dzięki SI jest Airbus A380 – samolot odbiera kontrolę nad lotem w momencie kiedy wykryje błędy pilota.

Debata o zagrożeniach stwarzanych przez SI jest w pewnym sensie kolejną iteracją mitu o Golemie; zakładamy, że SI, kiedy uzyska świadomość, przejmie od nas nasze najgorsze cechy. Zagrożenia, z którymi mamy do czynienia już teraz, nie wynikają jednak z natury SI, lecz z tego, kto ją rozwija i w jakim celu. Problemy SI są tak naprawdę problemami globalnej dominacji kilku korporacji, które mają dostęp do ogromnych ilości danych o użytkownikach swoich produktów, a SI daje im możliwości korzystania z nich na skalę niemożliwą do uzyskania przy mocach obliczeniowych ludzkiego mózgu. Użytkownicy usług gromadzących dane nie zawsze zdają sobie sprawę, że skoro nie płacą za nie, nie są klientami, a towarem, który jest przedmiotem handlu. Ludzkie wygodnictwo sprzyja akumulacji informacji, udostępnianej bezrefleksyjnie w zamian za możliwość korzystania z drobnych udogodnień.

Podsumowując, moderatorzy tematów zazwyczaj wskazywali, że nie można udzielić jednoznacznej odpowiedzi na tak postawiony temat roczny. SI niesie ze sobą zarówno zagrożenia jak i nowe możliwości. SI jest narzędziem, sama w sobie jest neutralna moralnie – nawet jeżeli potrafi się zachowywać autonomicznie. Przede wszystkim nasza refleksja powinna dotyczyć tego jak powinno wyglądać etyczne użycie tych maszyn. Daleko idące zmiany społeczne i ekonomiczne jakie ta technologia za sobą pociąga nie są dziś do dokładnego przewidzenia; BB:. i SS:. wykazywali się jednak w większości ostrożnym optymizmem. Podkreślano także, że wydaje się rzeczą niezbędną by światłe gremia, w tym Wolnomularze, dokładali wszelkich możliwych starań o humanizację nauki, a zwłaszcza celów, jakim ma służyć. Już dziś można zauważyć pozytywne przykłady takich działań, jak zakaz pewnych doświadczeń z komórkami i generalnie genomem ludzkim. Być może już w niedalekiej przyszłości powstaną kolejne regulacje, tym razem w związku ze sztuczną inteligencją, chroniące człowieka, jego godność i dorobek.

Jedno jest pewne: wraz z postępującą cyfryzacją naszego życia, rozwiązania sztucznej inteligencji będą coraz powszechniejsze, a co za tym idzie, będą wydawały się nam czymś coraz bardziej naturalnym. Asystowanie maszyn w naszym codziennym życiu nie budzi już przecież dużych emocji.

Stanisław Lem pisał: „Człowieczeństwo jest to suma naszych defektów, mankamentów, naszej niedoskonałości, jest tym, czym chcemy być, a nie potrafimy, nie możemy, nie umiemy, to jest po prostu dziura między ideałami a realizacją.” Wobec tego, nasuwa się pytanie: czy algorytmy SI, wyręczając nas w myśleniu i podsuwając gotowe rozwiązania, poza ograniczaniem nas, nie pozbawią nas człowieczeństwa? W końcu pozbawiają nas one możliwości próbowania i odkrywania, nierzadko błądząc, rzeczy zupełnie nowych. I w tym także, czy może nawet przede wszystkim, warto upatrywać zagrożenia.