Jak nauczyliśmy maszyny liczyć i myśleć za nas? Część 47: Argumenty przeciwników sztucznej inteligencji

Bezrobocie, jakie dotknęło robotników fizycznych po wprowadzeniu do fabryk inteligentnych maszyn, obejmie też część pracowników umysłowych, których pracę szybciej i taniej będą mogły wykonywać komputery wyposażone w sztuczną inteligencję.

Publikacja: 01.06.2023 21:00

Czy sztuczna inteligencja wymknie się spod kontroli i zagrozi ludzkości?

Czy sztuczna inteligencja wymknie się spod kontroli i zagrozi ludzkości?

Foto: phonlamaiphoto / stock.adobe.com

W felietonie nr 45 zatytułowanym „Test Turinga” („Rzecz o Historii”, 21 kwietnia 2023 r.) opisałem dzieło Alana Turinga, który już w 1950 r. w artykule „Computing Machinery and Intelligence” (Maszyny obliczeniowe i inteligencja) zaproponował pojęcie sztucznej inteligencji. Potem ten termin rozwinęli i wzmocnili uczestnicy konferencji w Dartmouth (1956 r.), wykazując, że odpowiednio oprogramowane maszyny mogą wykonywać działania analogiczne do ludzkiego myślenia. Opisałem to w felietonie nr 46 („Rzecz o Historii”, 12 maja 2023 r.). Dziś chcę państwu opowiedzieć, jakie argumenty wysuwali (i wysuwają nadal) przeciwnicy sztucznej inteligencji – i jak im można odpowiedzieć.

Polemika Turinga

Pierwszą grupę zarzutów Turing przewidział już w swoim pionierskim artykule, odpierając je za pomocą logicznej argumentacji. Przytoczę tu (w skrócie) owe zarzuty i argumenty Turinga.

Obiekcja natury teologicznej (The Theological Objection): Myślenie jest funkcją ludzkiej nieśmiertelnej duszy. Bóg ofiarował duszę każdemu mężczyźnie i każdej kobiecie, ale nie obdarzył nią zwierząt ani maszyn. Dlatego też ani zwierzę, ani maszyna nie może myśleć.

Turing nie zgadza się z żadną częścią tego rozumowania, ale podejmuje próbę odpowiedzi w podobnym stylu: tak skonstruowany argument godzi we wszechmoc Bożą. Moglibyśmy sobie przecież wyobrazić, że Bóg decyduje się obdarować duszą słonia, a nawet... maszynę.

Argument „głów w piasku” (The Heads in the Sand Objection): Konsekwencje myślenia maszyn będą zbyt nieprzewidywalne, miejmy więc nadzieję, że nie będą one tego robiły.

Argument ten zdaniem Turinga nie wymaga odrzucenia czy obalenia, ponieważ ma swoje podłoże w reakcji emocjonalnej. Spełnia jednak ważną rolę, wskazując na pewne niebezpieczeństwa, jakie niesie ze sobą idea myślących maszyn. Nie powinien jednak prowadzić do skrajności, bo niepewność konsekwencji wynikających ze skonstruowania myślącej maszyny wcale nie pociąga za sobą odgórnej konieczności zrezygnowania z projektu sztucznej inteligencji.

Argument matematyczny (The Mathematical Objection): Istnieją wyniki z dziedziny logiki matematycznej, które wskazują na pewne ograniczenia maszyn cyfrowych. Ograniczenia te mogą sprawić, że maszyna biorąca udział w teście Turinga nie będzie w stanie odpowiedzieć na pewne pytania lub udzieli odpowiedzi, która jest błędna.

Odpowiedź Turinga jest następująca: pomimo tego, że wykazano istnienie pewnych ograniczeń dla maszyn cyfrowych, argument nie będzie groźny do czasu, kiedy nie doczekamy się dowodu, iż te ograniczenia ludzkiego intelektu nie dotyczą.

Argument ze świadomości (The Argument from Consciousness): Zarzut ten można rozbić na dwie części. W pierwszej z nich mówi się, że maszyny cyfrowe nie będą mogły myśleć, ponieważ aby myśleć, trzeba wiedzieć, że się myśli, czyli posiadać pewną formę samoświadomości. W drugiej części twierdzi się, że myślenie nieodłącznie związane jest z okazywaniem całej gamy emocji, do czego nie byłyby zdolne maszyny cyfrowe.

Turing zauważa, że pierwsza część argumentu może z łatwością prowadzić do stanowiska solipsyzmu. Aby poradzić sobie z drugą częścią, Turing przytacza hipotetyczną rozmowę maszyny z człowiekiem (w której maszyna korzysta z programu na tyle zaawansowanego, że przechodzi test Turinga). Na podstawie tej rozmowy wyraźnie widać, że w odpowiedziach udzielanych przez taką maszynę można odnaleźć przejawy rozmaitych emocji.

Argument z różnych niemożności (The Argument from Various Disabilities): Opiera się na następującym rozumowaniu: „Gwarantuję ci, że pomimo tego, że jesteś w stanie zbudować maszyny o wszystkich wymienionych przez ciebie zdolnościach, to nigdy nie zbudujesz maszyny, która może zrobić X”, gdzie za „X” można podstawić np.: bycie przyjacielskim, posiadanie poczucia humoru, posiadanie ulubionych potraw itp.

Odpowiedź Turinga na ten argument zawiera się częściowo w odpowiedzi na argument ze świadomości. Zdaniem Turinga postawa, jaką zajmują zwolennicy argumentu z różnych niemożności, wynika z wiedzy, jaką posiadają oni o maszynach cyfrowych. Turing zauważa, że współczesne mu maszyny cyfrowe rzeczywiście nie potrafią wielu z wymienionych rzeczy, ale nie sprawia to bynajmniej, że wzrost ich zdolności obliczeniowych oraz pamięciowych nie zlikwiduje tego problemu. Zarzut Lady Lovelace (Lady Lovelace’s Objection): Maszyna cyfrowa jest w stanie zrobić tylko to, co nakazuje jej program, nie ma tu miejsca na inwencję twórczą.

Turing przyznaje, że maszyny są ograniczone programami, zgodnie z którymi działają, ale równie dobrze można powiedzieć, że człowiek posiada podobne ograniczenia (wynikające z jego budowy, genów, wiedzy itp.). Jeżeli wyobrazimy sobie wystarczająco skomplikowany program (uruchomiony na maszynie o dużych możliwościach), to ograniczenia, jakim będzie on podlegał, mogą być bardziej podobne do tych, którym podlega człowiek, a nie do tych, którym podlegają proste programy. Zarzut Lady Lovelace posłużył za inspirację do stworzenia tzw. testu Lady Lovelace (Lovelace Test), który zdaniem jego autorów lepiej nadaje się do badania inteligencji maszyn niż test Turinga.

Tu przydatne może być przypomnienie, że Ada Augusta Lady Lovelace była osobą, która napisała pierwszy na świecie program przeznaczony do wykonania na tzw. Maszynie Analitycznej Charlesa Babbage’a i wypowiadała różne sądy na temat tego, do czego taka maszyna może być w przyszłości zdolna. Niestety, Maszyna Analityczna nigdy nie została zbudowana.

Argument z ciągłości systemu nerwowego (Argument from Continuity in the Nervous System): System nerwowy nie może być modelowany przez maszynę o stanach dyskretnych, ponieważ ma charakter analogowy.

Turing odpowiada jedynie, że w sytuacji testu Turinga różnica pomiędzy maszyną o stanach dyskretnych i maszyną analogową są bez znaczenia – sędzia nie będzie w stanie w żaden sposób wykorzystać wiedzy o tej różnicy w celu poprawnej identyfikacji gracza.

Argument z nieformalności zachowania (The Argument from Informality of Behaviour): Opiera się na założeniu, że nie jesteśmy w stanie spisać wszystkich możliwych reguł zachowania dla wszystkich możliwych sytuacji, które mogłyby mieć miejsce. Wniosek: nie jesteśmy jedynie maszynami.

Turing zauważa, że argument ten jest niejasny. Należałoby wyjaśnić, czy reguły zachowania mówią, jak zachowa się człowiek w pewnej sytuacji, czy też jak powinien się zachować. Jeżeli rozważamy drugą z opcji, to nie ma żadnych podstaw, aby twierdzić, że maszyny byłyby tutaj w gorszej sytuacji niż ludzie. Nie jest bowiem możliwe sformułowanie kompletnego kodeksu oczekiwanych zachowań dla każdej możliwej sytuacji – dotyczy to zarówno ludzi, jak i maszyn.

Argument z percepcji pozazmysłowej (Extra Sensory Perception): Zjawiska zaliczane do dziedziny percepcji pozazmysłowej (takie jak telepatia, jasnowidzenie, prekognicja, psychokineza) nigdy nie będą dostępne maszynie cyfrowej, ponieważ wszystkie zdają się przeczyć temu, co moglibyśmy umieścić w ramach wyjaśnienia naukowego. Gdyby więc w teście Turinga sędzią uczynić doskonałego telepatę, czy maszyna byłaby w stanie przejść ów test?

Zdaniem Turinga jest to jak najbardziej możliwe – jeżeli uznajemy możliwość pozazmysłowej percepcji, to WSZYSTKO może się zdarzyć.

Współczesne obiekcje wobec AI

Obiekcje wobec sztucznej inteligencji pojawiają się również współcześnie. Najbardziej doniosłą akcją tego typu był wystosowany w styczniu 2015 r. list otwarty zatytułowany „Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter”. Instytucją, która firmowała ów list otwarty, był Future of Life Institute, organizacja działająca na rzecz „łagodzenia egzystencjalnych zagrożeń, przed którymi stoi ludzkość”. List stał się powszechnie znany i szeroko komentowany, zwłaszcza że jego sygnatariuszami były osoby szeroko znane i wysoko cenione, jak astrofizyk Stephen Hawking czy biznesmen wizjoner Elon Musk. Autorzy listu wyrażają zaniepokojenie faktem, że twórcy systemów sztucznej inteligencji budują urządzenia, nad działaniem których nie mają całkowitej kontroli. Obawy budzi też fakt, że poziom tworzonej inteligencji maszyn stale rośnie, podczas gdy poziom inteligencji ludzi pozostaje mniej więcej stały (a nawet są sygnały od psychologów, że z pokolenia na pokolenia średnia maleje). Niektórzy z autorów wyrażają na tej podstawie obawy, że sztuczna inteligencja wymknie się spod kontroli i zagrozi ludzkości. Osobiście wiele razy w różnych gremiach prezentowałem pogląd, że te obawy są przesadzone, ale ten artykuł nie ma prezentować moich poglądów, tylko argumenty przeciwników sztucznej inteligencji.

Na fali obaw przed skutkami rozwoju sztucznej inteligencji w listopadzie 2016 r. na konferencji Signals, Systems and Computers w Asilomar (Kalifornia) opracowano „Kodeks 23 zasad bezpiecznej sztucznej inteligencji”. Kodeks ów został entuzjastycznie przyjęty przez media i polityków, w związku z czym w latach 2016–2020 ponad 30 państw przyjęło specjalne strategie dotyczące sztucznej inteligencji. Temat ten jest bardzo gorący także w Unii Europejskiej. 2 lutego 2020 r. Komisja Europejska opublikowała białą księgę pt. „Sztuczna inteligencja – europejskie podejście do doskonałości i zaufania”. Ta księga może być traktowana jako zbiór wytycznych, ale jej układ i zawartość wskazują na to, że dominują w niej różne obiekcje co do rozwijania i stosowania sztucznej inteligencji, dlatego wspominam o niej w tej części mojego opracowania.

Czego się naprawdę bać?

Od stosowania sztucznej inteligencji nie uciekniemy, mimo mnożących się, częściowo wymienionych wyżej, różnych obiekcji. Większość tych obiekcji wydaje się przesadna. Są jednak trzy obszary, w których ze stosowaniem sztucznej inteligencji naprawdę wiążą się zagrożenia. Pierwsze z zagrożeń wynika ze stosowania sztucznej inteligencji w różnych maszynach bojowych (drony, roboty itp.), które wyposaża się w sztuczną inteligencję, żeby skuteczniej i bardziej samodzielnie działały. Skala nieszczęść, jakie takie maszyny mogą wyrządzić, jest naprawdę przerażająca. Drugie wynika z tego, że różne systemy (produkcyjne, komunikacyjne, usługowe), w których funkcję sterowania przejmą algorytmy sztucznej inteligencji, mogą być podatne na działania hackerów, z trudnymi do przewidzenia skutkami. No i trzecie, najbardziej oczywiste zagrożenie: maszyny wyposażone w sztuczną inteligencję będą zabierać ludziom pracę. Bezrobocie, jakie dotknęło robotników fizycznych po wprowadzeniu do fabryk inteligentnych maszyn, obejmie też część pracowników umysłowych, których pracę szybciej i taniej mogą wykonywać komputery wyposażone w sztuczną inteligencję. Niestety, to już się dzieje!

Autor jest profesorem Akademii Górniczo-Hutniczej w Krakowie

W felietonie nr 45 zatytułowanym „Test Turinga” („Rzecz o Historii”, 21 kwietnia 2023 r.) opisałem dzieło Alana Turinga, który już w 1950 r. w artykule „Computing Machinery and Intelligence” (Maszyny obliczeniowe i inteligencja) zaproponował pojęcie sztucznej inteligencji. Potem ten termin rozwinęli i wzmocnili uczestnicy konferencji w Dartmouth (1956 r.), wykazując, że odpowiednio oprogramowane maszyny mogą wykonywać działania analogiczne do ludzkiego myślenia. Opisałem to w felietonie nr 46 („Rzecz o Historii”, 12 maja 2023 r.). Dziś chcę państwu opowiedzieć, jakie argumenty wysuwali (i wysuwają nadal) przeciwnicy sztucznej inteligencji – i jak im można odpowiedzieć.

Pozostało 94% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Historia
Zegarki, broszki, obrączki. Niemcy zwracają wyjątkowe depozyty
Historia
Marek Aureliusz, niedoszły król Polski
Historia
Historia fotografii. Jak powstało słynne zdjęcie z wojny w Wietnamie?
Historia
Żaglowce nie znikają. Wyjątkowa wystawa w Gdańsku
Akcje Specjalne
Naszym celem jest osiągnięcie 9 GW mocy OZE do 2030 roku
Historia
Jak trener i konserwator mebli przekonali świat o odkryciu pisma
Historia
Autorka sagi „Lilie królowej”: W tym biznesie w średniowieczu rządziły kobiety