Jak nauczyliśmy maszyny liczyć i myśleć za nas? Część 48.: Jak się rozwijała sztuczna inteligencja?

O sztucznej inteligencji mówi się obecnie dużo i często, chociaż nie zawsze mądrze. Duże nadzieje, ale także duże obawy wiązane są obecnie z jej przyszłością. Ja jednak chcę zaprosić do próby prześledzenia jej przeszłości.

Publikacja: 15.06.2023 21:00

Joseph Weizenbaum (1923–2008) – profesor MIT, który w 1964 r. zbudował pierwszy program prowadzący n

Joseph Weizenbaum (1923–2008) – profesor MIT, który w 1964 r. zbudował pierwszy program prowadzący niebanalny dialog z człowiekiem

Foto: Wolfgang Kunz/Getty Images

We wcześniejszym odcinku tego cyklu („Rzecz o Historii”, 21 kwietnia 2023 r.) opowiedziałem o pracach Alana Turinga i o jego artykule „Computing Machinery and Intelligence”, w którym położył on kamień węgielny pod tworzenie owej sztucznej inteligencji oraz zaproponował sposób sprawdzenia, czy maszynę można uznać za inteligentną. Potem opowiedziałem („Rzecz o Historii”, 12 maja 2023 r.) o konferencji w Dartmouth College, na której pojęcie sztucznej inteligencji zdefiniowano. A ostatnio („Rzecz o Historii”, 26 maja 2023 r.) przedstawiłem argumenty oponentów sztucznej inteligencji – dawnych i obecnych – oraz odpowiedzi, jakich im udzielał Turing i jakie można także zaprezentować dziś.

Czytaj więcej

Jak nauczyliśmy maszyny liczyć i myśleć za nas? Część 47: Argumenty przeciwników sztucznej inteligencji

Takie były prapoczątki dziedziny, która dziś odgrywa ogromną rolę i ma szanse determinować rozwój techniki w ciągu następnych lat. Ale warto się przyjrzeć, jak ona się rozwijała.

Pierwszy program oparty na obliczeniach symbolicznych

Pierwsze komputery prowadziły obliczenia na liczbach, głównie zresztą dla celów wojskowych. Natomiast trzech wybitnych informatyków: Allen Newell, Cliff Shaw i Herbert Simon (późniejszy noblista!), w 1950 r. pozyskało finansowanie od RAND (agencji wspierającej badania naukowe mogące mieć zastosowanie w wojsku) dla prac zmierzających do prowadzenia obliczeń na symbolach, czyli do abstrakcyjnego rozumowania prowadzonego samodzielnie przez maszynę. Na podstawie współpracy dwóch wybitnych uczonych (Newell i Simon) oraz biegłego programisty (Shaw) powstał w 1955 r. program Logic Theorist, który potrafił dowodzić twierdzenia matematyczne, samodzielnie budując drogę rozumowania od założeń do dowodzonej tezy. Jako test jego działania twórcy nakazali komputerowi udowodnić twierdzenia zawarte w pomnikowym dziele „Principia Mathematica” (tworzonym i publikowanym w latach 1910–1913) Northa Whiteheada i Bertranda Russella. Program w 1956 r. udowodnił 38 z 52 twierdzeń zawartych w drugim rozdziale książki, przy czym w kilku przypadkach utworzył lepsze i bardziej szczegółowe dowody twierdzeń. Biorąc pod uwagę autorytet Bertranda Russella, był to ogromny sukces.

Pierwszy język programowania przeznaczony do tworzenia programów AI

Gdy Cliff Shaw przystępował do pisania programu Logic Theorist, nie miał narzędzia, które by odpowiadało specyficznym wymaganiom programowania operacji na symbolach, a nie na liczbach. Wymyślił więc i implementował w 1956 r. specjalny język nazwany Information Processing Language (IPL), który posłużył do stworzenia programu Logic Theorist, a potem także programu General Problem Solver (GPS), o którym jeszcze wspomnę nieco dalej.

Natomiast język, który stał się głównym narzędziem sztucznej inteligencji, stworzył John McCarthy. Był on bardzo zasłużonym entuzjastą początków sztucznej inteligencji i doceniał to, że rozwój tej dziedziny będzie bardzo zależny od tego, czy uda się stworzyć narzędzie, w którym pisanie programów manipulujących symbolami będzie proste i naturalne. Koncepcję teoretyczną takiego narzędzia opisał w 1960 r. w artykule zatytułowanym „Rekursywne funkcje wyrażeń symbolicznych i ich maszynowe obliczanie, część I”. Owo dzieło było tak dalece teoretyczne, że mało kto z informatyków zdecydował się je przeczytać, a jeszcze mniej było takich, którzy je zrozumieli. Sam McCarthy zorientował się, że „przedobrzył”, dlatego zapowiedziana w tytule artykułu jego druga część nigdy nie powstała.

Czytaj więcej

Jak nauczyliśmy maszyny liczyć i myśleć za nas? Część 46: Jak 20 uczonych w osiem tygodni zrewolucjonizowało relacje ludzi i maszyn

Okazało się jednak, że jeden z jego studentów, Steve Russell, zrozumiał sugerowaną przez McCarthy’ego koncepcję manipulowania strukturami danych symbolicznych w postaci list i zaimplementował ją na komputerze IBM 704. Gdy Russell pokazał, że narzędzie oparte na operowaniu listami naprawdę działa, to dwóch profesjonalnych informatyków, Tim Hart i Mike Levin, stworzyło w 1962 r. język do manipulacji abstrakcyjnymi symbolami o nazwie LISP i zbudowało translator tego języka. Dalsze dzieje języka LISP opisałem w felietonie należącym do tej serii i mającym numer 19 („Rzecz o Historii”, 25 lutego 2022 r.), tutaj więc odnotowuję tylko jego powstanie jako ważny kamień milowy na drodze rozwoju sztucznej inteligencji, a Czytelników zainteresowanych szczegółami zapraszam do przeczytania tego wcześniejszego felietonu (jest dostępny w internecie).

Pierwszy program prowadzący rozmowę z człowiekiem

W momencie gdy piszę ten felieton, najwięcej informacji medialnych związanych ze sztuczną inteligencją krąży wokół fenomenu programu ChatGPT. Jego najnowsza, czwarta, wersja udostępniona została 14 marca 2023 r., wydaje się więc, że to wielka nowość. Tymczasem pierwszy program prowadzący niebanalny dialog z człowiekiem powstał w 1964 r. Zbudował go profesor MIT Joseph Weizenbaum (1923–2008). Program nazywał się ELIZA i mógł rozmawiać z człowiekiem na różne tematy (za pomocą dalekopisu), ale największym powodzeniem cieszył się scenariusz DOCTOR, w którym program udawał psychoterapeutę skłaniającego korzystającego z niego człowieka do zwierzania się ze swoich problemów emocjonalnych. Mimo w sumie bardzo prostej budowy program zbierał liczne pochwały od użytkowników.

Potem programy prowadzące rozmowy z ludźmi były tworzone do zastosowań praktycznych (jako zastępujące ludzi w różnych serwisach dostarczających informacji) oraz do rywalizacji o wygraną w tzw. teście Turinga (pisałem o tym w 45. odcinku tego cyklu, opublikowanym w „Rzecz o Historii”, 21 kwietnia 2023 r.). Ale tu piszę o najdawniejszych sukcesach, od których to wszystko się zaczęło, dlatego wzmianka o programie ELIZA jest tu jak najbardziej na miejscu.

Buńczuczne zapowiedzi i słabe wyniki

Początki rozwoju sztucznej inteligencji związane były z dużymi nadziejami, a te nadzieje napędzały pieniądze na badania od wojska, rządu i przedsiębiorców. Dlatego w latach 1957–1974 w wielu ośrodkach naukowcy zajmujący się tą problematyką dosłownie pławili się w pieniądzach. Oczywiście, przy każdej okazji dbali o to, by owe nadzieje podsycać. Na przykład Marvin Minsky (1927–2016), jeden z prominentnych (i kontrowersyjnych!) badaczy sztucznej inteligencji, powiedział magazynowi „Life”: „Od trzech do ośmiu lat będziemy mieli maszynę o ogólnej inteligencji przeciętnego człowieka”. Tymczasem rzeczywistość pokazała, że sztuczną inteligencję czekała jeszcze długa droga do osiągnięcia obecnej doskonałości. Wykazał to przede wszystkim kolejny program stworzony przez twórców udanego programu Logic Theorist – Simona, Shawa i Newella. Program stworzony w 1975 r. nazwany został General Problem Solver (GPS) i miał rozwiązywać dowolne (wszelkie) problemy. W istocie nigdy nie rozwiązał żadnego. To spowodowało, że dopływ pieniędzy zmalał i ograniczona została także skala prowadzonych badań.

Skromniej, ale z większym pożytkiem

Finansowanie badań nad zagadnieniami sztucznej inteligencji powróciło w 1980 r. Spowodowało to m.in. poszerzenie badań nad sieciami neuronowymi i metodami uczenia maszynowego (które w tym felietonie „wyjmuję poza nawias”, bo zasługują one na osobne omówienie – również jako swoiste modele mózgu), ale także powstały pierwsze programy sztucznej inteligencji dedykowane do szerokiego użytkowania przez ludzi mających rozmaite potrzeby. Powstały systemy ekspertowe (nazywane też w Polsce eksperckimi). Wprawdzie samo pojęcie systemu ekspertowego wprowadził już w 1965 r. Edward Feigenbaum w ramach prowadzonego na Uniwersytecie Stanforda projektu nazwanego Heuristic Programming (programowanie heurystyczne, czyli odmienne od algorytmicznego). W największym skrócie: systemy ekspertowe są programami, w których umieszcza się wiedzę ekspertów z określonej dziedziny i za pomocą metod automatycznego wnioskowania (podobnych do tych, które opisałem wyżej w kontekście automatycznego dowodzenia twierdzeń matematycznych) wykorzystuje się tę wiedzę do odpowiadania na pytania użytkowników. Pierwszy system ekspertowy o nazwie Dendral został zbudowany w 1966 r. przez Feigenbauma oraz Bruce’a G. Buchanana (który dla potrzeb stworzenia tego systemu odpowiednio rozszerzył język LISP), Joshuę Lederberga i Carla Djerassiego. System pomagał chemikom w identyfikacji nieznanych cząsteczek organicznych. Sukces programu Dendral – programu, który był tak udany, że jest używany do dziś, oczywiście stale doskonalony i ze stale poszerzaną bazą wiedzy ekspertów – sprawił, że podjęto próbę budowy systemów ekspertowych do różnych innych zastosowań. Jako pierwszy powstał w 1970 r. system MYCIN. System ten – przeznaczony do wspomagania diagnostyki zakażeń krwi i optymalizacji antybiotykoterapii – został stworzony w ramach pracy doktorskiej Edwarda Shortliffe’a pod kierunkiem Bruce’a Buchanana. Także ten system okazał się bardzo przydatny. Był doskonalony i ze stale poszerzaną bazą wiedzy służył lekarzom przez wiele lat. Jego miejsce zajął system Caduceus, zbudowany w 1980 r. na Uniwersytecie w Pittsburghu przez Harry’ego Pople. MYCIN, jak wspomniałem, koncentrował się na zakażeniach krwi, natomiast Caduceus mógł zdiagnozować do 1000 różnych chorób.

Czytaj więcej

Jak nauczyliśmy maszyny liczyć i myśleć za nas? Część 45: Test Turinga

Sukcesy pierwszych systemów ekspertowych sprawiły, że pojawiło się ich potem wiele i to do różnych celów: poszukiwania złóż minerałów, udzielania porad w zakresie ekonomii i zarządzania, wyceny nieruchomości, diagnostyki technicznej itd. Obecnie jest ich mnóstwo!

Tu dygresja: ostatnio w USA najchętniej kupowanym systemem ekspertowym był program doradzający, jak skutecznie spisać testament, żeby wydziedziczona rodzina nie mogła go obalić! Różne bywają potrzeby ludzi chcących korzystać ze sztucznej inteligencji...

Autor jest profesorem Akademii Górniczo-Hutniczej w Krakowie

We wcześniejszym odcinku tego cyklu („Rzecz o Historii”, 21 kwietnia 2023 r.) opowiedziałem o pracach Alana Turinga i o jego artykule „Computing Machinery and Intelligence”, w którym położył on kamień węgielny pod tworzenie owej sztucznej inteligencji oraz zaproponował sposób sprawdzenia, czy maszynę można uznać za inteligentną. Potem opowiedziałem („Rzecz o Historii”, 12 maja 2023 r.) o konferencji w Dartmouth College, na której pojęcie sztucznej inteligencji zdefiniowano. A ostatnio („Rzecz o Historii”, 26 maja 2023 r.) przedstawiłem argumenty oponentów sztucznej inteligencji – dawnych i obecnych – oraz odpowiedzi, jakich im udzielał Turing i jakie można także zaprezentować dziś.

Pozostało 94% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Historia świata
„2001: Odyseja kosmiczna”: Horyzont marzeń
Historia świata
Marek Aureliusz. Życiowe drogowskazy cesarza filozofa
Historia świata
Czy Mikołaj Kopernik był Polakiem? Trzy nieścisłości w jednym zdaniu
Historia świata
Niezwykła Toskania: Lukka
Akcje Specjalne
Naszym celem jest osiągnięcie 9 GW mocy OZE do 2030 roku
Historia świata
Rocznica D-Day. Joe Biden: 80 lat temu żołnierze przeszli próbę stuleci
Historia świata
Czy Ameryce grozi rozpad?