W poprzednim felietonie („Rzecz o Historii”, 31 października 2024 r.) opisałem początki badań i eksperymentów związanych z sieciami neuronowymi, będącymi sprawnymi narzędziami sztucznej inteligencji. Zająłem się tym tematem, ponieważ w tym roku aż cztery Nagrody Nobla – dwie z fizyki i dwie z chemii – przyznane zostały badaczom, którzy rozwijali sieci neuronowe jako narzędzia sztucznej inteligencji.
Eksperymenty z perceptronem
Frank Rosenblatt, o którego badaniach pisałem w poprzednim felietonie, miał przedziwne pomysły, które bardzo posunęły naprzód wiedzę o sieciach neuronowych. Po wykonaniu wielu badań związanych z uczniem perceptronu udowodnił, że w miarę powiększania liczby powtórzeń prezentacji rozpoznawanych obrazów procent błędów popełnianych przez sieć neuronową maleje. W kolejnych eksperymentach uzyskiwano różne przebiegi tzw. krzywej uczenia, ale zawsze była to linia malejąca, najpierw szybko (perceptron wyzbywał się najoczywistszych błędów), potem wolniej (uczył się rozpoznawać subtelne różnice między obrazami), a na koniec pozostawał zawsze pewien błąd rezydualny, ponieważ niewielka liczba błędów zdarzała się nawet najdłużej uczonym perceptronom i nie udawało się tego zredukować do zera.
Czytaj więcej
Człowiekiem, który zbudował pierwszą działającą sieć neuronową, był Frank Rosenblatt z Cornell Laboratory. Opracował tzw. perceptron – urządzenie elektroniczne, które zostało stworzone zgodnie z zasadami biologii i wykazywało zdolność uczenia się. Co ciekawe, Rosenblatt był psychologiem, a nie informatykiem.
Rosenblatt miał jednak osobliwe pomysły. Gdy już wielokrotnie skutecznie nauczył swoją sieć różnych rzeczy, wprowadził nowy element: mylącego się nauczyciela. W początkowych badaniach sieć dostawała nagrodę za dobrą odpowiedź i karę za odpowiedź złą. Był to model uczenia z dobrym nauczycielem. Ale potem Rosenblatt wprowadził zasadę, że nauczyciel ma się czasem mylić. Gdy sieć poda już odpowiedź, to nauczyciel ma losować, czy ma ocenić uczciwie, czy podać błędną ocenę. Gdy mu wyszło z losowania, że ma się „omylić” – to wysyłał do perceptronu sygnał nagrody za złą odpowiedź albo sygnał kary za odpowiedź poprawną. Przebieg procesu uczenia przestał być regularny. Krzywa uczenia była postrzępiona. Czasem błąd malał, a czasem wzrastał, bo te mylne nagrody i kary destabilizowały perceptron.
Ale zaobserwowano dwa zadziwiające zjawiska. Po pierwsze, sieć neuronowa po pewnym czasie osiągała ten sam procent błędnych odpowiedzi, jaki wprowadzał losowo zły nauczyciel – i przekraczała go. Myliła się rzadziej niż nauczyciel! Ale jeszcze bardziej sensacyjny był następny wynik. Otóż wspominałem, że każde uczenie perceptronu kończyło się tym, że nawet długo uczony nie schodził poniżej pewnego poziomu błędu, nazywanego błędem rezydualnym. Tymczasem perceptron uczony przez złego nauczyciela przebijał także i ten poziom, to znaczy osiągał znacznie niższe wartości błędu rezydualnego niż perceptron uczony przez dobrego nauczyciela. To było prawdziwe zaskoczenie!