Jednym z obszarów obecnie silnie eksploatowanych w informatyce jest analiza języka naturalnego. Dziedzina ta rozwijana pod nazwą NLP (Natural Language Processing) umożliwia uzyskiwanie natychmiastowych tłumaczeń tekstów napisanych (lub mówionych) w jednym języku na teksty udostępniane w innym języku. Dzięki rozwojowi tych technik uzyskaliśmy narzędzia do sprawnego wyszukiwania potrzebnych informacji, możliwości automatycznego tworzenia streszczeń i systemy komputerowe przeznaczone do swobodnej komunikacji z człowiekiem (na przykład Chat GPT). Poznajmy jednak drogę, która nas do tego zaprowadziła.
Arabski filozof z IX wieku
Pierwszeństwo w badaniach języka naturalnego przyznać trzeba arabskiemu filozofowi, którego pełne nazwisko brzmiało Jusuf Jakub ibn Ishak al-Kindi. Dla uproszczenia we współczesnych pracach historyków używa się skróconego miana owego uczonego, nazywanego po prostu Al-Kindi. Był on jednym z pierwszych uczonych arabskich, którzy podjęli trud przejęcia spuścizny starożytnych myślicieli greckich (zwłaszcza Arystotelesa) i rozwinięcia ich w oparciu o nowe badania naukowe. Jego twórczość była bardzo urozmaicona. Podobno napisał łącznie ponad 200 dzieł naukowych, z których zachowało się do dziś 23. Z omówień innych autorów wynika, że Al-Kindi napisał: 32 prace o geometrii, 8 poświęconych astronomii, 10 – muzyce, 10 – optyce, 23 – medycynie, 5 – psychologii, 14 – meteorologii i – także 14 – polityce. Z punktu widzenia tego felietonu interesujące jest, że Al-Kindi w swoich opracowaniach odwoływał się do analizy statystycznej tekstów w języku naturalnym (w oryginale – greckim), m.in. napisał dzieło „O odczytywaniu zaszyfrowanych listów”, które było potem źródłem inspiracji dla wielu specjalistów od kryptografii, kryptoanalizy, a także – w bliższych nam czasach – od tłumaczenia maszynowego.
Czytaj więcej
Ponieważ koncepcja sztucznej inteligencji budziła sporo kontrowersji, a pytanie: „czy maszyna może być inteligentna?”, było rozważane z różnych punktów widzenia, Alan Turing zaproponował test, który miał owe wątpliwości rozstrzygnąć w sposób empiryczny.
Tłumaczenie wspomagane metodologią naukową
Tłumaczeniem dzieł literackich i naukowych z jednych języków na inne zajmowało się wielu ludzi, ale warunkiem sukcesu tłumacza była jego dobra znajomość zarówno języka źródłowego, jak i języka docelowego. Takie tłumaczenie było (i jest!) sztuką. Konieczność roboczego porozumiewania się ludzi korzystających z różnych języków była jednak wyzwaniem dla myślicieli. Dlatego w 1629 r. René Descartes (po polsku zwany Kartezjuszem) zaproponował stworzenie uniwersalnego języka, który będzie składał się z jednakowych symboli przedstawiających te same idee w różnych językach. Myśl tę kontynuowało wielu znanych uczonych, m.in. Newton czy Leibniz. Jednym z podstawowych celów stworzenia takiego języka było zastąpienie łaciny i umożliwienie sprawniejszego komunikowania się oraz tłumaczenia tekstów. Koncepcje Kartezjusza i innych myślicieli pozostawały jednak wyłącznie na papierze.
Utrwalanie tekstu w postaci elektrycznej
Warunkiem koniecznym do zbudowania maszyny automatycznie tłumaczącej teksty z jednego języka na inny było wytworzenie reprezentacji tekstu w postaci czytelnej dla maszyny. Ten problem został rozwiązany wraz z wynalezieniem dalekopisu.