Poprzedni artykuł zakończyłem informacją, że po latach koncentracji głównie na budowie coraz doskonalszych elektronicznych maszyn liczących w 1964 r. firma IBM doceniła znaczenie także oprogramowania, a zwłaszcza systemu operacyjnego, i stworzyła system IBM 360, na który składały się zarówno bardzo dobre maszyny, jak i bardzo dobre oprogramowanie oparte na systemie OS/360. Twórcą tego sukcesu był Thomas Watson Jr., syn założyciela firmy IBM.
Komunistyczne naśladownictwo IBM 360
Komputery IBM 360 miały różne rozmiary i bardzo zróżnicowane moce obliczeniowe – od stosunkowo małych IBM 360/25 do bardzo wielkich IBM 360/95, a zatem także system operacyjny dla nich musiał mieć odmiany stosowne dla tych większych i mniejszych maszyn. Były w użyciu odmiany OS/360 oznaczane dodatkowo symbolami PCP (dla najstarszych maszyn), MFG dla systemów średniej wielkości oraz MVT dla systemów największych.
Komputery IBM 360 z systemem OS/360 odniosły bezprecedensowy sukces. Do 1968 r. wyprodukowano i sprzedano 14 tys. tych maszyn, przy czym trzeba podkreślić, że tanie one nie były: jeden z najmniejszych komputerów tej serii, IBM 360/25, kosztował w 1968 r. 253 tys. USD, co odpowiada w dzisiejszych cenach wartości 1 773 301 USD. Prawie dwa miliony dolarów za najmniejszy z tej serii komputerów! Na komputerach IBM 360 wzorowali się Rosjanie, nakazując w latach 1970–1991 we wszystkich krajach RWPG (czyli krajach socjalistycznych) produkcję komputerów jednolitego systemu RIAD będących de facto kopiami komputerów IBM 360. Były one oznaczane symbolami R-10, R-20, R-30 itd. – aż do R-65. Polsce, która produkowała wtedy bardzo dobre komputery serii Odra 1300, narzucono obowiązek produkowania komputera R-30. Polscy inżynierowie ulepszyli ten komputer i był on produkowany jako R-32, a potem R-34. Ale oryginalny polski dorobek w postaci znakomitych komputerów Odra 1305 i minikomputerów Odra 1325 został zmarnowany. Lecz to jest temat na osobne opowiadanie...
Mainframe: niezawodność i pewność pracy
Komputery systemu IBM 360 wyznaczyły nowy trend w informatyce, polegający na tym, że klienci kupowali komputery o bardzo dużej mocy obliczeniowej (nazywane mainframe) i dołączali do nich wielu użytkowników, którzy mogli równocześnie korzystać z pracy maszyny dzięki zasadzie time sharing (dzielenie czasu). System operacyjny przydzielał zasoby komputera wybranemu użytkownikowi na krótki okres (kwant czasowy), po czym zawieszał działania tego użytkownika i aktywizował zadanie innego użytkownika, potem jeszcze innego itd. – aż na koniec wracał do zadania pierwszego użytkownika i znowu pozwalał mu korzystać z całej mocy obliczeniowej, w wyniku czego cykl się zamykał. Oczywiście – im potężniejszy był komputer, tym więcej użytkowników można było w ten sposób obsłużyć i tym szybciej każdy z nich doczekał się swoich wyników. Pojawiło się więc dążenie samych klientów do kupowania coraz większych komputerów, co przekładało się na zwiększenie zysków firmy.
Komputery klasy mainframe pracowały bardzo wydajnie i szybko, ale to nie była ich najważniejsza cecha. Pod tym względem ustępowały znacznie superkomputerom, o których kiedyś napiszę osobno. Natomiast zaletą wymaganą od komputerów mainframe była bardzo pewna i niezawodna praca. Musiały one pracować nieprzerwanie przez setki godzin, gdyż awaria komputera obsługującego ważny proces biznesowy ma katastrofalne skutki. Nic dziwnego, że producenci komputerów mainframe właśnie niezawodność i pewność pracy stawiali na pierwszym miejscu. Duże znaczenie miały też szybkie linie transmisji danych pozwalające przesyłać informacje między terminalami użytkowników (niekiedy bardzo odległych) a komputerem mainframe, który ich w czasie rzeczywistym obsługiwał.