2017-03-08

Eniac – pierwszy na świecie komputer cyfrowy

Obliczeniowe monstrum o nazwie ENIAC (Electronic Numeric Integrator and Computer) ważyło 30 ton i zajmowało powierzchnię 72 m kw. Opowiadano, że gdy zaczynało pracować, pobierało tyle prądu, iż przygasały światła w Filadelfii. W skład ENIACA wchodziło 40 szaf, które musiały zmieścić wszystkie podzespoły: 18 tys. próżniowych lamp elektronowych, 10 tys. kondensatorów, 6 tys. przełączników i 1500 przekaźników.

To wszystko scalone przez pół miliona lutowanych połączeń. Do zasilania maszyny, którą uruchomiono w lutym 1946 r., potrzebna była moc elektryczna 200 kW.

Co w zamian? John Presper Eckert, który wspólnie z Johnem Williamem Mauchlym stworzył ENIACA, wspomina (w wywiadzie opublikowanym w tygodniku „Computerworld”): „Dodanie dwóch dziesięciocyfrowych liczb z ołówkiem w ręku zajmuje ok. 10 sekund. Wykorzystując mechaniczny arytmometr czas ten można skrócić do 4 sekund. Pierwszy komputer elektromechaniczny Mark 1 z Harwardu potrzebował na to zadanie 0,3 sekundy. ENIAC tylko 0,0002 s, a więc był 50 tys. razy szybszy od człowieka. Podczas wykonywania niektórych wyspecjalizowanych zadań naukowych zysk szybkości był jeszcze większy”.

Pierwszy na świecie komputer

O pierwszym komputerze ENIAC szybko zaczęły krążyć legendy: opowiadano więc, że wojskowi, którzy byli pierwszymi klientami mózgu elektronowego, mieli z wrażenia salutować inteligentnej maszynie, a wokół niej krążyła, jak twierdzili złośliwi, ekipa ze skrzyniami pełnymi lamp elektronowych, by wymieniać ciągle się przepalające. Eckert zaprzeczał wszystkim tym wymysłom, choć sam stał się (wraz ze swoim kolegą Mauchlym) bohaterem legendarnego sporu o to, kto wynalazł komputer i do kogo należą prawa autorskie do ENIACA.

Kto skonstruował pierwszy komputer?

Sprawa dotarła do sądu, który w 1973 r. orzekł, że, owszem, Eckert i Mauchly mają pełne prawa autorskie do projektu pierwszego elektronicznego komputera, nie oni jednak są wynalazcami tego urządzenia. Sąd uznał, że tytuł należy się Johnowi Atanasoffowi, który wraz z Cliffordem Berrym w 1939 r. w Iowa State University zaprojektowali urządzenie ABC (Atanasoff Berry Computer). Problem w tym, że urządzenie to nigdy nie zadziałało.

Georges Ifrah, historyk matematyki, w monumentalnym dziele „Historia powszechna cyfr” (W.A.B., 2000) wymienia dwa zasadnicze problemy we wskazaniu „właściwego” twórcy pierwszego komputera. Problem pierwszy wynika z wieloznaczności samego słowa. ENIAC był sprawnym cyfrowym komputerem elektronicznym posługującym się kodem dwójkowym (tak jak dzisiejsze maszyny). Instrukcje logiczne i matematyczne zamieniane były na zrozumiały dla komputera ciąg zer i jedynek. Zrozumiały, bo można go wyrazić poprzez dwa stany elektryczne: prąd albo płynie (1), albo nie (0). Funkcję przełączników pełniły lampy elektronowe.

Kiedy powstał pierwszy na świecie komputer cyfrowy?

ENIAC nie był jednak jeszcze maszyną programowaną, czyli nie spełniał do końca kryteriów późniejszych komputerów. Urządzeniem takim, zdaniem Ifraha, był dopiero SSEC (Selective Sequence Electronic Calculator) zaprezentowany 27 stycznia 1948 r. Tę maszynę zaprojektował astronom Wallace J. Eckert (nie mylić z Presperem Eckertem od ENIACA) i wykorzystano ją m.in. do opracowania z wielką dokładnością tablic położenia Księżyca. Posłużyły one później do przygotowania misji Apollo – programu lotu załogowego na Księżyc.

Istotniejszy jest jednak drugi problem wskazywany przez Ifraha.

Komputer jest czymś więcej niż tylko złożonym urządzeniem elektronicznym. Kumuluje się w nim wielowiekowy rozwój wiedzy matematycznej. Nie byłoby dziś komputerów bez hinduskiego wynalazku zera i wielkich przełomów polegających na rozwoju algebry, logiki i wielu innych osiągnięć. W pierwszej połowie XX w. był już przygotowany grunt do wielkiej syntezy naukowej, dokonanej przez dwóch genialnych matematyków.

alan turingPierwszy, Brytyjczyk Alan Turing, w 1936 r. opublikował artykuł naukowy o skomplikowanym tytule „O liczbach obliczalnych i ich zastosowaniu w odniesieniu do problemu rozstrzygalności”. Przedstawił w nim teoretyczną koncepcję automatycznej maszyny, zdolnej realizować procedury logiczne, a więc np. obliczenia, zgodnie z zadanym zestawem instrukcji – algorytmem.

Narodziny informatyki

Publikację artykułu przez brytyjskiego matematyka można uznać za narodziny informatyki. Podczas wojny Turing zaangażowany był w supertajne badania nad kryptografią, których celem było złamanie szyfru niemieckiej Enigmy (w pracach tych kluczowe znaczenie miał wkład polskich matematyków). Jednym z efektów zastosowania teorii Turinga stał się uruchomiony w 1943 r. Colossus, elektroniczna maszyna logiczna wyspecjalizowana do łamania szyfrów.

Nie wiadomo, jak potoczyłyby się losy wojny bez intelektualnego wkładu wielkiego matematyka, wiemy jednak, że los i Wielka Brytania obeszły się z nim bardzo okrutnie. W 1952 r. wyszło na jaw, że Turing jest homoseksualistą, co stało się podstawą do wytoczenia mu sprawy karnej. W efekcie oskarżenia matematyk stracił dostęp do tajnych dokumentów i został wyłączony z prac nad komputerami. By uniknąć więzienia, zgodził się poddać terapii „leczącej” homoseksualizm. W 1954 r. popełnił samobójstwo.

Maszyna dla wojskowych

john von neumannPełne teoretyczne podstawy współczesnego komputera stworzył, inspirowany pracami Turinga, inny wielki matematyk, pochodzący z Budapesztu John von Neumann. Opublikował on 30 czerwca 1945 r. „Wstępny projekt raportu na temat EDVAC”. Była to kolejna elektroniczna maszyna obliczeniowa, nad którą pracowali m.in. twórcy ENIACA, widząc ograniczenia pierwszego komputera. Miał być ich pozbawiony EDVAC. Dopiero połączenie odpowiednio zaawansowanej teorii matematycznej z zaawansowaną techniką umożliwiło skonstruowanie pierwszych komputerów. Eckert wspomina, że nie przypadkiem ENIAC powstał w Filadelfii, stolicy ówczesnej Doliny Lamp Elektronowych – centrum amerykańskiego przemysłu elektronicznego, zajmującego się produkcją radioodbiorników i telewizorów – pod ręką byli zarówno inżynierowie, jak i niezbędne podzespoły.

Warto przypomnieć zdanie Ifraha, przekonującego, że komputer to nie tylko szybsze liczydło. To uniwersalna maszyna logiczna zdolna realizować dowolne, dające się wyrazić w postaci skończonego ciągu instrukcji, czyli algorytmu, zadanie obliczeniowe. Bardziej obrazowo: to maszyna zdolna symulować rzeczywistość, która – jak pokazała cała nowożytna nauka – ma charakter matematyczny. Światem naturalnym rządzą bowiem prawa przyrody dające się wyrazić w postaci wzorów matematycznych. Dysponując odpowiednimi matematycznymi formułami oraz maszyną zdolną do ich „rozumienia” i przetwarzania, uczeni mogą nie tylko wyjaśniać rzeczywistość, ale i tworzyć modele jej rozwoju.

Rosnące oczekiwania wobec komputera

Ale pierwsze maszyny liczące nie powstały w celach poznawczych, były inspirowane przez wojskowych. Dla poprawy celności dział potrzebowali oni tablic artyleryjskich, zawierających wyliczenia torów pocisków w różnych warunkach. Chcieli też znać trajektorie lotu pocisków rakietowych, chcieli jak najszybciej mieć dostęp do nieprzyjacielskich szyfrogramów. Początkowo zamówienia te spełniały setki ludzkich komputerów – zmobilizowanych kobiet żmudnie rachujących za pomocą arytmometrów nieskończone słupki liczb. Z czasem jednak potrzeby stawały się coraz bardziej wyrafinowane. Najbardziej wymagająca okazała się bomba atomowa, a potem jeszcze bardziej bomba termojądrowa. Fizycy projektujący bomby zmagali się ze światem, którego nikt nie znał z bezpośredniego doświadczenia. Jedynym sposobem wglądu w ten świat były symulacje wykorzystujące dostępną wiedzę teoretyczną.

Szybko jednak okazało się, że stopień złożoności obliczeniowej w przypadku bomby wodorowej jest tak wielki, że nie mógł sobie z nim poradzić nawet ENIAC. To właśnie brak odpowiednich mocy obliczeniowych spowodował, że pierwszy próbny wybuch termojądrowy nastąpił dopiero w 1952 r.

Nie byłoby go, gdyby nie Polak Stanisław Ułam, jeden z pionierów metod komputerowych symulacji matematycznych. To on zdołał na podstawie uproszczonych obliczeń wykazać, że pierwszy projekt nie doprowadzi do eksplozji. Wyniki Ulama doprowadziły do modyfikacji koncepcji w 1951 r., do tego też czasu laboratorium w Los Alamos pozyskało nowy, potężniejszy komputer MANIAC, który umożliwił obliczeniowe potwierdzenie założeń Ulama. Później komputery zaczęto wykorzystywać (m.in. w powołanej przez amerykańskie lotnictwo do badań strategicznych Rand Corp.) do symulowania ewentualnych skutków wojny termojądrowej.

Przełom w tranzystorze

Nie tylko Amerykanie pracowali nad komputerami. Elementy pierwszego lampowego komputera radzieckiego powstały najprawdopodobniej już w 1947 r. Pierwszym w pełni udokumentowanym i nowoczesnym urządzeniem był jednak MESM, zaprojektowany w Kijowie pod kierownictwem akademika Siergieja Lebiediewa w 1950 r. Pierwsze obliczenia maszyna ta wykonała w styczniu 1951 r.

Prace nad komputerami nabrały istotnego przyspieszenia, a same maszyny zyskały na mocy wraz z wynalazkiem tranzystora w 1947 r. Zastąpił on duże i niewygodne lampy elektronowe, przyczyniając się do radykalnego zmniejszenia wielkości komputerów i poprawienia ich niezawodności. Miniaturyzacja układów elektronicznych trwa do dzisiaj.

I pomyśleć, że Thomas Watson, prezes IBM, twierdził ponoć, że nie widzi powodu, dla którego w przyszłości świat miałby potrzebować więcej niż pięć komputerów!

Porównywarka cen sprzętu RTV

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *