zurück Übersicht weiter

ENIAC, MANIAC & Co


Die Frage, wann das Computerzeitalter begonnen hat, ist nicht einfach zu beantworten. Der Mathematiker, Physiker und Philosoph Gottfried Wilhelm Leibniz (1646-1716) stellte die ersten Weichen, als er ein Zahlensystem mit nur 2 Ziffern erfand: 0 und 1. Dieses „binäre“ System wird heute generell in allen Computern verwendet. Alan Mathison Turing (1912-1954) entwickelte 1936 die „Turing-Maschine“, ein Konzept einer automatischen Rechenmaschine, die jede mathematische Berechnung bewältigen konnte und für die Entwicklung aller modernen Computer von entschei-dender Bedeutung war. Es ist bis heute umstritten, wann und wo der erste Rechner in Betrieb ging, der den Namen Computer verdient. In den USA wurde 1995 ein rundes Jubiläum gefeiert, weil fünfzig Jahre zuvor der ENIAC (Electronical Numerical Integrator and Computer) in Philadelphia eingeweiht worden war. ENIAC galt in den Medien jahrelang als der erste Computer der Welt. Die Arbeiten anderer Forscher wie John Atanasoff (1903-1995) oder Konrad Zuse (1910-1995) wurden einfach ignoriert. Der Deutsche Zuse hatte zwischen 1936 und 1941 die ersten vollautomatischen programmgesteuerten Rechner gebaut.

Während der Beginn des Computerzeitalters umstritten ist, kann 1956 als das Jahr des Durchbruchs in der Anwendung bezeichnet werden. Vor 50 Jahren entwickelte John Backus bei IBM die heute noch gebräuchliche Programmiersprache Fortran, John McCarthy erfand LISP, die erste Sprache für künstliche Intelligenz, das Programm MANIAC I war das erste, das einen Menschen bei einer Schachpartie schlug, die britische Chemikerin Dorothy Hodgkin entschlüsselte mit Hilfe eines Computers das Vitamin B-12 und die Amerikaner John Bardeen, Walter Brattain und William Shockley erhielten den Physiknobelpreis für die Entwicklung des Transistors.

Computersprachen benötigt man, um einem Rechner Anweisungen geben zu können, wie etwa die Verwertung von Zahlen oder die Überwachung von Maschinen. Nach Fortran folgten die Programmsprachen Cobol, Basic, Pascal und andere. Moderne Sprachen wie Java, php und XML wurden bereits für den Einsatz im Internet konstruiert.

Es ist nicht mehr möglich, die vielfältigen Verwendungen der Computer zu überblicken. Sie reichen von der Textverarbeitung über die Computerspiele bis hin zu äußerst komplexen wissenschaftlichen Simulationen. Zurzeit versucht man Computern so etwas wie selbstständiges Denken (künstliche Intelligenz) beizubringen. Dieses Thema wurde schon 1969 im legendären Film „2001“ behandelt: Ein fehlerhaft arbeitender und denkender Computer namens „HAL“ tötet bis auf einen Mann die Besatzung eines Raumschiffes, weil er einer drohenden Abschaltung zuvorkommen will.




© 2006 Rudolf Öller, Bregenz