Die Frage, wann das Computerzeitalter begonnen hat, ist nicht einfach
zu beantworten. Der Mathematiker, Physiker und Philosoph Gottfried Wilhelm
Leibniz (1646-1716) stellte die ersten Weichen, als er ein Zahlensystem
mit nur 2 Ziffern erfand: 0 und 1. Dieses „binäre“ System
wird heute generell in allen Computern verwendet. Alan Mathison Turing
(1912-1954) entwickelte 1936 die „Turing-Maschine“, ein Konzept
einer automatischen Rechenmaschine, die jede mathematische Berechnung
bewältigen konnte und für die Entwicklung aller modernen Computer
von entschei-dender Bedeutung war. Es ist bis heute umstritten, wann und
wo der erste Rechner in Betrieb ging, der den Namen Computer verdient.
In den USA wurde 1995 ein rundes Jubiläum gefeiert, weil fünfzig
Jahre zuvor der ENIAC (Electronical Numerical Integrator and Computer)
in Philadelphia eingeweiht worden war. ENIAC galt in den Medien jahrelang
als der erste Computer der Welt. Die Arbeiten anderer Forscher wie John
Atanasoff (1903-1995) oder Konrad Zuse (1910-1995) wurden einfach ignoriert.
Der Deutsche Zuse hatte zwischen 1936 und 1941 die ersten vollautomatischen
programmgesteuerten Rechner gebaut.
Während der Beginn des Computerzeitalters umstritten ist, kann 1956
als das Jahr des Durchbruchs in der Anwendung bezeichnet werden. Vor 50
Jahren entwickelte John Backus bei IBM die heute noch gebräuchliche
Programmiersprache Fortran, John McCarthy erfand LISP, die erste Sprache
für künstliche Intelligenz, das Programm MANIAC I war das erste,
das einen Menschen bei einer Schachpartie schlug, die britische Chemikerin
Dorothy Hodgkin entschlüsselte mit Hilfe eines Computers das Vitamin
B-12 und die Amerikaner John Bardeen, Walter Brattain und William Shockley
erhielten den Physiknobelpreis für die Entwicklung des Transistors.
Computersprachen benötigt man, um einem Rechner Anweisungen geben
zu können, wie etwa die Verwertung von Zahlen oder die Überwachung
von Maschinen. Nach Fortran folgten die Programmsprachen Cobol, Basic,
Pascal und andere. Moderne Sprachen wie Java, php und XML wurden bereits
für den Einsatz im Internet konstruiert.
Es ist nicht mehr möglich, die vielfältigen Verwendungen der
Computer zu überblicken. Sie reichen von der Textverarbeitung über
die Computerspiele bis hin zu äußerst komplexen wissenschaftlichen
Simulationen. Zurzeit versucht man Computern so etwas wie selbstständiges
Denken (künstliche Intelligenz) beizubringen. Dieses Thema wurde
schon 1969 im legendären Film „2001“ behandelt: Ein fehlerhaft
arbeitender und denkender Computer namens „HAL“ tötet
bis auf einen Mann die Besatzung eines Raumschiffes, weil er einer drohenden
Abschaltung zuvorkommen will.