Startseite   |  Site map   |  A-Z artikel   |  Artikel einreichen   |   Kontakt   |  
  


informatik artikel (Interpretation und charakterisierung)

Computer

Video

Entwicklung

Entwicklung der computertechnik/datenverarbeitung bis ca. 1950


1. Java
2. Viren

Die Entwicklung der Computertechnik und der Datenverarbeitung vor und zur Zeit von Neumanns (bis ca. 1950) Betrachtet man die Datenverarbeitung im Allgemeinen, kann man sagen, dass im weitesten Sinne alle Prozeduren, bei denen Daten verarbeitet werden, dazu gehören (also auch beispielsweise Gedankengänge im menschlichen Gehirn). Doch der Begriff ?Datenverarbeitung? bezieht sich in den meisten Fällen auf die mathematische, heutzutage eher elektronische, Datenverarbeitung (EDV). Diese Bedeutung des Begriffs wird hier auch so aufgefasst. Will man die Geschichte der Datenverarbeitung erfassen, muss man eigentlich weit in der Zeit zurückgehen, bis hin zur Erfindung der Schrift und der Zahlensysteme vor 3000 Jahren, da Datenverarbeitung ja auch die Addition und Subtraktion von Zahlen beinhaltet. Die Geschichte der Datenverarbeitung beginnt also vor 3000 Jahren, als zählen und rechnen notwendig wurde für zum Beispiel Geldwesen, Geometrie und Astronomie, mit der Entwicklung der ersten Rechenbretter der Chinesen, gefolgt von dem wohl jedem bekannten Abakus (der auch heute noch in einigen Teilen der Welt genutzt wird), als erste mechanische Rechenhilfsmittel.

     Schon im antiken Griechenland erfanden Menschen kleine Automaten zu ihrer Belustigung, meist waren diese Tieren nachgeahmt (beispielsweise hölzerne Tauben, die ?fliegen? konnten oder Schnecken, die am Boden herumkrochen). Nach einer großen Pause kamen dann die Rechenmaschinen und Automaten des Mittelalters, die bis zum Beginn der Neuzeit weiterentwickelt und erheblich verfeinert wurden. Anfang des 13. Jahrhunderts entwarf sich der Philosoph Albertus Magnus einen Androiden, welcher jedem Besucher die Haustür öffnete. Weiterhin gab es bis zum 16./17.

     Jahrhundert auch noch Androiden mit eingebauten Uhrwerken, die ihre Arme und Beine bewegten, die Trommel schlugen, Trompete oder Klavier spielten, schrieben, zeichneten oder tanzten. Im späten 18. Jahrhundert begann die serienmäßige Produktion von mechanischem Spielzeug. All dies diente jedoch nur dem Vergnügen der Leute. Die Entwicklung des Computers als elektronische Rechenmaschine beruhte auf den Fortschritten der Naturwissenschaften, insbesondere der Mathematik, Physik und Chemie, woraus auch die Entwicklung der Elektronik, ohne die ein heutiger Computer gar nicht mehr denkbar wäre, resultierte. Bei der Entwicklung des Computers baute jeder auf den Fortschritten und Leistungen seiner Vorgänger auf.

     1623 entwickelte Wilhelm Schickard eine erstmals urkundlich erwähnte Rechenmaschine mit Zahnradgetriebe, die die vier Grundrechenarten beherrschte. Auch der französische Mathematiker und Physiker Blaise Pascal entwickelte 1642 eine Rechenmaschine mit Zahnrädern, die bekanntere Pascaline, welche aber nur addieren und subtrahieren konnte. Dabei geschah der Zehnerübertrag über eine Verlängerung des jeweils zehnten Zahns der Räder. Die 1672 von Gottfried Wilhelm Leibniz vorgestellte Rechenmaschine mit einer verschiebbaren Staffelwalze mit Rippen zur Erfassung von Zahnrädern sollte auch multiplizieren und dividieren können, funktionierte aber häufig nicht richtig. Leibniz erdachte jedoch schon Gesetzmäßigkeiten zum Binärsystem, dem heute gültigen System zur Darstellung von Informationen (das Dualsystem mit seinen Ziffern 0 und 1). 1801 entwickelte der Franzose Joseph-Marie Jaquard eine automatische Webmaschine, zu deren Steuerung er gelochte Holzbretter verwendete.

     Im 19. Jahrhundert stellte der Engländer Charles Babbage Überlegungen zu einer analytischen Maschine an, deren systematische Grundstruktur der eines modernen Computers ähnelte und sich von den bisherigen Rechenmaschinen gänzlich unterschied. Sie bestand aus einer Recheneinheit, einem Zahlenspeicher, einem Ein- und Ausgabewerk und einer Steuereinheit. Die Programmeingabe erfolgte über die neue Erfindung der Speichertechnologie, die Lochkarte. Nach Einstellen der Ziffern sollte der Bediener nicht mehr in das Geschehen eingreifen müssen, mathematische Kenntnisse waren also zur Benutzung, so wie vorher, nicht mehr erforderlich. Die Anforderungen an die Feinmechanik waren damals jedoch zu hoch, sodass die Rechenmaschine noch nicht realisiert werden konnte.

     Auch Ada Lovelace, Babbage?s Lebensgefährtin und Assistentin, machte sich Gedanken über die Rechenmaschine und entwickelte Programmierverfahren, die zum Teil auch heute noch genutzt werden, da sie verstand, dass man solch eine Maschine auch programmieren musste. Sie erkannte, dass Maschinen nicht intelligent werden könnten, denn eine Maschine ?hat keinerlei Streben, irgendetwas hervorzubringen, sie kann alles tun, von dem wir wissen, wie wir es ihr befehlen? . Die in den 1970ern entstandene Programmiersprache ADA trägt ihren Namen. Für die amerikanische Volkszählung der Jahre 1880-1890 entwickelte Hermann Hollerith einen großen Zählapparat, in den man nun auch riesige Mengen von Zahlen eingeben und diese auswerten lassen konnte. 1930 benutzte Vannevar Bush bei einer Rechenmaschine elektromechanische Relais anstatt der bis dahin üblichen Hebel und Getriebe, und baute so das erste Gerät, das mit Einschränkungen als Computer bezeichnet werden konnte. Dies war der Anfang des Computerzeitalters und der Beginn der sogenannten nullten Rechnergeneration, die mit Relais arbeitete.

     1935 begann Konrad Zuse in Berlin mit der Entwicklung von programmgesteuerten, mit dem Binärsystem arbeitenden, Rechenanlagen. 1936 baute er seinen ersten Computer, den ?Zuse 1? (Z1), der noch rein mechanisch war. Das Nachfolgemodell Z2 enthielt bereits elektromechanische Teile. 1941 stellte Zuse den Z3 vor, den ersten betriebsfähigen, programmgesteuerten Rechenautomaten der Welt. Dieser bestand aus 2600 elektromagnetischen Relais und arbeitete mit einem auf Filmstreifen gelochten Programm. Die Ausgabe erfolgte über ein Lampenfeld.

     Er beherrschte die Grundrechenarten, konnte 64 Zahlen mit je 22 Dualstellen aufnehmen und in der Sekunde bis zu 22 Operationen ausführen. 1945 veröffentlichte Zuse ?Plankalkül?, die erste Programmiersprache der Welt. Howard H. Aiken begann, von IBM beauftragt, 1939 in den USA parallel dazu mit der Entwicklung eines nach dem gleichen Prinzip arbeitenden, aber leistungsfähigeren Rechners. 1943 stellte er Mark I vor. Der Rechner war 15 Meter lang, 2,5 Meter hoch, 35 Tonnen schwer und bestand mit mechanisch betriebenen Zahnrädern und elektromagnetischen Relais aus ca.

     750000 Einzelteilen und 80 Kilometern Leitungsdraht. Im Laufe des 2. Weltkrieges entwickelten die Engländer Colossus I, der nach langer Entwicklungszeit und unter Mithilfe des mathematischen Genies Alan Turing den Code der deutschen Verschlüsselungsmaschine ENIGMA dechiffrieren konnte. Sie waren sozusagen die ersten Hacker. Doch mechanisch betriebenen Rechner erforderten vergleichsweise sehr hohe Schalt- und Zugriffszeiten, die Relais und elektromagnetischen Schalter benötigten viel Platz, auch die physikalischen Grenzen waren schnell erreicht. Dies erforderte die Einführung der ersten Computergeneration, basierend auf Elektronenröhren-Bestückung.

     Der ?Einsatz von Elektronenröhren durchbrach in der Datenverarbeitung Leistungsgrenzen, da die Schaltgeschwindigkeit von Röhren weit über der von Relais liegt?1. Der berühmteste und größte Computer dieser Art war der von J. Presper Eckert und John Mauchly entwickelte ENIAC (Electronic Numerical Integrator and Computer), der 140 Quadratmeter Stellfläche einnahm und aus Dutzenden meterlangen Kästen bestand. Armdicke Kabel verbanden seine rund 18000 Röhren. Die Dateneingabe erfolgte über Lochkarten, die Programmeingabe über verdrahtete Schalttafeln, indem man Steckverbindungen setzte. ENIAC arbeitete ca.

     2000 mal schneller als Mark I und führte Multiplikationen zehnstelliger Zahlen in 2,8 Millisekunden durch. Der Nachteil war auch hier die Größe sowie dass viele der Röhren ständig ausfielen und es einen immensen Stromverbrauch und starke Hitzeentwicklung gab. Der Beginn des Baus war Juni 1943, im Dezember 1945 löste er dann seine erste Aufgabe, die mit der Atombombe zusammenhing. 1945/46 formulierte John von Neumann die nach ihm benannte Struktur, das von-Neumann-Prinzip, bei dem die sich bisher außerhalb auf Stecktafeln oder Lochkarten befindlichen Programme und Daten im gleichen (Arbeits-)Speicher abgelegt wurden. Nun waren Auswahlbedingungen, Programmschleifen oder Änderungen des Programmablaufs möglich, ohne den Computer neu zu verdrahten. Seine ?Struktur wurde richtungsweisend für die moderne Computertechnik und wird erst heute durch das Konzept der parallel arbeitenden Prozessoren (Transputer-Prinzip) grundlegend abgeändert? .

     ?Auf der Grundlage dieser Struktur und der raschen Entwicklung der Elektronik beginnt nun die eigentliche Geschichte der Computertechnik?2. Der erste Computer der nach dem von-Neumann-Prinzip arbeitete war 1949 der EDSAC (Electronic Delay Storage Automatic Computer), bestehend aus inzwischen zum Massenprodukt gereiften 4500 Elektronenröhren. Um 1950 begann die Serienproduktion von Computern. Der 1949 vorgestellte Mark II war der erste Rechner mit einem magnetischen Massenspeicher, das heißt einem externen Speicher, der im Gegensatz zum Arbeitsspeicher nicht flüchtig ist, die Daten gehen also bei Trennung der Stromzufuhr nicht verloren. 1952 folgte der Mark IV mit einem Ferritringkernspeicher (Magnetkernspeicher, bei dem 1 Bit auf einem magnetischen Eisenkristallring gespeichert wird). Der 1947 erfundene Transistor (Kunstwort aus Transconductance und Transresistance) war Voraussetzung für kleinere und preislich günstigere Computer, deren Arbeitsgeschwindigkeit und Zuverlässigkeit erheblich gesteigert und deren Stromverbrauch und Hitzeentwicklung reduziert wurde, und so lösten ab 1953 zunehmend Transistoren die Elektronenröhren ab.

     Es dauerte noch bis 1955, bis der erste Computer bestückt mit diesen aus Silizium, Germanium und Selen hergestellten Halbleiterbausteinen der Öffentlichkeit vorgestellt wurde (der von den Bell Labs entwickelte TRADIC) und so die 2. Rechnergeneration der Halbleiterbauelemente wie Transistoren oder Dioden begründete.

 
 

Datenschutz
Top Themen / Analyse
indicator Iterative inkrementelle Entwicklung; Implementierung
indicator IP Options
indicator Das MILNET
indicator DVD-RAM
indicator Die Theorie
indicator Natürliches Mischen
indicator Das binäre System:
indicator Autostart von Programmen verhindern
indicator Komprimierungsverfahren
indicator UDP - User Datagram Protocol-


Datenschutz
Zum selben thema
icon Netzwerk
icon Software
icon Entwicklung
icon Windows
icon Programm
icon Unix
icon Games
icon Sicherheit
icon Disk
icon Technologie
icon Bildung
icon Mp3
icon Cd
icon Suche
icon Grafik
icon Zahlung
icon Html
icon Internet
icon Hardware
icon Cpu
icon Firewall
icon Speicher
icon Mail
icon Banking
icon Video
icon Hacker
icon Design
icon Sprache
icon Dvd
icon Drucker
icon Elektronisches
icon Geschichte
icon Fehler
icon Website
icon Linux
icon Computer
A-Z informatik artikel:
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z #

Copyright © 2008 - : ARTIKEL32 | Alle rechte vorbehalten.
Vervielfältigung im Ganzen oder teilweise das Material auf dieser Website gegen das Urheberrecht und wird bestraft, nach dem Gesetz.
dsolution