Meilensteine ​​im Digital Computing

Autor: Roger Morrison
Erstelldatum: 20 September 2021
Aktualisierungsdatum: 1 Juli 2024
Anonim
LCM Digital 2.0 - Meilensteine im Prozessplan
Video: LCM Digital 2.0 - Meilensteine im Prozessplan

Inhalt


Quelle: Jrabelo / Dreamstime.com

Wegbringen:

In der Geschichte des Digital Computing lassen sich wichtige Innovationen oder Ereignisse identifizieren, die entweder einen großen Einfluss auf die Entwicklung auf diesem Gebiet hatten oder ein bestimmtes bemerkenswertes Genie bewiesen haben. Die hier angebotenen Meilensteine ​​sollen nicht umfassend, detailliert oder in irgendeiner Weise endgültig sein. Eher als Einblicke, Schnappschüsse der Geschichte.

Wir benutzen jeden Tag Computer - im Büro, zu Hause, unterwegs. Wir nutzen sie für Produktivität, Unterhaltung, Kommunikation. Wir tippen sie an unseren Schreibtischen an, tragen sie in unseren Händen oder verwenden sie in unseren Geräten. In diesem Artikel werden die Erfolge gewürdigt, die zur heutigen digitalen Umgebung geführt haben, und einige ausgewählte Meilensteine ​​in der Computergeschichte erörtert.

Die Motoren von Charles Babbage

Wir betrachten den Computer im Allgemeinen als eine Erfindung des 20. Jahrhunderts. Im weitesten Sinne gibt es Computer schon seit Tausenden von Jahren. Von Lehmplättchen bis zum Abakus haben Handwerker verschiedene Methoden zum Zählen und Berechnen verwendet. Mit den Motoren von Charles Babbage machte das Computing einen riesigen Konstruktionssprung. Mit der „Wissenschaft der Operationen“ würden Maschinen viel mehr als nur tabellarisch arbeiten.


Der Student Charles Babbage, der durch eine Vielzahl von Fehlern in den mathematischen Tabellen des Nautischen Almanachs verwirrt war, rief seinem Kollegen zu: „Ich wünschte, Gott, diese Berechnungen wären mit Dampf ausgeführt worden!“ Babbage wagte es, die Idee einer praktischen Mathematik in Betracht zu ziehen durch mechanische Mittel erreicht werden. Babbage entwickelte ein mutiges Projekt zur Umsetzung seiner Vision und stellte 1822 auf einem Treffen der Astronomical Society seine Difference Engine vor. Er stieß bald auf Probleme. Das Design sah rund 25.000 handgefertigte mechanische Teile vor. Produktionsverzögerungen und ein Vertragsstreit mit seinem Chefingenieur töteten das Projekt.

Babbages nächster Versuch war die Analytical Engine, eine Allzweck-Rechenmaschine, die Lochkarten verwendete und Technologie aus der Seidenweberei übernahm. Die Regierung hatte jedoch die Geduld mit den Innovationen der Erfinder verloren und war nicht bereit, das Projekt zu finanzieren. Ada Lovelace, die Tochter von Lord Byron, leistete in ihren veröffentlichten Notizen über die Maschine einen enormen Beitrag zum Rechnen. Das nie abgeschlossene Design der Analytical Engine markiert einen Wandel in der digitalen Datenverarbeitung und zeigt, dass Maschinen mit viel mehr als nur einfachen numerischen Operationen beauftragt werden können.


Die Turingmaschine

Alles begann als Gedankenexperiment, während Alan Turing auf einer Wiese auf dem Rücken lag, den Himmel absuchte und nach großartigen Möglichkeiten suchte. Er stellte sich das „Entscheidungsproblem“ von David Hilbert vor, bei dem gefragt wurde, ob es möglich sei, festzustellen, ob ein bestimmtes Problem lösbar sei. Er fragte sich, ob ein „mechanischer Prozess“ das Problem lösen könnte.

Turing stellte sich eine Maschine vor, die Berechnungen an einem endlosen Papierband durchführen konnte. Er stellte fest, dass es der Maschine durch Verwendung des Symbols 1 in Verbindung mit einem Leerzeichen möglich sein würde, jede mathematische Zuordnung zu „berechenbaren Zahlen“ zu vervollständigen. Die Turing-Maschine (ein theoretisches Gerät, das niemals gebaut wurde) demonstrierte das Enorme Leistungsfähigkeit von Rechengeräten zur Bewältigung großer Komplexitäten. "Es ist möglich, eine einzige Maschine zu erfinden, mit der sich jede berechenbare Sequenz berechnen lässt", schrieb Turing.

Von Neumann und der gespeicherte Programmcomputer

Die von John von Neumann vorgeschlagene Architektur war ein großer Schritt vorwärts beim Rechnen, vorausgesetzt, Programmanweisungen würden im Speicher gespeichert. In einem von Neumann-Computer sind die Verarbeitungs- und Speichereinheiten getrennt, und Programme und Daten werden auf derselben Speichereinheit gespeichert und abgerufen. Heutzutage bezieht die Zentraleinheit (CPU) ihre Anweisungen von Programmen auf einer Speicherplatte. Es liest auch und schreibt in Datendateien auf der gleichen Speicherplatte.

John Mauchley sagte beim Schreiben über seine Projekte, dass "es nur EIN Speichergerät (mit adressierbaren Orten) für den GESAMTEN EDVAC geben würde ...". Die Entwurfsarchitektur für gespeicherte Programme von Neumann wurde nach einigen Schätzungen zum Inkarnation der Turingmaschine - mit grenzenlosen Möglichkeiten. Bald würde der Traum von einer Allzweck-Rechenmaschine Wirklichkeit werden.

Keine Bugs, kein Stress - Ihre schrittweise Anleitung zur Erstellung lebensverändernder Software, ohne Ihr Leben zu zerstören

Sie können Ihre Programmierkenntnisse nicht verbessern, wenn sich niemand um die Softwarequalität kümmert.

UNIVAC rechnet ab

"Die Utopie der automatischen Produktion ist von Natur aus plausibel", schrieb Theodore Callow in "The Sociology of Work". Mauchly und J. Presper Eckert lieferten Belege für diese Schlussfolgerung, als am Freitag, dem 15. Oktober 1954, die ersten automatisierten Gehaltsabrechnungen durchgeführt wurden. Die Aufgaben von General Electrics UNIVAC waren alltäglich: Inventur, Auftragsverwaltung, Buchhaltung sowie Gehaltsabrechnung. Die Gehaltsabrechnung an diesem Freitag war eine klare Demonstration des Potenzials digitaler Berechnungen für kommerzielle Anwendungen.

Mauchly und Eckert hatten sich als Innovatoren bewährt. Der ENIAC und der EDVAC sind legendäre Beispiele für Pionierleistungen auf diesem Gebiet. Diese frühen Bemühungen konzentrierten sich jedoch auf staatliche, militärische und akademische Projekte. Dies war ein wichtiger Meilenstein für die zunehmenden Beiträge des Computers zum Wirtschaftsunternehmen und zur Gesellschaft im Allgemeinen.

IBMs "Professor RAMAC"

Mit fortschreitender Rechenleistung erkannten die Ingenieure die Notwendigkeit besserer Methoden zum Verwalten und Zugreifen auf Daten. Die Modell 305-Plattenspeichereinheit oder RAMAC (Random Access Memory Accounting Machine) war die Antwort. Bei einer Drehzahl von 1200 U / min und einem Durchmesser von 24 Zoll wurden fünfzig Aluminiumscheiben gestapelt und fünf Millionen Zeichen gespeichert. "Zufälliger Zugriff" bedeutet, dass auf Befehl auf alle Daten zugegriffen werden kann. (Um einen Eindruck davon zu bekommen, wie die Technologie zu dieser Zeit aussah, lesen Sie bitte Dies ist, wie eine 5-MB-Festplatte im Jahr 1956 aussah.)

Der IBM-Präsident war begeistert, die Maschine auf der Weltausstellung 1958 in Brüssel der Welt vorzustellen. Die Besucher konnten auf wundersame Weise „Professor RAMAC“ über eine Tastatur abfragen und Antworten in einer von zehn Sprachen erhalten. Das glorreiche Ereignis wurde von IBMs Präsident als "der größte Produkttag in der Geschichte von IBM" angekündigt.

Die Erfinder der integrierten Schaltung

Es ist nicht ungewöhnlich, dass eine große Innovation von zwei getrennten Erfindern ungefähr zur gleichen Zeit durchgeführt wird. Das ist was mit Jack Kilby und Robert Noyce passiert ist.

Vier Komponenten waren erforderlich, um Computerschaltungen funktionsfähig zu machen: Transistoren, Widerstände, Dioden und Kondensatoren. Diese Technologiepioniere arbeiteten unabhängig voneinander und stellten fest, dass es möglich ist, diese Funktionen in einer einzigen Komponente zu vereinen: der integrierten Schaltung. Damit es funktioniert, stellten sie fest, dass sie elektrische Pfade auf die Siliziumoxidbeschichtung legen können.

Trotz langwieriger gerichtlicher Auseinandersetzung beschlossen die beiden Erfinder schließlich, das Patent zu teilen. Noyce gründete Intel. Beide Männer würden die National Medal of Science erhalten - Kilby im Jahr 1969 und Noyce im Jahr 1979. Kilby gewann den Nobelpreis für die Erfindung im Jahr 2000 und würdigte Noyce in seiner Dankesrede angemessen.

Steve Wozniaks Bildschirm

Steve Wozniak, der sich "The Woz" nannte, war in den 1970er Jahren auch als Serienprankster und Studienabbrecher bekannt. Jetzt kennen wir ihn als Genie. (Oder war es sein Partner Steve Jobs, der das Genie war? Wozniaks Vater verfluchte Jobs und sagte, dass sein Sohn die ganze Arbeit geleistet hatte - Jobs zu Tränen gerührt, wie es einigen Berichten zufolge der Fall war.) sein eigenes. Er nahm am ersten Treffen des Homebrew Computer Club teil, einem Treffen der Hippie-Hacker-Kultur, die sich in der San Francisco Bay entwickelt hatte.

Als Designer von Videoterminals erkannte Wozniak nach dem Treffen, dass er die Leistung des Mikroprozessors auf eine Weise einsetzen konnte, die andere übersehen hatten. Er nutzte seine Erkenntnisse und entwickelte schnell einen eigenständigen Computer, der auf Tastatureingaben reagierte. Um 22.00 Uhr am Sonntag, dem 28. Juni 1975, tippte Wozniak auf seiner Tastatur und Buchstaben erschienen auf dem Bildschirm. Der Apple PC wurde geboren. Die Träume der amerikanischen Elektro-Hobbyisten wurden Wirklichkeit, und die Computerbranche würde niemals die gleiche sein. (Weitere Informationen zu Apple und seiner Entwicklung im Laufe der Jahre finden Sie unter Erstellen der iWorld: Eine Geschichte von Apple.)

Schlüsselinnovationen wie diese hatten großen Einfluss auf die spätere Entwicklung im Bereich Computing. Die digitale Umgebung, die wir heute nutzen, ist das Ergebnis einer kumulativen Anstrengung von großen Teams und individuellen Genies. Diese Meilensteine ​​sind unter den zahlreichen Beiträgen auf diesem Gebiet bemerkenswert.