Warum Quantum Computing der nächste Schritt auf dem Big Data Highway sein könnte

Autor: Judy Howell
Erstelldatum: 27 Juli 2021
Aktualisierungsdatum: 1 Kann 2024
Anonim
Warum Quantum Computing der nächste Schritt auf dem Big Data Highway sein könnte - Technologie
Warum Quantum Computing der nächste Schritt auf dem Big Data Highway sein könnte - Technologie

Inhalt


Quelle: Krishnacreations / Dreamstime.com

Wegbringen:

Die Computertechnologie ist seit Jahrzehnten auf dem gleichen Weg, aber das Quantencomputing ist eine große Abweichung von dem, was davor war.

Am 28. September 2012 veröffentlichte die New York Times die Geschichte "Australier auf der Suche nach einer neuen Computerklasse", in der es um einen scheinbaren Durchbruch im Wettlauf um den Bau eines funktionierenden Quantencomputers geht.

Während die Definition eines Quantencomputers viele Leser ansprechen wird, genügt es zu sagen, dass ein funktionierender Quantencomputer in der Welt der Technologie revolutionär sein wird.

Die Computertechnologie liegt den Veränderungen in der Welt zugrunde, die wir in den letzten 50 Jahren erlebt haben - die Weltwirtschaft, das Internet, die digitale Fotografie, die Robotik, Smartphones und der elektronische Handel sind alle auf Computer angewiesen. Daher ist es meines Erachtens wichtig, dass wir ein grundlegendes Verständnis der Technologie haben, um zu verstehen, wohin Quantencomputer uns führen könnten.


Am Anfang war ENIAC

Fangen wir also am Anfang an. Der erste funktionierende elektronische Computer war der Electronic Numerical Integrator and Computer, besser bekannt als ENIAC. Es wurde an der Moore School of Engineering der Universität von Pennsylvania entwickelt und von der US-Armee finanziert, um die Flugbahnen von Schützen im Zweiten Weltkrieg zu berechnen. (Das ENIAC war nicht nur ein Wunder der Ingenieurskunst, sondern hat in den letzten Jahren auch den Weg für viele große IT-Projekte geebnet. Für den Zweiten Weltkrieg war es jedoch zu spät, da dieser noch vor der Fertigstellung des Computers endete.)

Das Herzstück der Verarbeitungskapazität von ENIAC waren Vakuumröhren - 17.468 davon. Da eine Vakuumröhre nur zwei Zustände hat - Aus und Ein (auch als 0/1 bezeichnet) -, haben Computer die Binärarithmetik anstelle der Dezimalarithmetik übernommen, wobei die Werte zwischen 0 und 9 liegen. Jede dieser einzelnen Darstellungen wird als Bit bezeichnet. Kurz für "Binärziffer". (Weitere Informationen zur Geschichte des ENIAC finden Sie unter Die Frauen von ENIAC: Programmiererinnen.)


Offensichtlich musste es eine Möglichkeit geben, die uns bekannten Zahlen, Buchstaben und Symbole darzustellen, so ein vom American National Standards Institute (ANSI) vorgeschlagenes Kodierungsschema, bekannt als American Standard Character Information Interchange (ASCII). wurde schließlich zum Standard. Unter ASCII kombinieren wir 8 Bits, um ein Zeichen oder Byte unter einem vorgegebenen Schema zu bilden. Es gibt 256 Kombinationen, die Zahlen, Großbuchstaben, Kleinbuchstaben und Sonderzeichen darstellen.

Verwirrt? Machen Sie sich keine Sorgen, der durchschnittliche Computerbenutzer muss die Details nicht kennen. Es wird hier nur als Baustein dargestellt.

Als nächstes entwickelten sich Computer ziemlich schnell von Vakuumröhren zu Transistoren (William Shockley und sein Bell Labs-Team gewannen den Nobelpreis für die Entwicklung von Transistoren) und dann die Fähigkeit, mehrere Transistoren auf einen Chip zu setzen, um integrierte Schaltkreise zu erzeugen. Es dauerte nicht lange, bis diese Schaltungen Tausende oder sogar Millionen von Transistoren auf einem Chip enthielten, was als Integration in großem Maßstab bezeichnet wurde. Diese Kategorien: 1) Vakuumröhren, 2) Transistoren, 3) ICs und 4) VLSI gelten als die vier Generationen der Hardwareentwicklung, unabhängig davon, wie viele Transistoren auf einen Chip gesteckt werden können.

Keine Bugs, kein Stress - Ihre schrittweise Anleitung zur Erstellung lebensverändernder Software, ohne Ihr Leben zu zerstören

Sie können Ihre Programmierkenntnisse nicht verbessern, wenn sich niemand um die Softwarequalität kümmert.

In der Zeit seit dem "Go-Live" der ENIAC im Jahr 1946 und über all diese Generationen hinweg ist die zugrunde liegende Verwendung der auf Vakuumröhren basierenden binären Arithmetik erhalten geblieben. Quantum Computing ist eine radikale Abkehr von dieser Methodik.

Quantum Computing: Der große Durchbruch

Quantencomputer nutzen die Kraft von Atomen und Molekülen, um Speicheraufgaben wesentlich schneller zu verarbeiten und auszuführen als ein Computer auf Siliziumbasis - zumindest theoretisch. Obwohl es einige grundlegende Quantencomputer gibt, die bestimmte Berechnungen durchführen können, ist ein praktisches Modell wahrscheinlich noch einige Jahre entfernt. Wenn sie jedoch auftauchen, können sie die Rechenleistung von Computern drastisch verändern.

Aufgrund dieser Leistung kann das Quantencomputing die Verarbeitung großer Datenmengen erheblich verbessern, da es sich zumindest theoretisch bei der massiv parallelen Verarbeitung unstrukturierter Daten auszeichnen sollte.

Computer haben die Binärverarbeitung aus einem Grund fortgesetzt: Es gab wirklich keinen Grund, an etwas zu basteln, das funktionierte. Immerhin hat sich die Verarbeitungsgeschwindigkeit des Computers alle 18 Monate auf zwei Jahre verdoppelt. 1965 schrieb Intel-Vizepräsident Gordon Moore ein Papier, in dem das so genannte Mooresche Gesetz detailliert beschrieben wurde, in dem er feststellte, dass sich die Prozessordichte alle zwei Jahre verdoppeln würde, was zu einer Verdoppelung der Verarbeitungsgeschwindigkeit führen würde. Obwohl er geschrieben hatte, dass dieser Trend 10 Jahre anhalten würde, hat er sich - bemerkenswerterweise - bis heute fortgesetzt. (Es gab einige Computerpioniere, die die Binärform gebrochen haben. Weitere Informationen finden Sie unter Warum nicht ternäre Computer?)

Die Erhöhung der Verarbeitungsgeschwindigkeit war jedoch bei weitem nicht der einzige Faktor für eine verbesserte Computerleistung. Verbesserungen in der Speichertechnologie und das Aufkommen der Telekommunikation waren fast gleich wichtig. In den Anfängen von PCs enthielten Disketten 140.000 Zeichen, und die erste Festplatte, die ich gekauft habe, enthielt 10 Millionen Zeichen. (Es kostete mich auch 5.500 US-Dollar und war so groß wie ein Desktop-Computer). Zum Glück hat der Speicher eine viel größere Kapazität, eine kleinere Größe, eine schnellere Übertragungsgeschwindigkeit und ist viel billiger geworden.

Die enorme Kapazitätserweiterung ermöglicht es uns, Informationen in Bereichen zu sammeln, in denen wir bisher entweder nur die Oberfläche zerkratzt oder gar nicht erst recherchiert haben. Dazu gehören unter anderem datenreiche Themen wie Wetter, Genetik, Linguistik, wissenschaftliche Simulation und Gesundheitsforschung.

Big Data verstehen

Zunehmend stellen Big-Data-Exploits fest, dass dies trotz aller gewonnenen Rechenleistung nicht ausreicht. Wenn wir in der Lage sein wollen, aus dieser enormen Menge an Daten, die wir sammeln, einen Sinn zu machen, brauchen wir neue Möglichkeiten, sie zu analysieren und darzustellen, sowie schnellere Computer, um sie zu verarbeiten. Quantencomputer sind möglicherweise nicht einsatzbereit, aber Experten haben jeden Fortschritt als die nächste Stufe der Computer-Rechenleistung beobachtet. Wir können es nicht mit Sicherheit sagen, aber die nächste große Veränderung in der Computertechnologie könnte eine echte Abkehr von den Silizium-Chips sein, die uns bisher mitgebracht haben.