Skip to main content

Was sind parallele Betriebssysteme?

Parallele Betriebssysteme werden verwendet, um mehrere vernetzte Computer zu verknüpfen, um Aufgaben parallel zu erledigen.Die Architektur der Software ist häufig eine Unix-basierte Plattform, mit der verteilte Lasten zwischen mehreren Computern in einem Netzwerk koordinieren können.Parallele Betriebssysteme können Software verwenden, um alle verschiedenen Ressourcen der parallelen Computer wie Speicher, Caches, Speicherplatz und Verarbeitungsleistung zu verwalten.Parallele Betriebssysteme ermöglichen es einem Benutzer außerdem, direkt mit allen Computern im Netzwerk zu schneiden.

Ein paralleles Betriebssystem bewirkt, indem sie Berechnungssätze in kleinere Teile unterteilt und diese zwischen den Maschinen in einem Netzwerk verteilen.Um die Kommunikation zwischen den Prozessorkernen und Speicherarrays zu erleichtern, muss Routing -Software entweder ihren Speicher teilen, indem er allen vernetzten Computern denselben Adressraum zuweist, oder den Speicher verteilen, indem Sie jedem Verarbeitungskern einen anderen Adressraum zuweisen.Das Teilen von Speicher ermöglicht es dem Betriebssystem, sehr schnell zu laufen, aber es ist normalerweise nicht so leistungsstark.Bei Verwendung verteilter gemeinsamer Speicher haben Prozessoren Zugriff auf ihren eigenen lokalen Speicher und den Speicher anderer Prozessoren.Diese Verteilung kann das Betriebssystem verlangsamen, ist jedoch oft flexibler und effizienter.Diese Arten von Systemaufnahmen tragen auch dazu bei, Effizienz in Branchen wie Beratung, Finanzen, Verteidigung, Telekommunikation und Wettervorhersage zu schaffen.Tatsächlich ist das Parallelcomputer so robust geworden, dass es von Kosmologen verwendet wurde, um Fragen zum Ursprung des Universums zu beantworten.Diese Wissenschaftler konnten Simulationen großer Weltraumabschnitte auf einmal und mdash durchführen.Es dauerte nur einen Monat, bis Wissenschaftler eine Simulation der Bildung der Milchstraße erstellt haben, eine bisher als unmöglich angesehene Leistung.Es kostet weitaus weniger Geld, ein parallele Computernetzwerk zusammenzustellen, als es kostet, einen Super -Computer für die Forschung zu entwickeln und zu erstellen.Parallele Systeme sind ebenfalls vollständig modular, sodass kostengünstige Reparaturen und Upgrades durchgeführt werden können.

1967 konzipierte Gene Amdahl bei IBM die Idee, Software zur Koordinierung des parallelen Computers zu verwenden.Er veröffentlichte seine Erkenntnisse in einem Papier namens

Amdahls Law

, in dem die theoretische Zunahme der Verarbeitungsleistung dargelegt wurde, die man erwarten kann, wenn man ein Netzwerk mit einem parallelen Betriebssystem ausführt.Seine Forschung führte zur Entwicklung des Paketwechsels und damit zu dem modernen parallelen Betriebssystem.Diese oft übersehene Entwicklung des Paketumschusses war auch der Durchbruch, der später das Arpanet -Projekt begann, das für die grundlegende Grundlage des größten parallelen Computernetzwerks der Welt verantwortlich ist: das Internet.