Skip to main content

Wat zijn parallelle besturingssystemen?

Parallelle besturingssystemen worden gebruikt om meerdere netwerkcomputers te interfaces om taken parallel te voltooien.De architectuur van de software is vaak een UNIX-gebaseerd platform, waarmee het gedistribueerde belastingen tussen meerdere computers in een netwerk kan coördineren.Parallelle besturingssystemen kunnen software gebruiken om alle verschillende bronnen te beheren van de computers die parallel worden uitgevoerd, zoals geheugen, caches, opslagruimte en verwerkingskracht.Met parallelle besturingssystemen kunnen een gebruiker ook rechtstreeks communiceren met alle computers in het netwerk.

Een parallel besturingssysteem werkt door sets berekeningen in kleinere onderdelen te delen en deze te distribueren tussen de machines op een netwerk.Om de communicatie tussen de processorkernen en geheugenarrays te vergemakkelijken, moet routingsoftware zijn geheugen delen door dezelfde adresruimte toe te wijzen aan alle netwerkcomputers of het geheugen te verdelen door een andere adresruimte toe te wijzen aan elke verwerkingskern.Door geheugen te delen, kan het besturingssysteem zeer snel worden uitgevoerd, maar het is meestal niet zo krachtig.Bij het gebruik van gedistribueerd gedeeld geheugen hebben processors toegang tot zowel hun eigen lokale geheugen als het geheugen van andere processors;Dit soort systeemopstellingen helpen ook bij het creëren van efficiëntie in industrieën zoals advies, financiën, defensie, telecom en weersvoorspelling.Parallel computing is zelfs zo robuust geworden dat het door kosmologen is gebruikt om vragen te beantwoorden over de oorsprong van het universum.Deze wetenschappers konden simulaties van grote delen van de ruimte allemaal tegelijkertijd uitvoeren mdash;Het duurde slechts één maand voordat wetenschappers een simulatie van de vorming van de Melkweg samenstellen, een prestatie die eerder onmogelijk werd beschouwd.

Wetenschappers, onderzoeken en industrieën kiezen er vaak voor om parallelle besturingssystemen te gebruiken vanwege de kosteneffectiviteit.Het kost veel minder geld om een parallel computernetwerk samen te stellen dan het kost om een supercomputer voor onderzoek te ontwikkelen en te bouwen.Parallelle systemen zijn ook volledig modulair, waardoor goedkope reparaties en upgrades kunnen worden uitgevoerd.

In 1967 heeft Gene Amdahl, terwijl hij bij IBM werkte, het idee geconceptualiseerd om software te gebruiken om parallel computing te coördineren.Hij liet zijn bevindingen vrij in een paper genaamd

Amdahls Law

, die de theoretische toename van de verwerkingskracht schetste die men zou kunnen verwachten van het runnen van een netwerk met een parallel besturingssysteem.Zijn onderzoek leidde tot de ontwikkeling van pakketomschakeling en dus tot het moderne parallelle besturingssysteem.Deze vaak over het hoofd geziene ontwikkeling van pakketwisseling was ook de doorbraak die later begon met het Arpanet -project, dat verantwoordelijk is voor de basisstichting van 's werelds grootste parallel computernetwerk: het internet.