Skip to main content

Hvad er parallelle operativsystemer?

Parallelle operativsystemer bruges til at interface flere netværkscomputere til at udføre opgaver parallelt.Softwarens arkitektur er ofte en UNIX-baseret platform, der giver den mulighed for at koordinere distribuerede belastninger mellem flere computere i et netværk.Parallelle operativsystemer er i stand til at bruge software til at styre alle de forskellige ressourcer på computere, der kører parallelt, såsom hukommelse, cacher, lagerplads og behandlingskraft.Parallelle operativsystemer giver også en bruger mulighed for direkte at interface med alle computere i netværket.

Et parallelt operativsystem fungerer ved at opdele sæt beregninger i mindre dele og distribuere dem mellem maskinerne på et netværk.For at lette kommunikationen mellem processorkerner og hukommelsesarrays skal rutesoftware enten dele sin hukommelse ved at tildele det samme adresserum til alle netværkscomputere eller distribuere dens hukommelse ved at tildele et andet adresserum til hver behandling af kernen.Deling af hukommelse giver operativsystemet mulighed for at køre meget hurtigt, men det er normalt ikke så kraftfuldt.Når man bruger distribueret delt hukommelse, har processorer adgang til både deres egen lokale hukommelse og mindet om andre processorer;Denne distribution kan bremse operativsystemet, men det er ofte mere fleksibelt og effektivt.

De fleste videnskabsområder, herunder bioteknologi, kosmologi, teoretisk fysik, astrofysik og datalogi, bruger parallelle operativsystemer til at bruge kraften i parallel computing.Disse typer systemopsætninger hjælper også med at skabe effektivitet i sådanne industrier som rådgivning, finans, forsvar, telekom og vejrprognoser.Faktisk er parallel computing blevet så robust, at den er blevet brugt af kosmologer til at besvare spørgsmål om universets oprindelse.Disse forskere var i stand til at køre simuleringer af store dele af rummet på én gang mdash;Det tog kun en måned for forskere at udarbejde en simulering af dannelsen af Mælkevejen, en bedrift, der tidligere blev antaget at være umulig.

Forskere, undersøgelser og industrier vælger ofte at bruge parallelle operativsystemer på grund af dets omkostningseffektivitet.Det koster langt mindre penge at samle et parallelt computernetværk, end det koster at udvikle og opbygge en supercomputer til forskning.Parallelle systemer er også fuldstændigt modulære, hvilket tillader billige reparationer og opgraderinger at blive foretaget.

I 1967 konceptualiserede Gene Amdahl, mens han arbejdede hos IBM, ideen om at bruge software til at koordinere parallel computing.Han frigav sine konklusioner i et papir kaldet Amdahls Law , som skitserede den teoretiske stigning i behandlingskraft, man kunne forvente af at køre et netværk med et parallelt operativsystem.Hans forskning førte til udviklingen af pakkeomskiftning og dermed til det moderne parallelle operativsystem.Dette overså ofte udviklingen af pakkeomskiftning også det gennembrud, der senere startede ARPANET -projektet, som er ansvarlig for det grundlæggende fundament for verdens største parallelle computernetværk: Internettet.