Skip to main content

Hva er parallelle operativsystemer?

Parallelle operativsystemer brukes til å grensesnitt flere nettverksdatamaskiner for å fullføre oppgaver parallelt.Arkitekturen til programvaren er ofte en UNIX-basert plattform, som lar den koordinere distribuerte belastninger mellom flere datamaskiner i et nettverk.Parallelle operativsystemer er i stand til å bruke programvare for å administrere alle de forskjellige ressursene til datamaskinene som kjører parallelt, for eksempel minne, hurtigbuffer, lagringsplass og prosesseringskraft.Parallelle operativsystemer lar også en bruker direkte grensesnitt mot alle datamaskinene i nettverket.

Et parallelt operativsystem fungerer ved å dele sett med beregninger i mindre deler og distribuere dem mellom maskinene i et nettverk.For å lette kommunikasjonen mellom prosessorkjernene og minnetarrays, må rutingsprogramvare enten dele minnet ved å tildele samme adresseområde til alle nettverksdatamaskiner, eller distribuere minnet ved å tildele et annet adresseom til hver prosesseringskjerne.Deling av minne lar operativsystemet kjøre veldig raskt, men det er vanligvis ikke så kraftig.Når du bruker distribuert delt minne, har prosessorer tilgang til både sitt eget lokale minne og minnet om andre prosessorer;Denne distribusjonen kan bremse operativsystemet, men det er ofte mer fleksibelt og effektivt.

De fleste vitenskapsfelt, inkludert bioteknologi, kosmologi, teoretisk fysikk, astrofysikk og informatikk, bruker parallelle operativsystemer for å bruke kraften til parallell databehandling.Disse typene systemoppsett er også med på å skape effektivitet i bransjer som rådgivning, finans, forsvar, telekom og værmelding.Faktisk har parallell databehandling blitt så robust at den har blitt brukt av kosmologer for å svare på spørsmål om universets opprinnelse.Disse forskerne var i stand til å kjøre simuleringer av store deler av rommet på en gang mdash;Det tok bare en måned for forskere å sammenstille en simulering av dannelsen av Melkeveien, en bragd som tidligere er antatt å være umulig.

Forskere, undersøkelser og bransjer velger ofte å bruke parallelle operativsystemer på grunn av kostnadseffektiviteten også.Det koster langt mindre penger å sette sammen et parallelt datanettverk enn det koster å utvikle og bygge en super datamaskin for forskning.Parallelle systemer er også helt modulære, slik at billige reparasjoner og oppgraderinger gjøres.

I 1967 konseptualiserte Gene Amdahl, mens han jobbet ved IBM, ideen om å bruke programvare for å koordinere parallell databehandling.Han ga ut funnene sine i en artikkel kalt Amdahls Law , som skisserte den teoretiske økningen i prosesseringskraften man kunne forvente av å drive et nettverk med et parallelt operativsystem.Forskningen hans førte til utvikling av pakkebytte, og dermed til det moderne parallelle operativsystemet.Denne ofte oversett utviklingen av pakkeomkobling var også gjennombruddet som senere startet ARPANET -prosjektet, som er ansvarlig for det grunnleggende grunnlaget for verdens største parallelle datanettverk: Internett.