Skip to main content

Vad är parallella operativsystem?

Parallella operativsystem används för att gränssnittliga flera nätverksdatorer för att slutföra uppgifter parallellt.Programvarans arkitektur är ofta en UNIX-baserad plattform, som gör att den kan samordna distribuerade belastningar mellan flera datorer i ett nätverk.Parallella operativsystem kan använda programvara för att hantera alla olika resurser för datorerna som körs parallellt, till exempel minne, cachar, lagringsutrymme och bearbetningskraft.Parallella operativsystem tillåter också en användare att direkt gränssnittet med alla datorer i nätverket.

Ett parallellt operativsystem fungerar genom att dela uppsättningar av beräkningar i mindre delar och distribuera dem mellan maskinerna i ett nätverk.För att underlätta kommunikation mellan processorkärnorna och minnesuppsättningarna måste routingprogramvara antingen dela sitt minne genom att tilldela samma adressutrymme till alla nätverksdatorer, eller distribuera sitt minne genom att tilldela ett annat adressutrymme till varje bearbetningskärna.Att dela minne gör att operativsystemet kan köras mycket snabbt, men det är vanligtvis inte lika kraftfullt.När man använder distribuerat delat minne har processorer tillgång till både sitt eget lokala minne och minnet från andra processorer;Denna distribution kan bromsa operativsystemet, men det är ofta mer flexibelt och effektivt.

De flesta vetenskapsområden, inklusive bioteknik, kosmologi, teoretisk fysik, astrofysik och datavetenskap, använder parallella operativsystem för att använda kraften i parallell datoranvändning.Dessa typer av systemuppsättningar hjälper också till att skapa effektivitet i sådana branscher som konsultation, ekonomi, försvar, telekom och väderprognos.Faktum är att parallell datoranvändning har blivit så robust att den har använts av kosmologer för att svara på frågor om universums ursprung.Dessa forskare kunde köra simuleringar av stora delar av rymden på en gång mdash;Det tog bara en månad för forskare att sammanställa en simulering av bildandet av Vintergatan, en prestation som tidigare tros vara omöjlig.

Forskare, undersökningar och branscher väljer ofta att använda parallella operativsystem på grund av dess kostnadseffektivitet också.Det kostar mycket mindre pengar att montera ett parallellt datornätverk än det kostar att utveckla och bygga en superdator för forskning.Parallella system är också helt modulära, vilket gör att billiga reparationer och uppgraderingar kan göras.

1967 konceptualiserade Gene Amdahl, medan han arbetade på IBM, idén att använda programvara för att samordna parallell datoranvändning.Han släppte sina resultat i ett papper som heter Amdahls Law , som beskrev den teoretiska ökningen av processen som man kunde förvänta sig av att driva ett nätverk med ett parallellt operativsystem.Hans forskning ledde till utvecklingen av paketbyte och därmed till det moderna parallella operativsystemet.Denna ofta förbises utveckling av paketomkoppling var också genombrottet som senare startade Arpanet -projektet, som är ansvarigt för den grundläggande grunden för världens största parallella datornätverk: Internet.