Skip to main content

Quali sono i sistemi operativi paralleli?

I sistemi operativi paralleli vengono utilizzati per interfacciarsi più computer in rete per completare le attività in parallelo.L'architettura del software è spesso una piattaforma basata su Unix, che gli consente di coordinare carichi distribuiti tra più computer in una rete.I sistemi operativi paralleli sono in grado di utilizzare il software per gestire tutte le diverse risorse dei computer in esecuzione in parallelo, come memoria, cache, spazio di archiviazione e potenza di elaborazione.I sistemi operativi paralleli consentono inoltre a un utente di interfacciarsi direttamente con tutti i computer della rete.

Un sistema operativo parallelo funziona dividendo set di calcoli in parti più piccole e distribuendoli tra le macchine su una rete.Per facilitare la comunicazione tra i core del processore e gli array di memoria, il software di routing deve condividere la sua memoria assegnando lo stesso spazio di indirizzi a tutti i computer in rete o distribuendo la sua memoria assegnando uno spazio di indirizzo diverso a ciascun core di elaborazione.La condivisione della memoria consente al sistema operativo di funzionare molto rapidamente, ma di solito non è così potente.Quando si utilizzano memoria condivisa distribuita, i processori hanno accesso sia alla propria memoria locale che alla memoria di altri processori;Questa distribuzione può rallentare il sistema operativo, ma è spesso più flessibile ed efficiente.Questi tipi di configurazioni di sistema aiutano anche a creare efficienza in settori quali consulenza, finanza, difesa, telecomunicazione e previsioni meteorologiche.In effetti, il calcolo parallelo è diventato così robusto che è stato usato dai cosmologi per rispondere a domande sull'origine dell'universo.Questi scienziati sono stati in grado di eseguire simulazioni di grandi sezioni di spazio tutte in una volta mdash;Ci sono voluti solo un mese per gli scienziati per compilare una simulazione della formazione della Via Lattea, un'impresa precedentemente ritenuta impossibile.

Scienziati, ricerche e industrie spesso scelgono di utilizzare sistemi operativi paralleli a causa della sua efficacia in termini di costi.Costa molto meno denaro per assemblare una rete di computer paralleli di quanto costa sviluppare e costruire un super computer per la ricerca.I sistemi paralleli sono anche completamente modulari, consentendo di apportare riparazioni e aggiornamenti economici.

Nel 1967, Gene Amdahl, mentre lavorava in IBM, ha concettualizzato l'idea di utilizzare il software per coordinare il calcolo parallelo.Ha rilasciato le sue scoperte in un articolo chiamato

Amdahls Law

, che ha delineato l'aumento teorico della potenza di elaborazione che ci si potrebbe aspettare dall'esecuzione di una rete con un sistema operativo parallelo.La sua ricerca ha portato allo sviluppo della commutazione dei pacchetti e quindi al moderno sistema operativo parallelo.Questo sviluppo spesso trascurato della commutazione dei pacchetti è stata anche la svolta che in seguito ha avviato il progetto Arpanet, che è responsabile delle basi di base della più grande rete di computer paralleli più grande del mondo: Internet.