Skip to main content

Que sont les systèmes d'exploitation parallèles?

Les systèmes d'exploitation parallèles sont utilisés pour interfacer plusieurs ordinateurs en réseau pour effectuer des tâches en parallèle.L'architecture du logiciel est souvent une plate-forme basée sur Unix, qui lui permet de coordonner les charges distribuées entre plusieurs ordinateurs d'un réseau.Les systèmes d'exploitation parallèles sont capables d'utiliser un logiciel pour gérer toutes les différentes ressources des ordinateurs exécutés en parallèle, tels que la mémoire, les caches, l'espace de stockage et la puissance de traitement.Les systèmes d'exploitation parallèles permettent également à un utilisateur d'interfacer directement avec tous les ordinateurs du réseau.

Un système d'exploitation parallèle fonctionne en divisant des ensembles de calculs en pièces plus petites et en les distribuant entre les machines sur un réseau.Pour faciliter la communication entre les cœurs de processeur et les tableaux de mémoire, le logiciel de routage doit soit partager sa mémoire en attribuant le même espace d'adressage à tous les ordinateurs en réseau, soit distribuer sa mémoire en attribuant un espace d'adressage différent à chaque noyau de traitement.Le partage de la mémoire permet au système d'exploitation de s'exécuter très rapidement, mais il n'est généralement pas aussi puissant.Lors de l'utilisation de la mémoire partagée distribuée, les processeurs ont accès à la fois à leur propre mémoire locale et à la mémoire des autres processeurs;Cette distribution peut ralentir le système d'exploitation, mais elle est souvent plus flexible et efficace.

La plupart des domaines de la science, y compris la biotechnologie, la cosmologie, la physique théorique, l'astrophysique et l'informatique, utilisent des systèmes d'exploitation parallèles pour utiliser la puissance de l'informatique parallèle.Ces types de configurations de systèmes contribuent également à créer une efficacité dans des industries telles que le conseil, la finance, la défense, les télécommunications et les prévisions météorologiques.En fait, l'informatique parallèle est devenue si robuste qu'elle a été utilisée par les cosmologues pour répondre aux questions sur l'origine de l'univers.Ces scientifiques ont pu gérer des simulations de grandes sections d'espace à la fois et Mdash;Il n'a fallu qu'un mois aux scientifiques pour compiler une simulation de la formation de la Voie lactée, un exploit qui était auparavant considéré comme impossible.

Les scientifiques, les recherches et les industries choisissent souvent d'utiliser également des systèmes d'exploitation parallèles en raison de sa rentabilité.Il en coûte beaucoup moins d'argent pour assembler un réseau informatique parallèle qu'il en coûte pour développer et construire un super ordinateur pour la recherche.Les systèmes parallèles sont également entièrement modulaires, ce qui permet de faire des réparations et des améliorations peu coûteuses.

En 1967, Gene Amdahl, tout en travaillant chez IBM, a conceptualisé l'idée d'utiliser un logiciel pour coordonner l'informatique parallèle.Il a publié ses conclusions dans un article appelé Amdahls Law , qui a décrit l'augmentation théorique de la puissance de traitement que l'on pourrait attendre de l'exécution d'un réseau avec un système d'exploitation parallèle.Ses recherches ont conduit au développement de la commutation des paquets, et donc au système d'exploitation parallèle moderne.Ce développement souvent négligé de la commutation des paquets était également la percée qui a commencé plus tard le projet Arpanet, qui est responsable des bases de base du plus grand réseau informatique parallèle le plus grand: Internet.