Skip to main content

Hva er databehandling med høy ytelse?

Høy ytelse databehandling (HPC) er bruken av avansert datateknologi, for eksempel superdatamaskiner og parallelle prosesseringsalgoritmer, for å finne ut komplekse beregningsproblemer.Teknologien brukes mest av de innen vitenskap, militæret og akademia.Etter hvert som forretningstransaksjoner blir mer komplekse, blir HPC brukt på områdene med datalagring og transaksjonsbehandling, samt gruvedrift eller bruk, hastighet og effekt.Parallell prosessering, som bruker mer enn en sentral prosesseringsenhet (CPU) for å beregne et problem og teknisk sett bør gjøre beregningen mye raskere, er nøkkelen til HPC -suksess.Andre former for økt beregningshastighet, inkludert flere datamaskiner som er koblet sammen kjent som grupperte datamaskiner, bidrar også til høyytelsesdatabirkdata.

Supercomputers brukes også i prosessen med høy ytelse databehandling.Begrepene superdatamaskin og superdatamaskiner kan være forvirrende fordi de noen ganger blir utvekslet med begrepene høy ytelse databehandling og datamaskin med høy ytelse, men de kan også betraktes som en spesialisert form for databehandling med høy ytelse.Mengden beregninger med tall den kan utføre per sekund.Flytende punkt refererer til desimalpunktet i et tall som, siden det er "flytende, kan representere et tall med en høyere grad av nøyaktighet enn en fast punktoperasjon.Mengden flops som trengs for å betraktes som en superdatamaskin er en teraflop eller mer, en verdi uttrykt som 10 til den 12. kraften i vitenskapelig notasjon, eller 1.000.000.000.000.000.000.Det er imidlertid superdatamaskiner som kan gå opp til Petaflops, som er 1.000.000.000.000.000.000.000 fløy.Når den brukes på denne måten, blir HPC referert til som teknisk databehandling med høy ytelse (HPTC).Det er overlapping mellom alle feltene, så det er ikke alltid klart hva som utgjør HPTC eller HPC, og begrepene er på mange måter synonyme.

De beste datamaskinene med høy ytelse er lagret i en liste kjent som Top500.Denne listen ble opprettet for å sentralisere en database samt lage kriterier for å definere høyytelsesdatabutikkstandarder.Det oppbevares av forskere i Tyskland og USA, og oppdateres to ganger per år.