Skip to main content

Cos'è la codifica di origine distribuita?

Nella teoria della comunicazione e dell'informazione, la codifica di origine distribuita (DSC) è un problema cruciale che descrive la compressione di fonti di informazione che sono correlate nei multipli ma che non possono comunicare tra loro.DSC consente ai paradigmi di relazione nella codifica video che scambia la complessità di encoder e decodificatori, rappresentando un cambiamento concettuale nell'elaborazione video.Una correlazione con molte fonti può essere modellata tra codici di canale e lati del decodificatore, consentendo la codifica della sorgente distribuita per spostare la complessità computazionale tra il lato dell'encoder e il lato decodificatore.Ciò fornisce un framework appropriato per le applicazioni che dispongono di un mittente che è tesa complessità, come una rete di sensori o una compressione video.

Due uomini di nome Jack K. Wolf e David Slepian hanno proposto un limite teorico della compressione senza perdita di perdita sulla codifica di origine distribuita, che ora è chiamata teorema del lupo di Slepian o legato.Il limite è stato proposto in termini di entropia con fonti correlate di informazioni nel 1973. Una delle cose che sono state in grado di presentare era che due fonti separate e isolate sono in grado di comprimere i dati in modo efficiente e come se entrambe le fonti comunicassero direttamente l'una all'altra.Più tardi, nel 1975, un uomo di nome Thomas M. Cover ha esteso questo teorema a un'istanza di più di due fonti.

Nella codifica di origine distribuita, sono codificate più fonti dipendenti con decodificatori e codificatori separati.Il teorema del lupo di Slepian, che rappresenta queste fonti come due diverse variabili, presuppone che due segnali separati e correlati provenissero da fonti diverse e non comunicano tra loro.Questi sono gli encoder e i loro segnali vengono trasferiti a un ricevitore, che è il decodificatore in grado di eseguire il processo di decodifica congiunta di entrambi i segnali di informazione.Il teorema tenta di risolvere ciò che il tasso di probabilità è del ricevitore che decodifica un errore e si avvicina allo zero, che è rappresentato come entropia congiunta.Come sia stato il lupo che Slepian hanno dimostrato nel 1973, anche se i segnali correlati vengono codificati separatamente, il tasso combinato è sufficiente.

Sebbene questo teorema abbia teoricamente postulato che ciò è raggiungibile nella codifica della fonte distribuita, i limiti della teoria non sono stati realizzati o addirittura realizzati o addirittura realizzati o addiritturastrettamente affrontato in applicazioni pratiche.Altri due scienziati, Ramchandran e Pradhan, hanno tentato di risolvere come raggiungere questo limite teorico e dimostrare la plausibilità del teorema del lupo di Slepian.Lo hanno tentato dalla fornitura di una soluzione particolare per i due segnali codificati con una distanza di separazione massima.