Skip to main content

Qu'est-ce que le codage source distribué?

Dans la théorie de la communication et de l'information, le codage source distribué (DSC) est un problème crucial qui décrit la compression des sources d'information qui sont corrélées en multiples mais ne peuvent pas communiquer entre elles.DSC permet des paradigmes relationnels dans le codage vidéo qui échangent la complexité des encodeurs et des décodeurs, représentant un changement conceptuel dans le traitement vidéo.Une corrélation avec de nombreuses sources peut être modélisée entre les codes de canal et les côtés du décodeur, permettant le codage source distribué pour déplacer la complexité de calcul entre le côté coder et le côté décodeur.Cela fournit un cadre approprié pour les applications qui ont un expéditeur tendu à complexité, comme un réseau de capteurs ou une compression vidéo.

Deux hommes nommés Jack K. Wolf et David Slepian ont proposé une limite théorique de la compression sans perte concernant le codage source distribué, qui est maintenant appelé théorème ou lien de Slepian-Wolf.La limite a été proposée en termes d'entropie avec des sources d'informations corrélées en 1973. L'une des choses qu'ils ont pu présenter était que deux sources distinctes et isolées sont capables de comprimer efficacement les données et comme si les deux sources communiquaient directement entre elles.Plus tard, en 1975, un homme nommé Thomas M. Cover a étendu ce théorème à une instance de plus de deux sources.

Dans le codage de source distribué, plusieurs sources dépendantes sont codées avec des décodeurs conjoints et des encodeurs distincts.Le théorème du loup slepian, qui représente ces sources comme deux variables différentes, suppose que deux signaux distincts et corrélés provenaient de sources différentes et ne communiquaient pas entre eux.Ce sont les encodeurs et leurs signaux sont transférés à un récepteur, qui est le décodeur qui peut effectuer le processus de décodage conjoint des deux signaux d'information.Le théorème tente de résoudre le taux de probabilité du récepteur de décodage d'une erreur et d'approcher zéro, qui est représenté comme son entropie conjointe.Comme le loup et Slepian l'ont prouvé en 1973, même si les signaux corrélés deviennent encodés séparément, le taux combiné est suffisant.

Bien que ce théorème postule théoriquement que cela est réalisable dans le codage source distribué, les limites de la théorie n'ont pas été réalisées ou même réaliséesétroitement approché dans des applications pratiques.Deux autres scientifiques, Ramchandran et Pradhan, ont tenté de résoudre comment atteindre cette limite théorique et démontrer la plausibilité du théorème du loup slepien.Ils ont tenté cela par la fourniture d'une solution particulière pour les deux signaux codés ayant une distance de séparation maximale.