Che cos’è il codice sorgente distribuito?

Nella teoria della comunicazione e dell’informazione, il codice sorgente distribuito (DSC) è un problema cruciale che descrive la compressione di fonti di informazione che sono correlate in multipli ma non possono comunicare tra loro. DSC consente paradigmi di relazione nella codifica video che scambiano la complessità di codificatori e decodificatori, rappresentando un cambiamento concettuale nell’elaborazione video. È possibile modellare una correlazione con molte sorgenti tra i codici di canale e i lati del decodificatore, consentendo alla codifica sorgente distribuita di spostare la complessità computazionale tra il lato del codificatore e il lato del decodificatore. Ciò fornisce un quadro appropriato per le applicazioni che hanno un mittente che è sottoposto a sollecitazioni di complessità, come una rete di sensori o la compressione video.

Due uomini di nome Jack K. Wolf e David Slepian hanno proposto un limite teorico di compressione senza perdita di dati relativo alla codifica sorgente distribuita, che ora è chiamato teorema o limite di Slepian-Wolf. Il limite è stato proposto in termini di entropia con fonti di informazione correlate nell’anno 1973. Una delle cose che sono stati in grado di presentare è che due fonti separate e isolate sono in grado di comprimere i dati in modo efficiente e come se entrambe le fonti comunicassero direttamente tra loro. Più tardi, nel 1975, un uomo di nome Thomas M. Cover estese questo teorema a un’istanza di più di due fonti.

Nella codifica della sorgente distribuita, più sorgenti dipendenti sono codificate con decodificatori e codificatori congiunti separati. Il teorema di Slepian-Wolf, che rappresenta queste sorgenti come due variabili differenti, presuppone che due segnali separati e correlati provenissero da sorgenti diverse e non comunicassero tra loro. Questi sono i codificatori ei loro segnali vengono trasferiti a un ricevitore, che è il decodificatore in grado di eseguire il processo di decodifica congiunta di entrambi i segnali di informazione. Il teorema tenta di risolvere quale sia il tasso di probabilità del ricevitore che decodifica un errore e si avvicina allo zero, che è rappresentato come la sua entropia congiunta. Come hanno dimostrato sia Wolf che Slepian nel 1973, anche se i segnali correlati vengono codificati separatamente, il tasso combinato è sufficiente.

Sebbene questo teorema postuli teoricamente che ciò sia ottenibile nella codifica sorgente distribuita, i limiti della teoria non sono stati realizzati o nemmeno avvicinati da vicino nelle applicazioni pratiche. Altri due scienziati, Ramchandran e Pradhan, hanno tentato di risolvere come raggiungere questo limite teorico e dimostrare la plausibilità del teorema di Slepian-Wolf. Hanno tentato questo fornendo una soluzione particolare per i due segnali codificati aventi una distanza di separazione massima.