Teoria dei codici

Secondo teorema di Shannon – Wikipedia

In teoria dell’informazione, il secondo teorema di Shannon, o teorema della codifica di canale, stabilisce che per quanto un canale di comunicazione sia affetto da rumore, è possibile trasmettere dati (informazione) attraverso il canale stesso con probabilità di errore Pe piccola a piacere fino ad una frequenza massima. Questo sorprendente risultato, noto anche come teorema

Secondo teorema di Shannon – Wikipedia Leggi tutto »

Rilevazione e correzione d’errore – Wikipedia

Da Wikipedia, l’enciclopedia libera. Per ripulire gli errori di trasmissione introdotti dall’atmosfera terrestre (a sinistra), gli scienziati di Goddard hanno applicato la correzione degli errori di Reed-Solomon (a destra), che viene comunemente utilizzata in CD e DVD. Gli errori tipici includono pixel mancanti (bianco) e falsi segnali (nero). La striscia bianca indica un breve periodo

Rilevazione e correzione d’errore – Wikipedia Leggi tutto »

Ridondanza (ingegneria) – Wikipedia

Da Wikipedia, l’enciclopedia libera. La ridondanza, nell’ingegneria dell’affidabilità, è definita come l’esistenza di più mezzi per svolgere una determinata funzione, disposti in modo tale che un guasto di un sistema[1] possa verificarsi solo in conseguenza del guasto contemporaneo di tutti questi mezzi. In pratica la ridondanza in ingegneria consiste nella duplicazione dei componenti critici di

Ridondanza (ingegneria) – Wikipedia Leggi tutto »

Minima lunghezza di descrizione – Wikipedia

Il principio della minima lunghezza di descrizione (MLD) (in inglese minimum description length [MDL] principle) è una formalizzazione del Rasoio di Occam nella quale la migliore ipotesi per un determinato insieme di dati è quella che conduce alla migliore compressione dei dati. La MLD fu introdotta da Jorma Rissanen nel 1978.[1] È un importante concetto

Minima lunghezza di descrizione – Wikipedia Leggi tutto »

Lempel-Ziv-Welch – Wikipedia

Lempel-Ziv-Welch (abbreviato LZW) è un algoritmo utilizzato in informatica per la compressione dati senza perdita di informazioni (lossless). Per esempio questo algoritmo è utilizzato nella codifica delle immagini in formato GIF e facoltativamente nei file TIFF. Presentato[1] da Terry Welch nel 1984, l’algoritmo si basa su precedenti ricerche effettuate da Jacob Ziv ed Abraham Lempel.

Lempel-Ziv-Welch – Wikipedia Leggi tutto »

Disuguaglianza di Kraft-McMillan – Wikipedia

Da Wikipedia, l’enciclopedia libera. In teoria dei codici la disuguaglianza di Kraft-McMillan fornisce una condizione necessaria e sufficiente per l’esistenza di un codice binario univocamente decodificabile per un insieme di simboli. Ogni codice binario univocamente decodificabile per i simboli α ∈ A = α 1 , . . . , α N {\displaystyle \alpha \in

Disuguaglianza di Kraft-McMillan – Wikipedia Leggi tutto »

Torna in alto