martedì 9 novembre 2010

Teoria dell'informazione - Introduzione

Il concetto di Informazione è decisamente ampio. Se si legge http://it.wikipedia.org/wiki/Informazione si trova questa definizione:
L'informazione è ciò che, per un osservatore o un recettore posto in una situazione in cui si hanno almeno due occorrenze possibili, supera un'incertezza e risolve un'alternativa, cioè sostituisce il noto all'ignoto, il certo all'incerto. In altre parole, essa riguarda il contesto in cui i dati sono raccolti, la loro codifica in forma intellegibile ed in definitiva il significato attribuito a tali dati.
Si intuisce quindi come l'informazione associabile ad un oggetto sia in qualche modo legata alla quantità di incertezza che si ha prima di poter osservare l'oggetto stesso e che si perde una volta che diventa noto (cioè osservato).

In teoria dell'informazione (che è il settore dell'informatica e delle telecomunicazioni che si occupa appunto degli studi teorici legati all'informazione) si definisce come quantità di informazione I associata ad un simbolo con probabilità Pi di essere trasmesso da una sorgente di simboli codificati con un codice binario (cioè un codice il cui alfabeto è {1,0}, per questo il logaritmo è in base 2):



Si nota quindi che più un simbolo è probabile sia trasmesso (e quindi osservato) e meno informazione trasporta (in quanto risolve una incertezza minore). I si misura in bit (quindi bit di informazione utile).
La quantità media di informazione trasportata da un simbolo della sorgente si definisce entropia della sorgente (che nel caso binario sarà quindi misurato in bit/simbolo).

Questi concetti sono fondamentali sia in ambito di trasmissione di informazione (telecomunicazioni) sia in ambito di elaborazione di informazione (informatica). In particolare quando si elabora dell'informazione è fondamentale riuscirla a rappresentare con un numero finito di simboli. Da qui parte tutta la teoria relativa ai codici.

Nessun commento:

Posta un commento