martedì 9 marzo 2021

Capacità — 11. Entropia

“Abbiamo visto un esempio che aveva lo scopo di calcolare quanta informazione può contenere una moneta truccata”.

“Ricordo: il trucco è stato quello di trasformare il problema della moneta truccata nel problema di un'urna contenente un certo numero di palline, alcune con la scritta Testa e altre con la scritta Croce, in modo da rispettare le probabilità di uscita delle due facce della moneta”.

“Esatto. E ci siamo detti che avremmo potuto generalizzare il discorso”.

“Capirai”.

“Mettiamo in ordine le cose, via. Abbiamo n messaggi diversi, che indichiamo con s1, s2, …, sn, ognuno dei quali ha probabilità p1, p2, … pn”.

“E va bene”.

“Approssimiamo le varie probabilità con delle frazioni: pk1/N, pk2/N, e così via”.

“Ok. Usiamo le frazioni per ricondurci all'esempio dell'urna con le palline, vero?”.

“Esatto. Costruiamo un'urna che contenga N palline, in modo tale che l'estrazione di una di esse rispetti le probabilità dei singoli messaggi”.

“Perfetto”.

“Ora abbiamo due modi per calcolare il numero di domande che ci servono per individuare una singola pallina. Il primo è quello di dire che ci serve un numero di domande pari al log2N”.

“E questo era facile. L'altro modo suppongo che sia la generalizzazione di quello che abbiamo visto l'ultima volta”.

“Già. L'altro modo consiste prima di tutto nel calcolare il numero medio di domande per sapere se abbiamo estratto una pallina contenente il messaggio s1, oppure s2, eccetera; questo numero lo indichiamo con H(k1/N, …, kn/N). A questo valore dobbiamo aggiungere il numero medio di domande per capire quale tra le palline etichettate con s1 è uscita, quale tra quelle etichettate con s2, e così via. Questi numeri sono uguali a (k1/N) log2k1, (k2/N) log2k2, eccetera”.

“Fammi provare a scrivere l'uguaglianza”.

“Prego”.

“Allora, ecco:”.

log2N = H(k1/N, …,kn/N) + (k1/N) log2k1 + … + (kn/N) log2kn.

“Ottimo. Ora, spezzando il logaritmo in base 2 di N che hai sinistra, come abbiamo fatto l'altra volta, e ridistribuendolo nei logaritmi di destra, puoi arrivare a questa bella formula:”.

H(k1/N) = (k1/N) log2(N/k1) + … + (kn/N) log2(N/kn).

“Bella, insomma”.

“E se, al posto di quelle frazioni, rimettiamo le probabilità, ecco questa bellissima formula:”.

H(p1, …,pn) = p1log2(1/p1) + … + pnlog2(1/pn).

“Che roba”.

“Per esempio, supponiamo che le statistiche di un certo esame ci dicano che metà degli studenti ha come giudizio Non sai niente torna più avanti, un quarto degli studenti ha come giudizio Te la sei cavata perché non posso bocciare tutti, un ottavo degli studenti ha Forse hai capito qualcosa, e l'ultimo ottavo ha Bene, hai capito, allora l'entropia di informazione di questo sistema-esame che può emettere quattro diversi messaggi è uguale a:”.

H(1/2, 1/4, 1/8, 1/8) = 1/2 log22 + 1/4 log24 + 1/8 log28 + 1/8 log28 = 7/4 = 1.75 bit.

“Quindi alla lunga mi servono 1.75 domande per sapere che voto ho preso”.

“Esatto, ma per sapere se l'esame è stato superato te ne basta una sola”.

“Meglio abbreviare le sofferenze”.

“Già”.