domenica 11 aprile 2021

Capacità — 12. Punto di massima entropia

“Possiamo quindi concludere”.

“Lo studio dell'entropia di un sistema?”.

“O, almeno, di questa prima parte”.

“Ah”.

“Siamo finalmente arrivati alla formula H(p1, …,pn) = p1log2(1/p1) + … + pnlog2(1/pn)”.

“Eh, ricordo”.

“Ora prendiamo in considerazione un caso particolare, quello di una sola variabile aleatoria”.

“Eh?”.

“Prendiamo una moneta”.

“Meglio”.

“Non equa: diciamo che la probabilità che esca una faccia sia p”.

“E quindi la probabilità che esca l'altra faccia sarà 1 − p”.

“Esatto, e la formula relativa all'entropia diventa molto semplice: H = plog2(1/p) + (1 − p)log2(1/(1 − p))”.

“Ok”.

“Formula di cui possiamo disegnare un grafico”.

“Ah”.

“Eccolo qua”.


“Una parabola?”.

“Assolutamente no: ci sono dei logaritmi, non dei polinomi di secondo grado”.

“Però sembra una parabola”.

“Sembra. Ma non è prolungabile verso il basso come una parabola: questa curva finisce lì, ha un dominio limitato”.

“Ah. E cosa ci dice, questo grafico?”.

“Ci mostra una cosa che avevamo già intuito: l'entropia massima si ha quando p = 1/2”.

“L'avevamo già intuito?”.

“Eh, sì: la moneta più imprevedibile è quella equa, quella per la quale la probabilità di uscita delle due facce è la stessa. Se la moneta fosse sbilanciata, l'entropia sarebbe minore, perché una moneta non equa trasporta meno informazione di una moneta equa. Se 9 volte su 10 esce Testa, sai già cosa aspettarti quando lanci la moneta”.

“Ah, vedo: se la moneta avesse due Teste, l'entropia sarebbe uguale a zero perché non avremmo nemmeno bisogno di lanciarla per sapere quale faccia uscirà”.

“Esatto. La situazione più incerta, quella con maggiore entropia, è quella in cui p = 1/2. Tutte le altre sono più prevedibili”.

“E abbiamo fatto tutto questo per dimostrare una cosa che sapevamo già?”.

“Ehm, beh. Un conto è intuire, un conto è matematizzare”.

“Non ci posso credere”.

martedì 9 marzo 2021

Capacità — 11. Entropia

“Abbiamo visto un esempio che aveva lo scopo di calcolare quanta informazione può contenere una moneta truccata”.

“Ricordo: il trucco è stato quello di trasformare il problema della moneta truccata nel problema di un'urna contenente un certo numero di palline, alcune con la scritta Testa e altre con la scritta Croce, in modo da rispettare le probabilità di uscita delle due facce della moneta”.

“Esatto. E ci siamo detti che avremmo potuto generalizzare il discorso”.

“Capirai”.

“Mettiamo in ordine le cose, via. Abbiamo n messaggi diversi, che indichiamo con s1, s2, …, sn, ognuno dei quali ha probabilità p1, p2, … pn”.

“E va bene”.

“Approssimiamo le varie probabilità con delle frazioni: pk1/N, pk2/N, e così via”.

“Ok. Usiamo le frazioni per ricondurci all'esempio dell'urna con le palline, vero?”.

“Esatto. Costruiamo un'urna che contenga N palline, in modo tale che l'estrazione di una di esse rispetti le probabilità dei singoli messaggi”.

“Perfetto”.

“Ora abbiamo due modi per calcolare il numero di domande che ci servono per individuare una singola pallina. Il primo è quello di dire che ci serve un numero di domande pari al log2N”.

“E questo era facile. L'altro modo suppongo che sia la generalizzazione di quello che abbiamo visto l'ultima volta”.

“Già. L'altro modo consiste prima di tutto nel calcolare il numero medio di domande per sapere se abbiamo estratto una pallina contenente il messaggio s1, oppure s2, eccetera; questo numero lo indichiamo con H(k1/N, …, kn/N). A questo valore dobbiamo aggiungere il numero medio di domande per capire quale tra le palline etichettate con s1 è uscita, quale tra quelle etichettate con s2, e così via. Questi numeri sono uguali a (k1/N) log2k1, (k2/N) log2k2, eccetera”.

“Fammi provare a scrivere l'uguaglianza”.

“Prego”.

“Allora, ecco:”.

log2N = H(k1/N, …,kn/N) + (k1/N) log2k1 + … + (kn/N) log2kn.

“Ottimo. Ora, spezzando il logaritmo in base 2 di N che hai sinistra, come abbiamo fatto l'altra volta, e ridistribuendolo nei logaritmi di destra, puoi arrivare a questa bella formula:”.

H(k1/N) = (k1/N) log2(N/k1) + … + (kn/N) log2(N/kn).

“Bella, insomma”.

“E se, al posto di quelle frazioni, rimettiamo le probabilità, ecco questa bellissima formula:”.

H(p1, …,pn) = p1log2(1/p1) + … + pnlog2(1/pn).

“Che roba”.

“Per esempio, supponiamo che le statistiche di un certo esame ci dicano che metà degli studenti ha come giudizio Non sai niente torna più avanti, un quarto degli studenti ha come giudizio Te la sei cavata perché non posso bocciare tutti, un ottavo degli studenti ha Forse hai capito qualcosa, e l'ultimo ottavo ha Bene, hai capito, allora l'entropia di informazione di questo sistema-esame che può emettere quattro diversi messaggi è uguale a:”.

H(1/2, 1/4, 1/8, 1/8) = 1/2 log22 + 1/4 log24 + 1/8 log28 + 1/8 log28 = 7/4 = 1.75 bit.

“Quindi alla lunga mi servono 1.75 domande per sapere che voto ho preso”.

“Esatto, ma per sapere se l'esame è stato superato te ne basta una sola”.

“Meglio abbreviare le sofferenze”.

“Già”. 

domenica 7 febbraio 2021

Capacità — 10. Monete truccate

“Rieccoci, pronti per parlare di trasmissioni, canali, capacità”.

“È passato molto tempo”.

“Sì, facciamo un riassuntino. Abbiamo visto come si può calcolare la capacità di un canale che trasmette informazioni, semplificando all'osso il significato di informazione. In pratica, ci siamo ricondotti all'idea che per ottenere informazioni io posso fare domande e ottenere, come risposte, un o un no. Con tanti e no posso ottenere risposte anche a domande complicate, basta farne abbastanza”.

“Alla fine, abbiamo visto che le domande che servono, in media, sono uguali al logaritmo in base 2… uhm, il logaritmo in base 2 di che cosa?”.

“Del numero di domande che devo fare per capire quale dei tanti messaggi è stato trasmesso, il tutto diviso per la lunghezza dei messaggi in questione”.

“Uhm, ok, devo ripassare”.

“Dopo facciamo un altro esempio, dovrebbe tornare tutto alla mente”.

“Speriamo”.

“Chiamiamo entropia di informazione, quindi, il numero medio minimo di domande che, alla lunga, mi servono per individuare quale messaggio viene trasmesso”.

Numero medio minimo di domande alla lunga. Non esisteva una definizione più complicata?”.

“Eh. Allora: medio si riferisce al fatto che vogliamo capire, in media, quante domande ci servono per individuare un messaggio. Devo ragionare sulle medie perché in alcuni casi può servire un certo numero di domande, in altri casi un numero di domande maggiore, o minore. Il numero di domande è costante quando il numero di messaggi è una potenza di 2, altrimenti in alcuni casi potrebbero servire meno o più domande rispetto ad altri casi”.

“Va bene, questo lo ricordo”.

“Parliamo di minimo perché voglio fare il minor numero di domande possibile, in media, senza perdere tempo”.

“E questo mi pare logico”.

“E diciamo alla lunga perché più si allungano i messaggi, migliore è il calcolo teorico. Insomma, se per un messaggio abbiamo tre casi da esaminare e possiamo ottenere risposte binarie, in alcuni casi serve una domanda e in altri casi ne servono due. Se però cominciamo ad accumulare messaggi, allora il calcolo che facciamo si avvicina sempre di più al logaritmo”.

“Vero, ricordo anche questo esempio”.

“Se, per esempio, abbiamo una moneta non truccata, in cui cioè le due facce hanno entrambe probabilità pari a 1/2 di presentarsi, allora indichiamo con H(1/2, 1/2) l'entropia di informazione della moneta”.

“Mi serve una domanda sola per scoprire cos'è uscito, no?”.

“Certo. Una domanda con una moneta, due domande con due monete, tre domande con tre monete, e così via. Alla lunga, ma anche alla corta, ti serve una domanda per moneta”.

“Quindi l'entropia vale 1. Uno cosa, poi?”.

“Un bit: l'avevamo chiamata così, l'unità di misura”.

“Giusto”.

“Ora prendiamo una moneta truccata. Una moneta leggermente sbilanciata, in cui Testa ha probabilità di uscita pari a 2/5, e Croce ha probabilità 3/5. Vogliamo calcolare l'entropia di questa moneta, cioè H(2/5, 3/5). Ti aspetti che sia maggiore o minore di 1?”.

“Uhm, non saprei”.

“Ti è più facile conoscere il risultato del lancio di questa moneta, o di quella equilibrata?”.

“Ah, se la metti così… quella equilibrata è imprevedibile, non posso assolutamente prevedere cosa uscirà”.

“Mentre l'altra?”.

“Bè, l'altra è leggermente sbilanciata, se dovessi scommettere, alla lunga direi che è più conveniente scommettere su Croce”.

“Quindi sai qualcosa di più: quella moneta è più prevedibile”.

“Allora l'entropia dovrebbe essere minore di 1: se l'imprevedibilità totale la risolvo con una domanda, questa dovrei risolverla con un po' meno fatica. Ma come la calcoliamo?”.

“Simuliamo la moneta con un'urna contenente cinque palline: due sono contrassegnate con la T e tre, invece, con la C”.

“Ok”.

“Ora calcoliamo, prima di tutto, l'entropia di quest'urna, supponendo che essa contenga 5 palline distinguibili”.

“Ah, quindi non ci interessa soltanto sapere se esce T o C?”.

“Per ora no, vogliamo più dettaglio”.

“Allora, è come se ci fossero 5 scelte e io dovessi scoprire quale di queste è stata fatta. Da tutto quello che abbiamo detto, oserei dire che l'entropia è il logaritmo in base 2 di 5”.

“Esatto, abbiamo fatto tutta la fatica che abbiamo fatto per poter, ora, rispondere velocemente a questa domanda. Alla lunga ti servono, in media, log25 domande”.

“Bene. Quindi?”.

“Quindi ora possiamo rifare lo stesso calcolo in un altro modo. Per sapere quale pallina è uscita, prima di tutto devi sapere se è uscito T o C, e poi quale T o quale C”.

“Oserei dire che è ovvio, ma non capisco come mi possa aiutare”.

“Il numero medio di domande che devi fare per sapere se è uscito T o C è proprio H(2/5, 3/5)”.

“Grazie, ma non lo conosco!”.

“Non importa, è quello, teniamolo indicato”.

“Ah, vabbé”.

“Poi, per sapere quale T…”.

“Mi serve ancora una domanda, perché le T sono due!”.

“Esatto. Attenzione: 2 volte su 5 ti basta una domanda, perché la T esce 2 volte su 5. Permettimi però di indicare il numero di domande (che è pari a 1, in questo caso) come log22”.

“Ok, complichiamoci la vita. Se invece è uscita C… so che di C ce ne sono 3, uhm”.

“Quante domande devi fare per distinguere un oggetto tra 3?”.

“Ah, ma è il solito problema: il logaritmo in base 2 di 3”.

“Esatto. Quindi 3 volte su 5 ti serve un numero di domande pari a log23”.

“Come metto insieme tutto questo?”.

“Da un lato hai visto che per scoprire quale pallina è uscita dall'urna ti servono log25 domande, dall'altro hai visto che puoi arrivare allo stesso risultato prima chiedendoti prima solo se è uscito T o C, e poi quale T o quale C, e cioè H(2/5, 3/5) + 2/5 log22 + 3/5 log23”.

“Mi stai dicendo che abbiamo trovato che log25 = H(2/5, 3/5) + 2/5 log22 + 3/5 log23?

“Esatto”.

“Ma allora posso ricavare H(2/5, 3/5)!”.

“Certo, abbiamo fatto tutta questa fatica per questo motivo. Avanti, arriva alla fine”.

“Ecco qua: H(2/5, 3/5) = log25 − 2/5 log22 − 3/5 log23”.

“Permettimi di giocare un po' con le proprietà dei logaritmi, per scrivere questa formula in un modo più carino e generalizzabile”.

“Va bene”.

“Spezzo in due parti il log25: dico che è uguale a 2/5 log25 + 3/5 log25”.

“Giusto. Vedo che hai usato gli stessi coefficienti dell'altra parte”.

“Esatto. Al momento l'uguaglianza è diventata così: H(2/5,3/5) = 2/5 log25 + 3/5 log25 − 2/5 log22 − 3/5 log23”.

“Va bene. Suppongo che metterai insieme i pezzi con gli stessi coefficienti, giusto?”.

“Sì, scrivo in questo modo: H(2/5, 3/5) = 2/5 (log25 − log22) + 3/5 (log25 − log23)”.

“E ora?”.

“Trasformo le differenze tra logaritmi in logaritmi di rapporti: H(2/5, 3/5) = 2/5 log2(5/2) + 3/5 log2(5/3)”.

“Ah, carino”.

“Bè, puoi fare il calcolo adesso. Viene minore di 1 come ti aspettavi?”.

“Vediamo… viene 0.971. Un po' meno, sì: bella roba”.

“E naturalmente tutto questo si può generalizzare”.

“Non potremmo certo privare un Vero Matematico del piacere di una generalizzazione”.

“Eh, già”.

giovedì 14 gennaio 2021

Carnevale della Matematica #146

Sei, quaranta e cento: la notazione posizionale ci permette di usare solo dieci simboli per scrivere tutti i numeri che vogliamo (insomma, tutti no, ma ci siamo capiti). Sei unità, quattro decine, un centinaio. Se usassimo un abaco, potremmo riferirci a una figura del genere:

Ma questa non è, naturalmente, l'unica rappresentazione del numero 146. Un computer standard, ad esempio, non usa la rappresentazione decimale: dieci simboli sono troppi da gestire, molto meglio usarne solo due: presenza di una certa tensione o assenza di quella tensione, zero o uno, sì o no, vero o falso.

Così:

Potremmo poi operare la seguente sostituzione, secondo il metodo exploding dots: cancelliamo un pallino da una casella e lo sostituiamo con due pallini nella casella di destra – lo spostamento verso destra divide tutto per due, il raddoppio dei pallini rimette a posto i conti; il computer che usa la rappresentazione binaria non capirebbe più niente, ma noi siamo meglio di lui. Ecco qua:



E, così facendo, ci accorgeremmo che solo le caselle che corrispondono alle potenze di 8 sono occupate, e potremmo quindi concludere che il numero 164 si scrive, in base 8, in modo molto elegante, e cioè 222.

Potremmo, a questo punto, rimanere insensibili di fronte alla peculiarità di 222, un bel numero palindromo? Certo che no, ed è per questo che il tema di questo Carnevale è proprio la palindromicità.

Del resto, oggi, 14 gennaio, è il compleanno di Tarski, e lui avrebbe certamente gradito. Oggi è anche il capodanno ortodosso, e non possiamo lasciarci sfuggire il fatto che 2021×1202 = 2429242. E il 1202 non è un anno qualsiasi: è l'anno in cui Fibonacci ha scritto il Liber Abaci; e a proposito di abaco, il buon Leonardo Pisano avrebbe apprezzato le figure qua sopra con le palline nelle caselle.

E se ci permettessimo di giocare un po' con la numerologia, non potremmo fare a meno di notare che il più bel nome italiano palindromo (secondo l'insindacabile giudizio di chi scrive), e cioè Anna, mediante l'associazione lettera-numero tipica dell'alfabeto italiano, che vede la lettera A corrispondere al numero 1 e la lettera N corrispondere al numero 12, produce, mediante l'inserzione, palindroma pure quella, dei simboli di somma e moltiplicazione, il bel risultato 1 + 12×12 + 1 = 146. Ancora meglio, 1 + 12×12 + 1 = 222 in base otto, parola pure essa palindroma.

Indulgendo ancora un po' in questa libera associazione di idee, non potremmo poi tacere del fatto che uno dei primi personaggi famosi a portare il nome di Anna è la moglie di Gioacchino, la madre di Maria, che, in quanto madre, è venerata dalla cristianità anche come patrona delle partorienti.

Secondo gli antichi greci, la protettrice delle partorienti era Ilizia; la sua corrispondente romana era invece Giunone Lucina, colei che porta i bambini verso la luce.

Ed è proprio guardando una nuova luce in cielo che, l'otto giugno 1875, l'astronomo francese Alphonse Louis Nicolas Borrelly scopre un nuovo asteroide che, in seguito, sarà proprio chiamato 146 Lucina.

Per rimanere in tema biblico-palindromico, facendo riferimento al versetto del vangelo di Matteo 16, 20, "così gli ultimi saranno primi e i primi ultimi", ecco i contributi dei Rudi Mathematici. I quali hanno iniziato il periodo associato a questo carnevale con un post dal titolo evocativo: Far girare le sfere senza rompere le scatole. Per amore di decenza, non aggiungiamo il commento relativo alla palindromicità di sfere e scatole. L'indovinello del cellario ha poi inaugurato il tempo natalizio, un post forse non rispettoso del tema palindromico ma certamente rispettoso delle sbronze natalizie. Ci sono poi state le soluzioni al problema pubblicato su Le Scienze, un problema che parla di elezioni truccate, o quasi. E su questo tema, santo cielo, sarebbe opportuno stendere un velo pietoso. Il giorno della Befana, infine, hanno pubblicato il Calendario del 2021, giunto alla ventiduesima edizione (numero palindromo, naturalmente): sarebbe il caso di far loro gli auguri. Per la serie Quick and Dirty, poi, c'è un piccolo post dal titolo Bugiardi?, per il quale pare che la lunghezza del titolo sia inversamente proporzionale alla lunghezza dell'elenco dei commenti che propongono variazioni e generalizzazioni. Infine, il numero di dicembre della prestigiosa rivista di matematica ricreativa è uscito il 29 (ufficialmente in regola, quindi), e si trova qui. Quello di gennaio, mah, prima o poi sarà pubblicato invece qui: vediamo se uscirà prima di questo Carnevale, o dopo.

Roberto Natalini manda un elenco sterminato di post. Eccoli qua:

I 10 post più letti su MaddMaths! nel 2020 e altri numerelli interessanti
Finisce il 2020, ed è il momento di tirare le somme di un anno pieno di notizie.


I modelli matematici, strumenti potenti ai tempi della pandemia Covid-19
Come sintesi alla fine di questo anno così dominato della pandemia e dai modelli epidemiologici vi proponiamo un articolo di Iulia Martina Bulai, del Dipartimento di Matematica, Informatica ed Economia dell’Università della Basilicata, originariamente apparso in inglese nella Newsletter of the European Women in Mathematics.

Oroscopo 2021 per Matematici e creature simili
Di solito gli oroscopi non interessano i matematici, che spesso preferiscono affidarsi agli algoritmi. Ma in realtà molto dipende da chi propone l’oroscopo in questione. Quest’anno proviamo con quello proposto da Raffaella Mulas e vediamo cosa succede.

Ci ha lasciati Pietro Greco
Il 18 dicembre, ci ha lasciati Pietro Greco, grande maestro della comunicazione della scienza. Di seguito i ricordi di Stefano Pisani e di Sandra Lucente e Roberto Natalini.


Matematica, sentirsi a bordo

Nelle scorse settimane le edizioni Mateinitaly (quelle del mensile Prisma, per intenderci) hanno pubblicato il libro “Diaro di bordo. Una prof di matematica nell’anno del lockdown” di Sofia Sabatti. Ecco la recensione di Roberto Natalini.


1+1 non fa (sempre) 2 – recensione dell’ultima lezione di John Barrow

John D. Barrow, cosmologo, matematico e astrofisico, professore all’Università di Cambridge, autore del testo teatrale “Infinities” e di decine di saggi e articoli divulgativi, è morto il 27 settembre scorso all’età di 67 anni. Ci ha lasciato un ultimo libro, edito da Il Mulino, pubblicato per ora solo in italiano sotto la supervisione di Pino Donghi. Lo ha letto e ce ne parla Roberto Natalini.

Il genere conta

L’uso del femminile nelle professioni è un argomento di cui si discute molto (e in maniera piuttosto accesa) in quest’ultimo periodo. Chiara de Fabritiis (coordinatrice del Comitato Pari Opportunità dell’UMI) ne ha parlato con Vera Gheno, una linguista che ha uno spiccato interesse per la comunicazione in rete.

Ripetizioni. Puntata 20: “Regali di Natale”

Tornano le Ripetizioni di Davide Palmigiani. Questa volta si parla di regali e di “Secret Santa”.

DIALOGO SUI NUMERI PRIMI

Alessandro Zaccagnini ci propone un suo “Dialogo sui numeri primi”, un esercizio di stile in cui per varie settimane ha parlato dei numeri primi in modo interessante senza usare formule, o quasi. Nel dialogo, che trovate diviso in “giornate”, troverete tre personaggi presi a prestito da Galileo: Salviati, che è un copernicano (un teorico dei numeri analitico), Sagredo, che è un patrizio (un matematico di un altro settore), e Simplicio, che è un tolemaico (un dilettante). Tutte le puntate le trovate qui sotto, ma le trovate anche in ebook (pdf, epub, mobi) scaricabile in questa pagina.

 


Mathematical Graffiti #6 – Igor Tamm e il calcolo che… salva la vita
Perché un giorno il fisico russo Igor Tamm, premio Nobel per la fisica nel 1958, benedisse gli sviluppi in serie. 


Alberto Saracco ci propone i nuovi video della sua serie “Un matematico prestato alla Disney“, in cui fa divulgazione della matematica traendo spunto da storie di paperi e topi. 
Puntata 28: Speciale Natale - Il principe delle nebbie - Tutorial fiocchi di neve
Puntata 29: Il fantomatico ipergigacolossaliardo – Numeri molto grandi


La giovane matematica Raffaella Mulas ci propone la sua video-rubrica “La matematica danzante”.

Leonardo Petrillo, proseguendo il percorso cominciato qualche mese fa con una "semplice" introduzione all'equazione di Schrödinger, ha scritto una seconda puntata che va ad ampliare un po' la visione illustrando il concetto essenziale di operatore nell'ambito della meccanica quantistica e le regole di commutazione fondamentali, chiamate anche commutatori canonici.

.mau. ha scritto, sul Post, ben due post sui numeri di Lychrel (in perfetto tema, come leggerete): Numeri che forse non esistono, e 6174, 196 e altri numeri. Inoltre, sempre sul Post ha scritto i problemini per Natale 2020 (se lo leggete venti-venti, potete leggerlo anche al contrario), con le relative soluzioni, e Gallera ci ritenta con i numeri, dove l'ormai ex assessore lombardo al welfare garantisce gioioso che a brevissimo termine arriveranno a fare un numero di vaccinazioni che farà terminare la campagna a fine 2022. Sulle Notiziole invece abbiamo i soliti quizzini della domenica, questo mese Catena di domino - Numeri civiciL'orologio di zio GinoIl cortile del palazzo ducale. Per le recensioni, a questo giro c'è solo The Thrilling Adventures of Lovelace and Babbage: è un fumetto assolutamente fuori di testa e con parecchia matematica diretta e indiretta (c'è anche un cameo di George Boole). Poi purtroppo c'è l'obituary di Pietro Greco; seguito da un post di povera matematica, I gradi sono tanti, milioni di milioni, in cui si scopre che la volta celeste ha un numero di gradi molto maggiore di quanto credevamo; e una curiosità sul 2021, che è un numero ottenuto giustapponendo due interi consecutivi oltre che essere il prodotto di due primi consecutivi.

Anna(lisa) Santi, in perfetto tema, segnala un dialogo scritto su Matetango durante una gita in un bel passo montano dell'alto valtellinese, con relativa escursione ai 2924 metri del Pizzo del Diavolo. Il dialogo è con un diabolico numero palindromo, il numero primo 1000000000000066600000000000001, e si trova qua: Belfagor e Annalisa… un dialogo surreale!

Il fatto che 146 sia un numero composto da 2 e 73 produce due effetti. Il secondo è la seguente cellula melodica, preparata dal buon Dioniso:

   

Una cellula melodica speciale e forse irripetibile: una cellula melodica cancrizzante, anche lei in perfetto tema, e che si rifà al primo effetto: l'immortale verso della poesia Gaussiana canta sottovoce.

Non rimane che annunciare il prossimo Carnevale, che sarà il numero 147, ospitato dai Rudi Mathematici. Mentre questo, che avete appena letto, era il numero cento, quaranta e sei.

martedì 12 gennaio 2021

Anna e Otto onorarono Otto e Anna

Oggi è il 12–1–21, data palindroma che annuncia, tra due giorni, un Carnevale palindromo.

E tra poco parte.

E la sete sale.

giovedì 3 dicembre 2020

Capacità — 9. Finalmente la codifica Morse

“Siamo pronti per un riassunto finale”.

“Oh, finalmente”.

Abbiamo ricavato questa formula ricorsiva per la lunghezza delle stringhe codificate col codice Morse:”.

N(negativo) = 0
N(0) = 1
N(1) = 0
N(t) = N(t − 2) + N(t − 4) + N(t − 5) + N(t − 7) + N(t − 8) + N(t − 10)

“Giusto”.

“Abbiamo detto che, per calcolare la capacità di un canale in cui le trasmissioni avvengono secondo una determinata codifica, dobbiamo calcolare la lunghezza delle stringhe per t che diventa sempre più grande, farne il logaritmo, e dividere tutto per t”.

“Ricordo anche questo.”.

“E, infine, abbiamo visto un metodo per risolvere un'equazione alle ricorrenze, con l'uso delle funzioni esponenziali”.

“L'abbiamo usato con i numeri di Fibonacci, mi ricordo. Si immagina che la soluzione sia un'esponenziale, si sostituisce, e si fanno tornare i conti scoprendo di quale esponenziale si tratti”.

“Di quale, o di quali: potrebbero essercene anche più di una. La formula per i numeri di Fibonacci ne contiene due, per esempio”.

“Ah, vero. Però a lungo andare, quando il numero diventa sempre più grande, ce n'è una che comanda, perché l'altra dà un contributo sempre più piccolo”.

“Sì, è così. Abbiamo un'esponenziale con esponente positivo che, a lungo andare, diventa sempre più grande, e un'esponenziale con esponente negativo che, a lungo andare, diventa sempre più trascurabile”.

“Ok. Quindi ora dovremmo risolvere quella brutta equazione alle ricorrenze per il codice Morse? Sostituendo un'esponenziale generica?”.

“Già”.

“Ma se prendo una funzione del tipo an e sostituisco, mi viene una roba complicatissima!”.

“Prova, però devi sistemare le lettere, perché questa volta abbiamo indicato con N(t) il numero di stringhe di lunghezza t. Quindi, se vuoi provare con una funzione esponenziale, deve essere del tipo N(t) = at”.

“Ah, ok, io provo. Se sostituisco at mi viene questo:”.

at = at-2 + at−4 + at−5 + at−7 + at−8 + at−10

“Giusto”.

“Ma è una cosa orribile”.

“Eh, un po'”.

“E come la risolvo?”.

“Comincia col raccogliere il termine più piccolo, at−10”.

“Giusto, e poi lo semplifico. Direi che risulti una cosa del genere:”.

a10 = a8 + a6 + a5 + a3 + a2 + 1

“Bene”.

“Ma è un'equazione di decimo grado, chi la risolve?”.

“Questo lo facciamo fare ai computer, ecco qua”.

“Ah, veh che bello. Vedo due risultati reali, uno positivo e uno negativo, e poi dei risultati complessi”.

“A noi interessa quello positivo, che sarà quello che comanda quando la lunghezza della stringa diventa sempre più lunga”.

“Dice che è circa 1.4529”.

“E quindi la nostra N(t) si comporta circa come 1.4529t, a lungo andare”.

“E adesso?”.

“E adesso ne fai il logaritmo in base 2, e dividi per t”.

“La t si semplifica, rimane log2(1.4529)”.

“Che fa circa 0.539”.

“E quindi?”.

“E quindi abbiamo fatto: la capacità di una linea che trasmette in codice Morse è di 0.539 bit per unità di tempo”.

“Che fatica”.

“Pensa che Shannon ha spiegato tutto questo in due mezze pagine di un suo famosissimo articolo”.

“Cosa?”.

“Pagina 3 e pagina 4”.

“Su quante?”.

“Cinquantacinque”.

“Aiuto!”.

venerdì 13 novembre 2020

Chi ha paura della matematica?

Che fare in un venerdì 13 del 2020?

Quattro chiacchiere sulla matematica con .mau., ospitati virtualmente dalla Biblioteca Delfini di Modena. Saremo qui oppure qui.


Aggiornamento: fino a che rimane, ecco qua la ripresa: