giovedì 7 ottobre 2021

Baricentro

 






“Cos'è 'sta roba?”.

“Le mediane di un triangolo si intersecano tutte in uno stesso punto che si chiama baricentro e che le divide in due parti, una il doppio dell'altra”.

“Ehhh?”.

“Il famoso teorema sul baricentro, no?”.

“Famosissimo. Però il baricentro l'ho già sentito nominare, ma in fisica”.

“Beh, la fisica è una parte della matematica che ha qualche applicazione a volte utile”.

“Andiamo bene”.

“Però, sì, anche in fisica esiste il baricentro”.

“Che ha qualcosa a che fare con la forza di gravità, mi pare”.

“E infatti in questi disegni abbiamo un solido pesante”.

“Io vedo un triangolo”.

“Non vedere un triangolo, ma un solido formato da tre masse uguali, poste nei vertici del triangolo”.

“E questo lo vediamo grazie a quei numeri 1 che ogni tanto compaiono?”.

“Esatto. Compaiono quando servono. All'inizio poniamo l'attenzione solo su due delle tre masse”.

“Quelle in basso”.

“Quelle in basso nella figura, sì. Possiamo pensare alla base del triangolo come a un'asta alle cui estremità sono fissate due masse”.

“Ok”.

“Ora, al posto di quelle due masse possiamo sostituire una massa doppia messa al centro del lato”.

“Perché al centro?”.

“Se vogliamo che quell'asta sia in equilibrio, la massa dovrà stare al centro. Se fosse spostata verso destra o verso sinistra sarebbe sbilanciata”.

“Come un'altalena?”.

“Esattamente. O come una bilancia antica, a due piattelli: il fulcro sta al centro e il braccio è in equilibrio se sul piattello di destra e su quello di sinistra ci sono gli stessi pesi”.

“Ok”.

“Nella terza figura, mettiamo in gioco anche il terzo vertice”.

“Vedo anche una nuova asta”.

“Sì, che collega il terzo vertice alla massa doppia che abbiamo usato prima”.

“E ora dobbiamo mettere in equilibrio questa nuova asta”.

“Esatto”.

“Dove va il fulcro? Non al centro, no?”.

“No: ricordi cosa diceva Archimede?”.

“Eureka?”.

“Anche. La leggenda racconta che pronunciò anche questa frase: datemi un punto d'appoggio e solleverò il mondo”.

“E cosa significa?”.

“Aveva scoperto il principio di funzionamento delle leve: se sposti il fulcro puoi sollevare grossi pesi facendo poca fatica”.

“Mh, e come?”.

“Il fulcro divide l'asta in due parti: l'asta sarà in equilibrio se il prodotto fra la distanza massa-fulcro e la massa è costante per entrambe le masse”.

“Eh?”.

“Se hai una massa uguale a 2 e una seconda massa uguale a 1, allora il fulcro divide l'asta in due parti che saranno una doppio dell'altra. La parte più corta sta dalla parte della massa maggiore, la parte più lunga dalla parte della massa minore”.

“Ah, ecco perché 1/3 e 2/3”.

“Esatto: l'asta viene divisa in tre parti, il fulcro ne tiene una da un lato e due dall'altro. In questo modo i prodotti massa-distanza sono costanti”.

“Vedo”.

“E quindi abbiamo trovato il baricentro, cioè il punto in cui possono essere concentrate le tre masse. E anche il punto che divide le mediane in due parti, una doppia dell'altra”.

“Molto bene. Ma questa è una vera dimostrazione?”.

“Perché no? La dimostrazione geometrica è diversa, usa le proprietà delle rette parallele e dei parallelogrammi, ma questa è più efficace, almeno dal punto di vista mnemonico”.

“Ok”.

“Poi, volendo, da qui si potrebbe partire per sviluppare strumenti notevoli per risolvere problemi difficili”.

“Aiuto”.

martedì 10 agosto 2021

Tokyo 2020

Come ormai di consueto, ecco la classifica olimpica che non dipende dal valore che vogliamo assegnare alle tre medaglie, purché naturalmente si considerino le medaglie d'oro superiori a quelle d'argento, e queste ultime superiori a quelle di bronzo.

Qui le altre classifiche che ho fatto in passato.






lunedì 7 giugno 2021

Capacità — 14. L'algoritmo di Shannon-Fano

L'altra volta avevo detto che sappiamo quale sia il massimo teorico che possiamo raggiungere comprimendo dei dati, ma non sappiamo come raggiungerlo”.

“Sì”.

“Beh, non è proprio così”.

“Ma come?”.

“Eh, bisogna capire bene di cosa stiamo parlando”.

“Come al solito”.

“Esatto. C'è un teorema che dice quale sarà la massima entropia che puoi ottenere, ma non ti dice quale codifica devi usare per ottenerla”.

“Ok”.

“Poi esistono dei metodi, degli algoritmi, che ti permettono di analizzare un flusso di dati e creare una codifica che possa cercare di avvicinarsi il più possibile a quel punto”.

“Quando un Vero Matematico comincia a usare frasi del genere, c'è da preoccuparsi”.

“Eh, lo so. Bisogna vedere il contesto: stiamo approssimando un flusso di dati in tempo reale, o possiamo dare un'occhiata a tutti i dati in anticipo? Dobbiamo tenere conto del fatto che ci possono essere errori che vanno corretti, oppure no? Insomma, come al solito ci sono tante sottigliezze che fanno la differenza”.

“Sgrunt”.

“Quindi, prendiamo un caso molto semplice, presentato anche da Shannon in due modi leggermente diversi. Uno ideato da lui, il secondo ideato indipendentemente da Fano (Shannon ha gentilmente specificato quell'indipendentemente, rendendo onore a Fano)”.

“Fair Play Matematico”.

“Già. Questo metodo ha bisogno di conoscere in anticipo le probabilità di ogni simbolo trasmesso”.

“E non è sempre così?”.

“Beh, no. Immagina di dover comprimere la Divina Commedia: possiedi il testo, lo analizzi, vedi le frequenze delle singole lettere. Immagina invece di dover comprimere un discorso trascritto in tempo reale: non puoi analizzare il testo, perché non è ancora stato scritto. Puoi però utilizzare le tabelle di frequenza relative alla lingua in cui è pronunciato quel discorso. Immagina infine di dover comprimere le cifre di pi greco che ti vengono calcolate al volo da un computer: come si fa a fare delle previsioni?”.

“Eh, mi sa che in quel caso sia un problema non da poco”.

“Infatti. Parliamo quindi del caso semplice: conosciamo le frequenze dei vari caratteri. Ti faccio un esempio super facile che abbiamo già visto tempo fa”.

“Benissimo”.

“Supponiamo che ci siano quattro caratteri, A, B, C e D. Supponiamo che le probabilità, cioè le frequenze relative, siano le seguenti:”.

A: 1/2
B: 1/4
C: 1/8
D: 1/8

“Ok, finora è chiaro, pare semplice”.

“Bene. I caratteri devono essere ordinati dal più probabile al meno probabile, come ho fatto”.

“Ok, lo sono”.

“Ora bisogna dividerli in due gruppi, in modo tale che la somma delle probabilità del primo gruppo sia uguale a quella del secondo”.

“Beh, qui è facile: i due gruppi sono {A} e {B, C, D}”.

“Esatto. Associamo il numero 0 al primo gruppo e il numero 1 al secondo”.

A:       0
B, C, D: 1

“Fin qui ci sono”.

“Bene, l'algoritmo è questo: si ripete di nuovo lo stesso procedimento per tutti i gruppi che non siano composti da un unico elemento”.

“Ah. Allora dovrei spezzare il secondo gruppo”.

“Sì”.

“Direi che si debba spezzare dopo B, dato che B ha probabilità 1/4 e {C, D} ha la stessa probabilità. Ora come faccio con l'associazione con 0 e 1?”.

“Aggiungi il nuovo numero al vecchio, così:”.

A:    0
B:    10
C, D: 11

“Ah, ecco. Ora devo spezzare il gruppo {C, D} e aggiungere un'altra cifra?”.

“Esatto. Vedi che le codifiche più lunghe sono associate ai simboli meno probabili, e le codifiche più corte a quelli più probabili”.

“Concludo, allora. Dovrei avere una tabella del genere:”.

A: 0
B: 10
C: 110
D: 111

“Ottimo”.

“E quindi è finito? Mi basta sostituire ai simboli quelle codifiche?”.

“Esatto”.

“Ma così risulta una codifica più lunga di quella precedente, come facciamo a dire che abbiamo compresso i dati?”.

“No, in realtà no, quella codifica che abbiamo creato è in bit, in cifre binarie, mentre i simboli A, B, C e D vanno pure loro codificati in questo modo”.

“Uhm, non mi è ben chiaro”.

“Immagina di voler codificare la stringa AAAABBCD in binario, come fai?”.

“Ah, devo usare il codice ASCII?”.

“Se usi quello, allora è evidente che stiamo comprimendo: quella stringa è formata da 8 caratteri, ogni carattere sta in un byte, totale 64 bit. Con l'algoritmo di Shannon-Fano invece diventa 00001010110111, solo 14 bit”.

“Uh, comincio a capire. Beh, la codifica ASCII è esagerata per solo quattro simboli, in effetti”.

“Esattamente. Ma se usi una codifica a lunghezza costante, analoga alla codifica ASCII, per quei quattro simboli, potresti fare una cosa del genere:”.

A: 00
B: 01
C: 10
D: 11

“Giusto, fammi fare i conti: la stringa AAAABBCD diventerebbe 0000000001011011, 16 bit”.

“Esatto: di 2 bit più lunga”.

“E non si può fare di meglio della codifica di Shannon-Fano?”.

“Facciamo i conti: quanto è la sua entropia?”.

“Oh, uhm. Per ogni lettera devo moltiplicare la probabilità per il logaritmo del suo reciproco, e sommare tutto”.

“Sì, la formula dice quello. Ecco il conto:”.

(1/2) log2(2) + (1/4) log2(4) + (1/8) log2(8) + (1/8) log2(8) = 1/2 + 2/4 + 3/8 + 3/8 = 7/4

“E questo risultato come lo interpreto?”.

“Ci dice che hai bisogno di 7/4 di bit per ogni carattere, e dato che tu hai trasmesso 8 caratteri…”.

“Ho bisogno di 14 bit! E in effetti ne ho usati proprio 14, bello. Non potevo fare di meglio”.

“Sì, questo era un esempio facile facile, con dei numeri belli, senza approssimazioni, ma ci fa capire come funziona l'idea”.

“Molto bene. Però, ho un dubbio”.

“Quale?”.

“Nella codifica simil-ASCII con due bit per carattere, io so dove finisce la codifica di un carattere e dove inizia quella del successivo, ma nella codifica di Shannon-Fano, che è a lunghezza variabile, come faccio?”.

“Ottima domanda. L'idea geniale di quel tipo di codifica è che essa è un codice prefisso, come dicono gli esperti”.

“Cosa significa?”.

“Significa che nessuna stringa di bit è anche prefisso di qualche altra stringa”.

“Ripeto la domanda: cosa significa?”.

“Guarda la tabella: A è associata a 0. C'è qualche altra lettera che ha un codice che incomincia con 0?”.

“No”.

“Quindi se in una stringa incontri uno 0, sai che hai trovato una A e che da quel punto comincia un altro simbolo”.

“Ah”.

“Invece, se trovi un 1 sai che devi andare avanti. Se trovi 10, sai che lì finisce il simbolo, perché 10 non compare da nessuna parte se non nella codifica di B”.

“Ma è davvero geniale! Se trovo 11, so che devo andare avanti e vedere se ho 110 oppure 111”.

“Proprio così. Questa codifica non è solo un'idea teorica usata per dimostrare qualcosa, ma viene usata davvero nella realtà. Nel metodo IMPLODE della compressione ZIP, per la precisione”.

“Ah, ma guarda, una parte di matematica che serve davvero a qualcosa”.

“Incredibile, eh?”.

sabato 22 maggio 2021

La nonna Giulia

Cento anni fa, il 22 maggio 1921, giorno di Santa Rita, come lei amava sempre ricordare, nasceva mia nonna, la persona nota a tutti come la nonna Giulia.

Ha vissuto la guerra, è stata sfollata, ha visto l'aeroplano Pippo sganciare bombe, una delle quali è caduta, inesplosa, nel cortile del gruppo di case in cui abitavano lei e alcuni fratelli. Suo marito, mio nonno, ha fatto la campagna di Russia, le ha raccontato come è sopravvissuto e come è riuscito a tornare a casa, concludendo: Giulia, se non sono morto là, non muoio più. Purtroppo non è stato così: pochi anni dopo, quando mia mamma faceva la terza media, forse il giorno prima dell'esame, non ricordo bene, il nonno è morto sul lavoro. Faceva il ferroviere, lavorava sui binari, conosceva gli orari dei treni a memoria, ha sentito il rumore del treno che doveva arrivare e si è spostato su un altro binario: purtroppo non ha sentito il rumore dell'altro treno che, fuori orario, stava passando su quel binario dove lui si era appena messo.

Dunque mia nonna non ha avuto una vita facile. Gliel'hanno resa meno pesante i nipoti, e io sono stato il primo, e per lei avevo un ruolo speciale. Mi ha fatto da mamma quando mia mamma non poteva esserci, perché aveva trovato da lavorare in un'altra città (alla banca d'Italia, quanto era orgogliosa mia nonna del fatto che sua figlia avesse vinto il concorso in un posto così prestigioso).

Mi salutava sempre allo stesso modo, anche quando ero ormai un distinto e rispettabile adulto al quale non si addiceva un saluto del genere: ciao, bella creatura! Nonna, dai, davanti a tutti. Beh, cosa c'è?

Andava tutte le domeniche in cimitero, a trovare suo marito. Una volta l'ho accompagnata (non mi piaceva molto visitare i cimiteri, quindi quella prima volta è stato un evento un po' speciale) e lei si è fermata davanti alla tomba e gli ha parlato, come se fosse lì. Guarda chi t'ho portato, ha detto.

Quando è diventata bisnonna è rinata. Quando è nato il mio primo figlio ha chiesto insistentemente di avere una foto con lei che lo teneva in braccio. Poi si è scusata della sua insistenza, e ci ha raccontato che voleva una foto che testimoniasse al primo bisnipote che lei c'era e l'aveva tenuto in braccio, dato che pensava che non sarebbe rimasta viva a lungo per poterlo vedere crescere e sentirlo parlare. E invece l'ha visto crescere per ventiquattro anni, e ne ha visti molti altri.

Si muoveva in bicicletta, sempre. Intorno ai novantaquattro anni è caduta, e mia mamma voleva impedirle di usarla ancora: lei l'ha presa malissimo, sembrava una condanna a morte. Allora è andata dal meccanico, gli ha detto oh, io devo andare in bicicletta ma qua non ci riesco più, è troppo alta e rischio di cadere, cum'a fàmia? Il meccanico ha capito, ha detto ci penso io, ha preso il flessibile e ha tagliato un pezzo di telaio, in modo da abbassare il seggiolino. Lei è tornata a casa ridendo come una bambina, e pedalando.

Spesso comandava, e per questo spesso litigava con mia mamma. Era una donna che ha vissuto da sola per la maggior parte della sua vita, la più grande di dodici fratelli, e che aveva la responsabilità di una figlia da educare e mantenere: non aveva un carattere facile, si doveva fare come diceva lei. Ma mi adorava.

Il regalo più grande che potevo farle era andarla a trovare e stare un po' con lei, e naturalmente ora penso che avrei potuto fare di più. Perché adesso la nonna non c'è più, è morta l'anno scorso poco prima di compiere novantanove anni, in piena pandemia, il cinque maggio. Ha avuto una polmonite, batterica, da cui si era ripresa, ma che l'aveva lasciata molto debilitata. Tanto che, una notte, ancora in ospedale, si è addormentata e non si è più svegliata.

Non è stato possibile celebrare il funerale: c'è stata solo una breve benedizione nel cortile davanti all'ospedale, con i nipoti e i bisnipoti. Il pomeriggio prima ero stato in visita alle camere ardenti: era tutto deserto, poteva entrare una sola persona alla volta, e mi sono trovato davanti all'ingresso assieme a un altro, evidentemente anche lui in visita. In attesa, ci siamo messi a leggere i mille cartelli che erano appesi all'entrata: uno di questi parlava delle "visite ai pazienti", e ci siamo messi a ridere di fronte alla definizione di "pazienti".

Qualche giorno fa l'ho finalmente sognata. Tutto, in quel sogno, era un simbolo che per me aveva un significato. Era a casa sua, seduta per terra tra la sala e la camera da letto. Questo mi ha ricordato quella volta in cui si è seduta per terra in mezzo ai bisnipotini, e noi le abbiamo detto nonna, cosa fai, adesso come fai a rialzarti? E lei, con un sorrisone, ha detto guarda, faccio così: ha piegato una gamba, appoggiato una mano, e si è alzata in un attimo. Me l'hanno insegnato a ginnastica, ha detto.

Era quindi tra la sala, dove stava sempre e dove tante volte ha fatto da mangiare per me, e la camera da letto, dove teneva la foto di suo marito. Tra le due stanze c'era un telo, un velo semitrasparente, e se vi viene in mente la scena della morte di Sirius Black, beh, era quel velo lì. Al di là del velo si vedeva in trasparenza il televisore, che era sempre acceso. Mi fa compagnia, diceva sempre.

Mi guardava, lì seduta per terra, e sorrideva. Mi sono svegliato, e sorridevo anche io.

domenica 9 maggio 2021

Capacità — 13. Compressione

La volta scorsa abbiamo visto cosa significa raggiungere il punto di massima entropia”.

“Sì, è quando tutto è inaspettato, equiprobabile, non puoi scommettere su niente”.

“Esatto, sì. Ma nei sistemi reali non sempre si raggiunge la massima entropia, a volte c'è qualche informazione più probabile”.

“Certo”.

“Per esempio, quando lanci due dadi e ne fai la somma”.

“Vero: non tutti i risultati sono equiprobabili. È più difficile fare 2 o 12 che non 7”.

“E quindi l'informazione sull'uscita del 7 porta con sé meno informazione rispetto a quella che ti dice che è uscito 12”.

“Se vogliamo metterla in questi termini, sì. Ma ancora non mi è del tutto chiaro il significato di questa affermazione”.

“Questo perché il concetto di entropia è difficile da digerire. Ma analizziamo l'esempio dei dadi: lanciando una coppia di dadi si possono avere 36 possibili risultati”.

“Questo se distingui il primo dal secondo, però”.

“Certo. Per ora distinguiamo tutto, poi mettiamo insieme. Per esempio, la somma 2 la puoi ottenere in un solo modo”.

“Quando il primo dado mi dà 1 e il secondo dado anche”.

“Sì. Invece 7 lo puoi ottenere in molti modi”.

“Già. Faccio uno schema:”.

 2: (1,1)
 3: (1,2), (2,1)
 4: (1,3), (2,2), (3,1)
 5: (1,4), (2,3), (3,2), (4,1)
 6: (1,5), (2,4), (3,3), (4,2), (5,1)
 7: (1,6), (2,5), (3,4), (4,3), (5,2), (6,1)
 8: (2,6), (3,5), (4,4), (5,3), (6,2)
 9: (3,6), (4,5), (5,4), (6,3)
10: (4,6), (5,5), (6,4)
11: (5,6), (6,5)
12: (6,6)

“Ottimo, guarda come si vede bene la struttura”.

“Vedo. Una volta su 36 ottengo 2, 6 volte su 36 ottengo 7”.

“E quindi l'uscita di un 7 ti stupirebbe di meno dell'uscita di un 2”.

“Sì, il 7 me l'aspetto di più.”.

“Questa è la tabella delle frequenze, e delle probabilità di uscita di ogni valore”.

 2: 1 — 0.028
 3: 2 — 0.056
 4: 3 — 0.083
 5: 4 — 0.111
 6: 5 — 0.139
 7: 6 — 0.167
 8: 5 — 0.139
 9: 4 — 0.111
10: 3 — 0.083
11: 2 — 0.056
12: 1 — 0.028

“Molto bene. E adesso?”.

“Adesso calcoliamo l'entropia: ricordi che per ogni valore bisogna calcolare il prodotto tra la probabilità di uscita e il logaritmo in base 2 del reciproco”.

plog2(1/p), ricordo. Faccio la tabella:”.

 2: 0.144
 3: 0.232
 4: 0.299
 5: 0.352
 6: 0.396
 7: 0.431
 8: 0.396
 9: 0.352
10: 0.299
11: 0.232
12: 0.144

“Bene, ora somma tutto”.

“Risulta 3.274. Cosa significa?”.

“Significa che, alla lunga, ti bastano 23.274 domande per sapere quale valore è uscito. O, in alternativa, la somma di due dadi può rappresentare 23.274 = 9.676 valori equiprobabili”.

“Uhm, vabbé”.

“Mettiamola così: i possibili valori che può assumere la somma di due dadi sono 11, ma sono troppi. Possiamo usarne meno, ma non per indovinare che valore è uscito una volta. Immagina di avere una sequenza molto lunga di lanci, diciamo un milione, e di doverla trasmettere. Come potresti fare?”.

“Beh, faccio un elenco e li trasmetto, no?”.

“Vorrei una descrizione più precisa: come è fatto l'elenco?”.

“Una roba del genere: 2, 5, 6, 12, 9, eccetera”.

“Così c'è un gran spreco di roba, però”.

“In che senso?”.

“Hai usato una virgola per separare ogni numero, e anche uno spazio”.

“Ah”.

“Puoi risparmiare spazio, poi la codifica decimale è esagerata”.

“Mh. Ho undici simboli, in qualche modo li devo scrivere”.

“Già, ma te ne bastano 11, non ne servono di più. Per esempio, potresti usare la base 11, e usare questi simboli: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A”.

“Risparmio un carattere per il 10, l'11 e il 12”.

“Non solo, risparmi anche le virgole e gli spazi. Se scrivi una cosa tipo questa, 71264A03191A26A, non hai bisogno di separare le cifre”.

“Giusto. Ma allora potrei fare di meglio: questi caratteri vengono memorizzati dal computer in modo da sprecare spazio, perché uso un byte per ognuno di essi”.

“Forse anche di più, dipende dalla codifica. Una volta si usava la codifica ASCII a 7 bit, poi siamo passati a 8, poi con l'UNICODE possiamo arrivare a 32 bit”.

“Che spreco. Potrei allora creare una codifica apposta, e rimanere sui 7 bit”.

“Ma sono ancora tanti, no? Con 7 bit si possono codificare 128 simboli, a te ne bastano molti meno”.

“Fino a quanto posso scendere, quindi?”.

“Fino a una codifica di massima entropia”.

“Ah”.

“Qui sta il bello: la codifica migliore è quella che usa soltanto 9.676 simboli, e la puoi ottenere con 3.274 bit. Ovviamente questo è un valore teorico, ma più lunga è la sequenza che vuoi codificare, più vicino puoi arrivare a questo numero”.

“Oh, bello. Ma questo discorso c'entra forse qualcosa con la compressione dei dati?”.

“Certo: ti dice qual è il massimo teorico che puoi raggiungere comprimendo quei dati”.

“Ah. E come si fa a raggiungerlo, in generale? Prendendo una sequenza qualsiasi, voglio dire, non solo la sequenza dei lanci di due dadi”.

“Ah, boh. Il teorema di Shannon ti dice solo che si può fare, non ti dice mica come”.

domenica 11 aprile 2021

Capacità — 12. Punto di massima entropia

“Possiamo quindi concludere”.

“Lo studio dell'entropia di un sistema?”.

“O, almeno, di questa prima parte”.

“Ah”.

“Siamo finalmente arrivati alla formula H(p1, …,pn) = p1log2(1/p1) + … + pnlog2(1/pn)”.

“Eh, ricordo”.

“Ora prendiamo in considerazione un caso particolare, quello di una sola variabile aleatoria”.

“Eh?”.

“Prendiamo una moneta”.

“Meglio”.

“Non equa: diciamo che la probabilità che esca una faccia sia p”.

“E quindi la probabilità che esca l'altra faccia sarà 1 − p”.

“Esatto, e la formula relativa all'entropia diventa molto semplice: H = plog2(1/p) + (1 − p)log2(1/(1 − p))”.

“Ok”.

“Formula di cui possiamo disegnare un grafico”.

“Ah”.

“Eccolo qua”.


“Una parabola?”.

“Assolutamente no: ci sono dei logaritmi, non dei polinomi di secondo grado”.

“Però sembra una parabola”.

“Sembra. Ma non è prolungabile verso il basso come una parabola: questa curva finisce lì, ha un dominio limitato”.

“Ah. E cosa ci dice, questo grafico?”.

“Ci mostra una cosa che avevamo già intuito: l'entropia massima si ha quando p = 1/2”.

“L'avevamo già intuito?”.

“Eh, sì: la moneta più imprevedibile è quella equa, quella per la quale la probabilità di uscita delle due facce è la stessa. Se la moneta fosse sbilanciata, l'entropia sarebbe minore, perché una moneta non equa trasporta meno informazione di una moneta equa. Se 9 volte su 10 esce Testa, sai già cosa aspettarti quando lanci la moneta”.

“Ah, vedo: se la moneta avesse due Teste, l'entropia sarebbe uguale a zero perché non avremmo nemmeno bisogno di lanciarla per sapere quale faccia uscirà”.

“Esatto. La situazione più incerta, quella con maggiore entropia, è quella in cui p = 1/2. Tutte le altre sono più prevedibili”.

“E abbiamo fatto tutto questo per dimostrare una cosa che sapevamo già?”.

“Ehm, beh. Un conto è intuire, un conto è matematizzare”.

“Non ci posso credere”.

martedì 9 marzo 2021

Capacità — 11. Entropia

“Abbiamo visto un esempio che aveva lo scopo di calcolare quanta informazione può contenere una moneta truccata”.

“Ricordo: il trucco è stato quello di trasformare il problema della moneta truccata nel problema di un'urna contenente un certo numero di palline, alcune con la scritta Testa e altre con la scritta Croce, in modo da rispettare le probabilità di uscita delle due facce della moneta”.

“Esatto. E ci siamo detti che avremmo potuto generalizzare il discorso”.

“Capirai”.

“Mettiamo in ordine le cose, via. Abbiamo n messaggi diversi, che indichiamo con s1, s2, …, sn, ognuno dei quali ha probabilità p1, p2, … pn”.

“E va bene”.

“Approssimiamo le varie probabilità con delle frazioni: pk1/N, pk2/N, e così via”.

“Ok. Usiamo le frazioni per ricondurci all'esempio dell'urna con le palline, vero?”.

“Esatto. Costruiamo un'urna che contenga N palline, in modo tale che l'estrazione di una di esse rispetti le probabilità dei singoli messaggi”.

“Perfetto”.

“Ora abbiamo due modi per calcolare il numero di domande che ci servono per individuare una singola pallina. Il primo è quello di dire che ci serve un numero di domande pari al log2N”.

“E questo era facile. L'altro modo suppongo che sia la generalizzazione di quello che abbiamo visto l'ultima volta”.

“Già. L'altro modo consiste prima di tutto nel calcolare il numero medio di domande per sapere se abbiamo estratto una pallina contenente il messaggio s1, oppure s2, eccetera; questo numero lo indichiamo con H(k1/N, …, kn/N). A questo valore dobbiamo aggiungere il numero medio di domande per capire quale tra le palline etichettate con s1 è uscita, quale tra quelle etichettate con s2, e così via. Questi numeri sono uguali a (k1/N) log2k1, (k2/N) log2k2, eccetera”.

“Fammi provare a scrivere l'uguaglianza”.

“Prego”.

“Allora, ecco:”.

log2N = H(k1/N, …,kn/N) + (k1/N) log2k1 + … + (kn/N) log2kn.

“Ottimo. Ora, spezzando il logaritmo in base 2 di N che hai sinistra, come abbiamo fatto l'altra volta, e ridistribuendolo nei logaritmi di destra, puoi arrivare a questa bella formula:”.

H(k1/N) = (k1/N) log2(N/k1) + … + (kn/N) log2(N/kn).

“Bella, insomma”.

“E se, al posto di quelle frazioni, rimettiamo le probabilità, ecco questa bellissima formula:”.

H(p1, …,pn) = p1log2(1/p1) + … + pnlog2(1/pn).

“Che roba”.

“Per esempio, supponiamo che le statistiche di un certo esame ci dicano che metà degli studenti ha come giudizio Non sai niente torna più avanti, un quarto degli studenti ha come giudizio Te la sei cavata perché non posso bocciare tutti, un ottavo degli studenti ha Forse hai capito qualcosa, e l'ultimo ottavo ha Bene, hai capito, allora l'entropia di informazione di questo sistema-esame che può emettere quattro diversi messaggi è uguale a:”.

H(1/2, 1/4, 1/8, 1/8) = 1/2 log22 + 1/4 log24 + 1/8 log28 + 1/8 log28 = 7/4 = 1.75 bit.

“Quindi alla lunga mi servono 1.75 domande per sapere che voto ho preso”.

“Esatto, ma per sapere se l'esame è stato superato te ne basta una sola”.

“Meglio abbreviare le sofferenze”.

“Già”. 

domenica 7 febbraio 2021

Capacità — 10. Monete truccate

“Rieccoci, pronti per parlare di trasmissioni, canali, capacità”.

“È passato molto tempo”.

“Sì, facciamo un riassuntino. Abbiamo visto come si può calcolare la capacità di un canale che trasmette informazioni, semplificando all'osso il significato di informazione. In pratica, ci siamo ricondotti all'idea che per ottenere informazioni io posso fare domande e ottenere, come risposte, un o un no. Con tanti e no posso ottenere risposte anche a domande complicate, basta farne abbastanza”.

“Alla fine, abbiamo visto che le domande che servono, in media, sono uguali al logaritmo in base 2… uhm, il logaritmo in base 2 di che cosa?”.

“Del numero di domande che devo fare per capire quale dei tanti messaggi è stato trasmesso, il tutto diviso per la lunghezza dei messaggi in questione”.

“Uhm, ok, devo ripassare”.

“Dopo facciamo un altro esempio, dovrebbe tornare tutto alla mente”.

“Speriamo”.

“Chiamiamo entropia di informazione, quindi, il numero medio minimo di domande che, alla lunga, mi servono per individuare quale messaggio viene trasmesso”.

Numero medio minimo di domande alla lunga. Non esisteva una definizione più complicata?”.

“Eh. Allora: medio si riferisce al fatto che vogliamo capire, in media, quante domande ci servono per individuare un messaggio. Devo ragionare sulle medie perché in alcuni casi può servire un certo numero di domande, in altri casi un numero di domande maggiore, o minore. Il numero di domande è costante quando il numero di messaggi è una potenza di 2, altrimenti in alcuni casi potrebbero servire meno o più domande rispetto ad altri casi”.

“Va bene, questo lo ricordo”.

“Parliamo di minimo perché voglio fare il minor numero di domande possibile, in media, senza perdere tempo”.

“E questo mi pare logico”.

“E diciamo alla lunga perché più si allungano i messaggi, migliore è il calcolo teorico. Insomma, se per un messaggio abbiamo tre casi da esaminare e possiamo ottenere risposte binarie, in alcuni casi serve una domanda e in altri casi ne servono due. Se però cominciamo ad accumulare messaggi, allora il calcolo che facciamo si avvicina sempre di più al logaritmo”.

“Vero, ricordo anche questo esempio”.

“Se, per esempio, abbiamo una moneta non truccata, in cui cioè le due facce hanno entrambe probabilità pari a 1/2 di presentarsi, allora indichiamo con H(1/2, 1/2) l'entropia di informazione della moneta”.

“Mi serve una domanda sola per scoprire cos'è uscito, no?”.

“Certo. Una domanda con una moneta, due domande con due monete, tre domande con tre monete, e così via. Alla lunga, ma anche alla corta, ti serve una domanda per moneta”.

“Quindi l'entropia vale 1. Uno cosa, poi?”.

“Un bit: l'avevamo chiamata così, l'unità di misura”.

“Giusto”.

“Ora prendiamo una moneta truccata. Una moneta leggermente sbilanciata, in cui Testa ha probabilità di uscita pari a 2/5, e Croce ha probabilità 3/5. Vogliamo calcolare l'entropia di questa moneta, cioè H(2/5, 3/5). Ti aspetti che sia maggiore o minore di 1?”.

“Uhm, non saprei”.

“Ti è più facile conoscere il risultato del lancio di questa moneta, o di quella equilibrata?”.

“Ah, se la metti così… quella equilibrata è imprevedibile, non posso assolutamente prevedere cosa uscirà”.

“Mentre l'altra?”.

“Bè, l'altra è leggermente sbilanciata, se dovessi scommettere, alla lunga direi che è più conveniente scommettere su Croce”.

“Quindi sai qualcosa di più: quella moneta è più prevedibile”.

“Allora l'entropia dovrebbe essere minore di 1: se l'imprevedibilità totale la risolvo con una domanda, questa dovrei risolverla con un po' meno fatica. Ma come la calcoliamo?”.

“Simuliamo la moneta con un'urna contenente cinque palline: due sono contrassegnate con la T e tre, invece, con la C”.

“Ok”.

“Ora calcoliamo, prima di tutto, l'entropia di quest'urna, supponendo che essa contenga 5 palline distinguibili”.

“Ah, quindi non ci interessa soltanto sapere se esce T o C?”.

“Per ora no, vogliamo più dettaglio”.

“Allora, è come se ci fossero 5 scelte e io dovessi scoprire quale di queste è stata fatta. Da tutto quello che abbiamo detto, oserei dire che l'entropia è il logaritmo in base 2 di 5”.

“Esatto, abbiamo fatto tutta la fatica che abbiamo fatto per poter, ora, rispondere velocemente a questa domanda. Alla lunga ti servono, in media, log25 domande”.

“Bene. Quindi?”.

“Quindi ora possiamo rifare lo stesso calcolo in un altro modo. Per sapere quale pallina è uscita, prima di tutto devi sapere se è uscito T o C, e poi quale T o quale C”.

“Oserei dire che è ovvio, ma non capisco come mi possa aiutare”.

“Il numero medio di domande che devi fare per sapere se è uscito T o C è proprio H(2/5, 3/5)”.

“Grazie, ma non lo conosco!”.

“Non importa, è quello, teniamolo indicato”.

“Ah, vabbé”.

“Poi, per sapere quale T…”.

“Mi serve ancora una domanda, perché le T sono due!”.

“Esatto. Attenzione: 2 volte su 5 ti basta una domanda, perché la T esce 2 volte su 5. Permettimi però di indicare il numero di domande (che è pari a 1, in questo caso) come log22”.

“Ok, complichiamoci la vita. Se invece è uscita C… so che di C ce ne sono 3, uhm”.

“Quante domande devi fare per distinguere un oggetto tra 3?”.

“Ah, ma è il solito problema: il logaritmo in base 2 di 3”.

“Esatto. Quindi 3 volte su 5 ti serve un numero di domande pari a log23”.

“Come metto insieme tutto questo?”.

“Da un lato hai visto che per scoprire quale pallina è uscita dall'urna ti servono log25 domande, dall'altro hai visto che puoi arrivare allo stesso risultato prima chiedendoti prima solo se è uscito T o C, e poi quale T o quale C, e cioè H(2/5, 3/5) + 2/5 log22 + 3/5 log23”.

“Mi stai dicendo che abbiamo trovato che log25 = H(2/5, 3/5) + 2/5 log22 + 3/5 log23?

“Esatto”.

“Ma allora posso ricavare H(2/5, 3/5)!”.

“Certo, abbiamo fatto tutta questa fatica per questo motivo. Avanti, arriva alla fine”.

“Ecco qua: H(2/5, 3/5) = log25 − 2/5 log22 − 3/5 log23”.

“Permettimi di giocare un po' con le proprietà dei logaritmi, per scrivere questa formula in un modo più carino e generalizzabile”.

“Va bene”.

“Spezzo in due parti il log25: dico che è uguale a 2/5 log25 + 3/5 log25”.

“Giusto. Vedo che hai usato gli stessi coefficienti dell'altra parte”.

“Esatto. Al momento l'uguaglianza è diventata così: H(2/5,3/5) = 2/5 log25 + 3/5 log25 − 2/5 log22 − 3/5 log23”.

“Va bene. Suppongo che metterai insieme i pezzi con gli stessi coefficienti, giusto?”.

“Sì, scrivo in questo modo: H(2/5, 3/5) = 2/5 (log25 − log22) + 3/5 (log25 − log23)”.

“E ora?”.

“Trasformo le differenze tra logaritmi in logaritmi di rapporti: H(2/5, 3/5) = 2/5 log2(5/2) + 3/5 log2(5/3)”.

“Ah, carino”.

“Bè, puoi fare il calcolo adesso. Viene minore di 1 come ti aspettavi?”.

“Vediamo… viene 0.971. Un po' meno, sì: bella roba”.

“E naturalmente tutto questo si può generalizzare”.

“Non potremmo certo privare un Vero Matematico del piacere di una generalizzazione”.

“Eh, già”.

giovedì 14 gennaio 2021

Carnevale della Matematica #146

Sei, quaranta e cento: la notazione posizionale ci permette di usare solo dieci simboli per scrivere tutti i numeri che vogliamo (insomma, tutti no, ma ci siamo capiti). Sei unità, quattro decine, un centinaio. Se usassimo un abaco, potremmo riferirci a una figura del genere:

Ma questa non è, naturalmente, l'unica rappresentazione del numero 146. Un computer standard, ad esempio, non usa la rappresentazione decimale: dieci simboli sono troppi da gestire, molto meglio usarne solo due: presenza di una certa tensione o assenza di quella tensione, zero o uno, sì o no, vero o falso.

Così:

Potremmo poi operare la seguente sostituzione, secondo il metodo exploding dots: cancelliamo un pallino da una casella e lo sostituiamo con due pallini nella casella di destra – lo spostamento verso destra divide tutto per due, il raddoppio dei pallini rimette a posto i conti; il computer che usa la rappresentazione binaria non capirebbe più niente, ma noi siamo meglio di lui. Ecco qua:



E, così facendo, ci accorgeremmo che solo le caselle che corrispondono alle potenze di 8 sono occupate, e potremmo quindi concludere che il numero 164 si scrive, in base 8, in modo molto elegante, e cioè 222.

Potremmo, a questo punto, rimanere insensibili di fronte alla peculiarità di 222, un bel numero palindromo? Certo che no, ed è per questo che il tema di questo Carnevale è proprio la palindromicità.

Del resto, oggi, 14 gennaio, è il compleanno di Tarski, e lui avrebbe certamente gradito. Oggi è anche il capodanno ortodosso, e non possiamo lasciarci sfuggire il fatto che 2021×1202 = 2429242. E il 1202 non è un anno qualsiasi: è l'anno in cui Fibonacci ha scritto il Liber Abaci; e a proposito di abaco, il buon Leonardo Pisano avrebbe apprezzato le figure qua sopra con le palline nelle caselle.

E se ci permettessimo di giocare un po' con la numerologia, non potremmo fare a meno di notare che il più bel nome italiano palindromo (secondo l'insindacabile giudizio di chi scrive), e cioè Anna, mediante l'associazione lettera-numero tipica dell'alfabeto italiano, che vede la lettera A corrispondere al numero 1 e la lettera N corrispondere al numero 12, produce, mediante l'inserzione, palindroma pure quella, dei simboli di somma e moltiplicazione, il bel risultato 1 + 12×12 + 1 = 146. Ancora meglio, 1 + 12×12 + 1 = 222 in base otto, parola pure essa palindroma.

Indulgendo ancora un po' in questa libera associazione di idee, non potremmo poi tacere del fatto che uno dei primi personaggi famosi a portare il nome di Anna è la moglie di Gioacchino, la madre di Maria, che, in quanto madre, è venerata dalla cristianità anche come patrona delle partorienti.

Secondo gli antichi greci, la protettrice delle partorienti era Ilizia; la sua corrispondente romana era invece Giunone Lucina, colei che porta i bambini verso la luce.

Ed è proprio guardando una nuova luce in cielo che, l'otto giugno 1875, l'astronomo francese Alphonse Louis Nicolas Borrelly scopre un nuovo asteroide che, in seguito, sarà proprio chiamato 146 Lucina.

Per rimanere in tema biblico-palindromico, facendo riferimento al versetto del vangelo di Matteo 16, 20, "così gli ultimi saranno primi e i primi ultimi", ecco i contributi dei Rudi Mathematici. I quali hanno iniziato il periodo associato a questo carnevale con un post dal titolo evocativo: Far girare le sfere senza rompere le scatole. Per amore di decenza, non aggiungiamo il commento relativo alla palindromicità di sfere e scatole. L'indovinello del cellario ha poi inaugurato il tempo natalizio, un post forse non rispettoso del tema palindromico ma certamente rispettoso delle sbronze natalizie. Ci sono poi state le soluzioni al problema pubblicato su Le Scienze, un problema che parla di elezioni truccate, o quasi. E su questo tema, santo cielo, sarebbe opportuno stendere un velo pietoso. Il giorno della Befana, infine, hanno pubblicato il Calendario del 2021, giunto alla ventiduesima edizione (numero palindromo, naturalmente): sarebbe il caso di far loro gli auguri. Per la serie Quick and Dirty, poi, c'è un piccolo post dal titolo Bugiardi?, per il quale pare che la lunghezza del titolo sia inversamente proporzionale alla lunghezza dell'elenco dei commenti che propongono variazioni e generalizzazioni. Infine, il numero di dicembre della prestigiosa rivista di matematica ricreativa è uscito il 29 (ufficialmente in regola, quindi), e si trova qui. Quello di gennaio, mah, prima o poi sarà pubblicato invece qui: vediamo se uscirà prima di questo Carnevale, o dopo.

Roberto Natalini manda un elenco sterminato di post. Eccoli qua:

I 10 post più letti su MaddMaths! nel 2020 e altri numerelli interessanti
Finisce il 2020, ed è il momento di tirare le somme di un anno pieno di notizie.


I modelli matematici, strumenti potenti ai tempi della pandemia Covid-19
Come sintesi alla fine di questo anno così dominato della pandemia e dai modelli epidemiologici vi proponiamo un articolo di Iulia Martina Bulai, del Dipartimento di Matematica, Informatica ed Economia dell’Università della Basilicata, originariamente apparso in inglese nella Newsletter of the European Women in Mathematics.

Oroscopo 2021 per Matematici e creature simili
Di solito gli oroscopi non interessano i matematici, che spesso preferiscono affidarsi agli algoritmi. Ma in realtà molto dipende da chi propone l’oroscopo in questione. Quest’anno proviamo con quello proposto da Raffaella Mulas e vediamo cosa succede.

Ci ha lasciati Pietro Greco
Il 18 dicembre, ci ha lasciati Pietro Greco, grande maestro della comunicazione della scienza. Di seguito i ricordi di Stefano Pisani e di Sandra Lucente e Roberto Natalini.


Matematica, sentirsi a bordo

Nelle scorse settimane le edizioni Mateinitaly (quelle del mensile Prisma, per intenderci) hanno pubblicato il libro “Diaro di bordo. Una prof di matematica nell’anno del lockdown” di Sofia Sabatti. Ecco la recensione di Roberto Natalini.


1+1 non fa (sempre) 2 – recensione dell’ultima lezione di John Barrow

John D. Barrow, cosmologo, matematico e astrofisico, professore all’Università di Cambridge, autore del testo teatrale “Infinities” e di decine di saggi e articoli divulgativi, è morto il 27 settembre scorso all’età di 67 anni. Ci ha lasciato un ultimo libro, edito da Il Mulino, pubblicato per ora solo in italiano sotto la supervisione di Pino Donghi. Lo ha letto e ce ne parla Roberto Natalini.

Il genere conta

L’uso del femminile nelle professioni è un argomento di cui si discute molto (e in maniera piuttosto accesa) in quest’ultimo periodo. Chiara de Fabritiis (coordinatrice del Comitato Pari Opportunità dell’UMI) ne ha parlato con Vera Gheno, una linguista che ha uno spiccato interesse per la comunicazione in rete.

Ripetizioni. Puntata 20: “Regali di Natale”

Tornano le Ripetizioni di Davide Palmigiani. Questa volta si parla di regali e di “Secret Santa”.

DIALOGO SUI NUMERI PRIMI

Alessandro Zaccagnini ci propone un suo “Dialogo sui numeri primi”, un esercizio di stile in cui per varie settimane ha parlato dei numeri primi in modo interessante senza usare formule, o quasi. Nel dialogo, che trovate diviso in “giornate”, troverete tre personaggi presi a prestito da Galileo: Salviati, che è un copernicano (un teorico dei numeri analitico), Sagredo, che è un patrizio (un matematico di un altro settore), e Simplicio, che è un tolemaico (un dilettante). Tutte le puntate le trovate qui sotto, ma le trovate anche in ebook (pdf, epub, mobi) scaricabile in questa pagina.

 


Mathematical Graffiti #6 – Igor Tamm e il calcolo che… salva la vita
Perché un giorno il fisico russo Igor Tamm, premio Nobel per la fisica nel 1958, benedisse gli sviluppi in serie. 


Alberto Saracco ci propone i nuovi video della sua serie “Un matematico prestato alla Disney“, in cui fa divulgazione della matematica traendo spunto da storie di paperi e topi. 
Puntata 28: Speciale Natale - Il principe delle nebbie - Tutorial fiocchi di neve
Puntata 29: Il fantomatico ipergigacolossaliardo – Numeri molto grandi


La giovane matematica Raffaella Mulas ci propone la sua video-rubrica “La matematica danzante”.

Leonardo Petrillo, proseguendo il percorso cominciato qualche mese fa con una "semplice" introduzione all'equazione di Schrödinger, ha scritto una seconda puntata che va ad ampliare un po' la visione illustrando il concetto essenziale di operatore nell'ambito della meccanica quantistica e le regole di commutazione fondamentali, chiamate anche commutatori canonici.

.mau. ha scritto, sul Post, ben due post sui numeri di Lychrel (in perfetto tema, come leggerete): Numeri che forse non esistono, e 6174, 196 e altri numeri. Inoltre, sempre sul Post ha scritto i problemini per Natale 2020 (se lo leggete venti-venti, potete leggerlo anche al contrario), con le relative soluzioni, e Gallera ci ritenta con i numeri, dove l'ormai ex assessore lombardo al welfare garantisce gioioso che a brevissimo termine arriveranno a fare un numero di vaccinazioni che farà terminare la campagna a fine 2022. Sulle Notiziole invece abbiamo i soliti quizzini della domenica, questo mese Catena di domino - Numeri civiciL'orologio di zio GinoIl cortile del palazzo ducale. Per le recensioni, a questo giro c'è solo The Thrilling Adventures of Lovelace and Babbage: è un fumetto assolutamente fuori di testa e con parecchia matematica diretta e indiretta (c'è anche un cameo di George Boole). Poi purtroppo c'è l'obituary di Pietro Greco; seguito da un post di povera matematica, I gradi sono tanti, milioni di milioni, in cui si scopre che la volta celeste ha un numero di gradi molto maggiore di quanto credevamo; e una curiosità sul 2021, che è un numero ottenuto giustapponendo due interi consecutivi oltre che essere il prodotto di due primi consecutivi.

Anna(lisa) Santi, in perfetto tema, segnala un dialogo scritto su Matetango durante una gita in un bel passo montano dell'alto valtellinese, con relativa escursione ai 2924 metri del Pizzo del Diavolo. Il dialogo è con un diabolico numero palindromo, il numero primo 1000000000000066600000000000001, e si trova qua: Belfagor e Annalisa… un dialogo surreale!

Il fatto che 146 sia un numero composto da 2 e 73 produce due effetti. Il secondo è la seguente cellula melodica, preparata dal buon Dioniso:

   

Una cellula melodica speciale e forse irripetibile: una cellula melodica cancrizzante, anche lei in perfetto tema, e che si rifà al primo effetto: l'immortale verso della poesia Gaussiana canta sottovoce.

Non rimane che annunciare il prossimo Carnevale, che sarà il numero 147, ospitato dai Rudi Mathematici. Mentre questo, che avete appena letto, era il numero cento, quaranta e sei.

martedì 12 gennaio 2021

Anna e Otto onorarono Otto e Anna

Oggi è il 12–1–21, data palindroma che annuncia, tra due giorni, un Carnevale palindromo.

E tra poco parte.

E la sete sale.