Indietro

ⓘ Legge di Zipf




                                     

ⓘ Legge di Zipf

Viene detta legge di Zipf una legge empirica che descrive la frequenza di un evento P i {\displaystyle P_{i}} facente parte di un insieme, in funzione della posizione i {\displaystyle i} nellordinamento decrescente rispetto alla frequenza stessa di tale evento.

f P i = c i {\displaystyle fP_{i}={\frac {c}{i}}}

dove:

  • P i {\displaystyle P_{i}} indica levento che occupa li-esimo rango ovvero li-esimo evento più frequente
  • f P i {\displaystyle fP_{i}} è il numero di volte frequenza che si verifica levento P i {\displaystyle P_{i}}
  • i {\displaystyle i} indica il rango
  • c {\displaystyle c} è una costante di normalizzazione, pari al valore f P 1 {\displaystyle fP_{1}}.

Il linguista George Kingsley Zipf la descrisse nel 1949 in Human Behaviour and the Principle of Least-Effort Comportamento umano e il principio del minimo sforzo.

                                     

1. Campi di applicabilità

I campi di applicabilità della legge di Zipf sono svariati, e sono anche esistite tendenze di pensiero che lhanno addirittura proposta come la controparte della distribuzione gaussiana nellambito delle scienze sociali. In realtà come le distribuzioni nelle scienze naturali non seguono sempre un andamento gaussiano, tanto meno le distribuzioni delle scienze sociali o degli eventi correlati allattività umana possono essere precisamente inquadrate negli andamenti iperbolici della legge di Zipf. Esistono tuttavia casi in cui i risultati previsti dalla legge di Zipf sono fortemente verificati dai dati osservati; fra i più famosi senzaltro vi sono quelli che considerano le frequenze delle parole negli scritti, o quelli che analizzano la distribuzione della popolazione nelle varie città di uno stato. Questi ultimi esempi sono stati approfonditamente analizzati e documentati dallo stesso Zipf nei suoi più famosi scritti. In campo economico la legge di Zipf si adatta bene a rappresentare la situazione di produttività delle varie compagnie che operano in un medesimo settore. Se si rappresenta la produttività di una azienda in funzione della sua posizione di classifica si ottiene landamento iperbolico della legge di Zipf. Questo fatto era stato, del resto, già osservato alla fine dellOttocento dalleconomista Vilfredo Pareto.

Più in generale la legge di Zipf può essere riformulata come:

f P i = c i 1 − θ {\displaystyle fP_{i}={\frac {c}{i^{1-\theta}}}}

con θ {\displaystyle \theta } costante positiva prossima a 0 per θ = 1 {\displaystyle \theta =1} si rientrerebbe nella distribuzione casuale, cioè nellequiprobabilità

                                     

2.1. Aspetti teorici La legge di Zipf e la funzione zeta

Usando la legge di Zipf più generale il termine

∑ i = 1 ∞ 1 i a {\displaystyle \sum _{i=1}^{\infty }{\frac {1}{i^{a}}}}

è la funzione zeta di Riemann ζ a {\displaystyle \zeta a}

                                     

2.2. Aspetti teorici Zipf, Mandelbrot e Shannon

Benoît Mandelbrot dimostrò negli anni cinquanta che simili leggi possono essere dedotte a partire dalla teoria dellinformazione di Claude Shannon.

La legge dinamica indica come massimizzare lutilità di un canale massimizzando lentropia, utilizzando preferibilmente i simboli meno costosi. Ad esempio, nel codice morse la frequente lettera e è codificata con un singolo punto., mentre la meno frequente lettera x è rappresentata da una linea, due punti e una linea -. Il codice di Huffman applica tale legge dinamica.

Mandelbrot fa lipotesi che il costo di utilizzo sia direttamente proporzionale al costo di memorizzazione, dopo averlo constatato su tutti i dispositivi che ha osservato, dalla scrittura contabile fino ai computer.

Eliminando il costo tra le due equazioni si ritrova una famiglia di equazioni che legano la frequenza di una parola al suo rango affinché il canale venga utilizzato in maniera ottimale. Questa ulteriore generalizzazione, detta pure legge di Mandelbrot è data da

np i b + c i a = cost per cui la legge semplice di Zipf è quella in cui a =1, b =0 e c =1.

È stato osservato come nella maggior parte delle lingue esistenti il parametro allesponente a sia prossimo a 1.1 e 1.2, mentre nel linguaggio dei bambini si approssima a 1.6.

Rappresentando le leggi di Zipf e di Mandelbrot in un sistema cartesiano con le coordinate log-log, allora la legge di Zipf corrisponde ad una retta, mentre la legge di Mandelbrot mostra una gobba.



                                     

2.3. Aspetti teorici La legge di Zipf le variabili casuali

Una interpretazione della legge di Zipf come variabile casuale è data dalla variabile casuale Zeta, per questo motivo detta pure variabile casuale di Zipf. Lequivalente continuo è la variabile casuale Paretiana.

Casi simili sono considerati la legge di Bradford, la variabile casuale di Yule e la legge di Benford.

                                     

2.4. Aspetti teorici Analogie

Il rapporto esistente tra le leggi di Zipf e di Mandelbrot è simile a quello esistente tra la legge di Mariotte e quella di van der Waals, considerato che in entrambi i casi un fattore di correzione il parametro a nel caso della legge di Mandelbrot permette di approssimare i dati osservati con i valori teorici, rappresentando un qualche cosa di "incomprimibile".

                                     

3. Tipi di raccolte di dati assunte a sostegno della legge

  • note in spartiti musicali;
  • distribuzione delle imprese;
  • frequenza delle parole in determinati testi;
  • dimensione degli abitati, città;
  • frequenza degli accessi alle pagine internet;
  • distribuzione dei redditi;
  • forza dei terremoti.