Pr08a81l1ta' a P3dal1
Total Page:16
File Type:pdf, Size:1020Kb
PR08A81L1TA' A P3DAL1 PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]]. PDF generated at: Mon, 17 Dec 2012 06:23:07 UTC Indice Voci PR08A81L1TA' di Base 1 Probabilità 1 Spazio campionario 8 Teoria della probabilità 13 Indipendenza stocastica 15 Teorema della probabilità composta 16 Teorema della probabilità assoluta 17 Probabilità condizionata 18 Teorema di Bayes 20 Rapporti agili 24 Distribuzione discreta 24 Distribuzione discreta uniforme 25 Distribuzione di Bernoulli 29 Processo di Bernoulli 30 Distribuzione binomiale 32 Distribuzione geometrica 36 Distribuzione di Poisson 39 Distribuzione di Pascal 44 53 X ... 48 Distribuzione continua 48 Funzione di ripartizione 50 Funzione di densità di probabilità 53 Variabile casuale 55 Variabili dipendenti e indipendenti 60 Valore atteso 61 Varianza 64 Legge della varianza totale 67 Covarianza 68 Deviazione standard 70 Media (statistica) 73 Distribuzione normale 78 Funzione di ripartizione della variabile casuale normale 83 Distribuzione t di Student 85 Distribuzione chi quadrato 91 Distribuzione di Fisher-Snedecor 97 Cima Coppi 101 Disuguaglianza di Čebyšëv 101 Disuguaglianza di Markov 103 Legge dei grandi numeri 103 Teoremi centrali del limite 108 Processo markoviano 113 Pignoni 117 Calcolo combinatorio 117 Coefficiente binomiale 120 Teorema binomiale 122 Coefficiente multinomiale 125 Tappe in linea 127 Problema di Monty Hall 127 Paradosso delle tre carte 136 Paradosso dei due bambini 138 Paradosso del compleanno 141 Blackjack 142 Poker 147 Roulette 152 Hors Catégorie 156 Continuità assoluta 156 Integrale 158 Convoluzione 170 Sigma-algebra 174 Algoritmo di Metropolis-Hastings 178 Metodo Monte Carlo 179 Defaticamento 187 Statistica 187 Inferenza statistica 192 Campionamento statistico 194 Box-plot 196 Istogramma 197 Quantile 198 Quartile 200 Indicatore statistico 200 Indice di posizione 203 Intervallo di confidenza 203 Ipotesi nulla 204 Test di verifica d'ipotesi 204 Note Fonti e autori delle voci 207 Fonti, licenze e autori delle immagini 210 Licenze della voce Licenza 211 1 PR08A81L1TA' di Base Probabilità Il concetto di probabilità, utilizzato a partire dal '600, è diventato con il passare del tempo la base di diverse discipline scientifiche rimanendo tuttavia non univoco. In particolare su di esso si basa una branca della statistica (la statistica inferenziale), cui fanno ricorso numerose scienze sia naturali che sociali. Cenni storici I primi studi che portarono successivamente a concetti legati alla probabilità possono essere trovati a metà del XVI secolo in Liber de ludo aleæ di Girolamo Cardano (scritto nel 1526, ma pubblicato solo un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi di Galileo Galilei (pubblicato nel 1656). In particolare, Galileo spiegò come mai, lanciando tre dadi, la probabilità di uscita delle somme 10 e 11 sia più probabile dell'uscita del 9 e del 12, nonostante entrambi i Alcuni dadi a sei facce. risultati si ottengano da un uguale numero di combinazioni.[1] Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba essere interrotto, venne affrontato da Luca Pacioli, noto anche come Fra Luca dal Borgo, nella sua Summa de arithmetica, geometria, proportioni et proportionalita (pubblicata nel 1494) e successivamente da Tartaglia, per poi essere risolto da Pascal e Fermat. La nascita del concetto moderno di probabilità viene attribuita a Blaise Pascal (1623-1662) e Pierre de Fermat (1601-1665). Il Cavalier de Méré (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere almeno un 6 in 4 lanci di un dado non truccato era equivalente ad ottenere almeno un doppio 6 in 24 lanci, sempre di un dado non truccato. Tuttavia, giocando secondo tale convinzione, invece di vincere perdeva e scrisse a Pascal lamentando che la matematica falliva di fronte all'evidenza empirica.[2] Da ciò scaturì una corrispondenza tra Pascal e Fermat in cui iniziò a delinearsi il concetto di probabilità nell'accezione frequentista. Pascal annunciò nel 1654 all'Accademia di Parigi che stava lavorando sul problema della ripartizione della messa in gioco. E in una lettera del 29 luglio dello stesso anno a Fermat propose la soluzione del problema, affrontato con il metodo per ricorrenza, mentre Fermat utilizzava metodi basati sulle combinazioni. Nel 1657 Christiaan Huygens (1629-1695) scrisse un Libellus de ratiociniis in ludo aleæ,[3], il primo trattato sul calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro Pierre de Montmort (1678-1719), che scrisse nel 1708 un Essai d'analyse sur le jeux de hasard, ma anche Jakob Bernoulli e Abraham de Moivre. Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli, dove veniva dimostrato il teorema che porta il suo nome, noto anche come legge dei grandi numeri. Successivamente, de Moivre pervenne ad una prima formulazione, poi generalizzata da Pierre Simon Laplace (1749-1827), del Teorema centrale del limite. La teoria delle probabilità raggiunse così basi matematicamente solide e, con esse, il rango di nuova disciplina. In essa esercita un ruolo centrale il rapporto tra casi favorevoli e casi possibili e la probabilità è un numero intrinsecamente legato ad un evento. Negli anni centrali del XX secolo, tuttavia, prima Bruno de Finetti e poi Leonard Jimmie Savage hanno elaborato una concezione soggettiva della probabilità, secondo cui essa è il grado di Probabilità 2 fiducia che una persona ha nel verificarsi dell'evento. Nello stesso periodo, Andrey Nikolaevich Kolmogorov ha dato inizio alla moderna teoria assiomatica (Grundbegriffe der Wahrscheinlichkeitsrechnung, 1933), ispirandosi alla teoria della misura. Si è così affermata una teoria della probabilità puramente matematica, che generalizza il patrimonio matematico comune alle diverse impostazioni. Definizioni In probabilità si considera un fenomeno osservabile esclusivamente dal punto di vista della possibilità o meno del suo verificarsi, prescindendo dalla sua natura. Tra due estremi, detti evento certo (ad esempio: lanciando un dado si ottiene un numero compreso tra 1 e 6) ed evento impossibile (ottenere 1 come somma dal lancio di due dadi), si collocano eventi più o meno probabili (aleatori). Si usa il linguaggio della teoria degli insiemi: un insieme non vuoto Ω ha come elementi tutti i risultati possibili di un esperimento; l'evento che risulta verificato da un unico risultato (un unico elemento di Ω) viene detto evento elementare; altri eventi sono sottoinsiemi di Ω costituiti da più risultati.[4] Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventi A e B, si indica con A∪B la loro unione, ovvero l'evento costituito dal verificarsi dell'evento A oppure dell'evento B. Si indica con A∩B la loro intersezione, ovvero l'evento costituito dal verificarsi sia dell'evento A che dell'evento B.[5] Se A∩B = ∅ i due eventi A e B vengono detti incompatibili (non possono verificarsi simultaneamente). Il complemento di un evento A rispetto a Ω, Ω\A, è detto negazione di A e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare). Definizione classica Secondo la prima definizione di probabilità, per questo detta classica, la probabilità di un evento è il rapporto tra il numero dei casi favorevoli all'evento e il numero dei casi possibili, purché questi ultimi siano tutti equiprobabili. Questa definizione è spesso attribuita a Pierre Simon Laplace e quindi anche identificata definizione classica di Laplace. Indicando con Ω l'insieme di casi possibili e con |Ω|=n la sua cardinalità, con A un evento e con n il numero dei casi A favorevoli ad A (ad esempio, nel lancio di un dado Ω={1,2,3,4,5,6}, n = 6, A = "numero pari", n = 3), la probabilità A di A, indicata con P(A), è pari a: Dalla definizione seguono tre regole: 1. la probabilità di un evento aleatorio è un numero compreso tra 0 e 1; 2. la probabilità dell'evento certo è pari a 1; se A = "numero compreso tra 1 e 6", n = 6 e n /n = 1; A A 3. la probabilità del verificarsi di uno di due eventi incompatibili, ovvero di due eventi che non possono verificarsi simultaneamente, è pari alla somma delle probabilità dei due eventi; se A = "numero pari", con P(A) = 1/2, e B= "esce il 3", con P(B) = 1/6, la probabilità che tirando un dado si ottenga un numero pari oppure un 3 è: La definizione classica consente di calcolare effettivamente la probabilità in molte situazioni. Inoltre, è una definizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia diversi aspetti negativi non irrilevanti: • dal punto di vista formale, è una definizione circolare: richiede che i casi possiedano tutti la medesima probabilità, che è però ciò che si vuole definire; • non definisce la probabilità in caso di eventi non equiprobabili; • presuppone un numero finito di risultati possibili e di conseguenza non è utilizzabile nel continuo. Probabilità 3 Definizione frequentista Per superare tali difficoltà, Richard von Mises (1883-1953) propose di definire la probabilità di un evento come il limite cui tende la frequenza relativa dell'evento al crescere del numero degli esperimenti: La definizione frequentista si applica ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili, ma assume che l'esperimento sia ripetibile più volte, idealmente infinite, sotto le stesse condizioni. Anche tale definizione consente di calcolare la probabilità di