Obiettivi. Lo studente acquisisce strumenti statistici per la raccolta e l'analisi di dati sperimentali riguardanti processi di varia natura nell'ambito dell'Ingegneria dell'Informazione. Sviluppa capacità volte alla deduzione di inferenze attendibili ed alla formulazione di decisioni.
RICHIAMI Statistica descrittiva. Esempio di statistica descrittiva. Istogramma, distribuzione campionaria.
Caratteristiche del I e del II ordine: valor medio, modo, mediana, varianza deviazione standard. Caratteristiche del III e IV ordine: skewness, Curtosi. Regole per tracciare un istogramma.
Richiami sul calcolo delle probabilità: media e varianza di trasformazione affine di una variabile aleatoria; caso vettoriale.
Percentili di una distribuzione. Box Plot.
Distribuzione gaussiana. Distribuzione chi2. Distribuzione t-Student. Distribuzione di Fisher. Teorema del limite centrale.
Test statistici: errore di tipo 1 e 2; test più potente di livello e e test uniformemente più potente. Lemma di Neyman-Pearson. Q-Q Plot. Test di Pearson. Test di Kolmogorov-Smirnov. Test di Anderson-Darling.
Statistica induttiva. Stima di punto, stima di intervallo, confronti tra statistiche.
Campione casuale semplice e non indipendente. Stima campionaria del valor medio e della varianza di popolazione, varianza delle stime nei due casi. Caso gaussiano, casi di asimmetria, distribuzione con code grasse.
Intervallo di confidenza. Controllo statistico della qualità, fault detection.
Test di confronto tra due gruppi: tra proporzioni, tra medie, tra varianze.
Test di confronto tra più gruppi: test di Bartlett, test di Levene.
Analisi della varianza (ANOVA). Test di Pearson ad 1 via, a due vie. Test di Kruskal-Wallis. Welch Anova.
Cenni ai test non parametrici.
Piano degli esperimenti. Campionamento stratificato.
Modello di regressione lineare. Modelli di descrizione, modelli di predizione. Significato del modello di regressione lineare.
Parametri del modello: offset, sensibilità, correlazione parziale.
Stima dei parametri: sistema normale di equazioni. Test R-quadro: varianza spiegata, varianza residua. Significatività delle stime dei parametri.
Preelaborazione dei dati: standardizzazione, equalizzazione. Cenni PCA.
Complessità del modello: criterio di Akaike.
Precisione del modello di regressione.
Stima parametrica. Introduzione, nozioni generali.
Proprietà delle stime: distorsione, efficienza. Limite inferiore di Cramer-Rao. Consistenza della stima.
Stima dei minimi quadrati (LSE): modello lineare con errore additivo. Condizioni necessarie e sufficienti di ottimo. Proprietà della stima e validazione del modello (R2). Stima dei minimi quadrati pesata.
Stima di massima verosimiglianza (MLE): modello lineare con errore additivo gaussiano. Condizioni necessarie e sufficienti di ottimo. Proprietà della stima e validazione del modello (R2, test di gaussianità del fit error).
Stima Bayesiana. Condizioni necessarie e sufficienti di ottimo. Proprietà della stima e validazione del modello(R2, test di gaussianità del fit error).
Confronto tra i tre metodi di stima.
Stima di Parametri variabili nel tempo. Minimi quadrati con pesi esponenziali, algoritmo ricorsivo.
Modelli di serie storiche. Analisi additiva, analisi moltiplicativa: Decomposizione in trend, stagionalità, residuo.
Trend: modelli globali, parametrici e non parametrici (modello polinomiale con parametri costanti, filtro di Prescott-Hodrick); modelli locali, parametrici e non parametrici (modello polinomiale con parametri variabili nel tempo, media mobile semplice, SMA, media mobile esponenziale,EMA).
Stagionalità: la uso della funzione di covarianza, metodo di stima della componente stagionale.
Componente residua: modelli AR, MA, ARMA, predittore ottimo. Modelli ARCH, GARCH. Identificazione dei modelli: stima parametrica e validazione (test di bianchezza).
Testi
Dispense a cura del docente e temi d'esame
Introduzione alla statistica matematica Basilio Giardina , Franco Angeli Ed.
http://www.itl.nist.gov/div898/handbook/ (consigliatissimo)