PROBABILITA' E STATISTICA PER L'INGEGNERIA (6 CFU)
Descrizione del corso: l’obiettivo del corso è quello di introdurre gli elementi di probabilità e inferenza statistica, che consentano la risoluzione di problemi che emergono nell’ambito dell’ingegneria dei sistemi elettronici, mediante un approccio basato sull’analisi dei dati. L'introduzione dei concetti teorici sarà accompagnata dalla discussione sulle loro motivazioni intuitive. Durante il corso saranno presentati diversi esempi e applicazioni per l'ingegneria e le scienze.
Primo semestre (dal 19/09/2022 al 23/12/2022) A.A. 2022/2023: il programma del corso contiene tutti gli argomenti trattati a lezione così come riportato nel Diario didattico.
Orario delle lezioni: Aula 6 (via Eudossiana) Lunedì ore 16-19 e Aula 11 (via Eudossiana) Mercoledì ore 15-17. AVVISO: Le lezioni inizieranno il 28 Settembre.
Libro di testo: S. M. Ross, Probabilità e statistica per l'ingegneria e le scienze. Apogeo (2015)
Materiale didattico: qui di seguito sarà possibile reperire del materiale di studio:
Le slide contenenti le lezioni svolte durante il corso sono reperibili al seguente link: https://elearning.uniroma1.it/course/view.php?id=15714.
Vecchi compiti d'esame con soluzioni svolte: esami ingegneria 1, esami ingegneria 2. Esami ed altri esercizi sono gentilmente stati messi a disposizione dai seguenti docenti nelle loro pagine web: Prof. San Martini, Prof. Orsingher.
Risposte esercizi Ross.
Esercizi calcolo combinatorio, Esercizi probabilità di eventi, Esercizi variabili aleatorie (24 solo la prima domanda, non sono da svolgere il 27, 28, 30, 32)
Modalità d'esame: l'esame è in forma scritta e prevede una parte applicata, legata alla risoluzione di esercizi mediante le metodologie apprese durante il corso, e una parte di verifica teorica. La prova orale è facoltativa ed è riservata agli studenti che hanno superato l'esame scritto. Sono previste due prove in itinere (riservate agli studenti frequentanti) che si svolgeranno a metà e fine corso.
ESAMI CON SOLUZIONE SVOLTA: esami ingegneria elettronica
Date degli esami 2023: 20 Gennaio; 14 Febbraio; 30 Marzo (I appello straordinario);
Ricevimento: previo appuntamento da concordare con il docente.
Diario delle lezioni A.A. 2022/2023:
28/09: Il concetto di incertezza e probabilità. Dati osservati e variabilità. Modello probabilistico per lo studio di un fenomeno. Popolazione e campione. Statistica e procedimento induttivo per l'analisi dei dati osservati. Statistica descrittiva: dati qualitativi e quantitativi. Frequenze assolute, relative e percentuali. Tabelle di frequenze.
03/10: Grafico a torta. Frequenze cumulate assolute, relative e percentuali. Esempi e rappresentazioni di dati campionari proveniente da popolazioni e fenomeni di diversa natura. Rappresentazione con istogramma per dati continui. Indici di sintesi della distribuzione di frequenza. Valori centrali: moda e distribuzioni plurimodali. Introduzione al concetto di mediana.
05/10: Definizione di mediana campionaria e regola di calcolo. La media campionaria come baricentro della distribuzione campionaria e media aritmetica ponderata. Osservazioni sulla media e la mediana. Esempi. I percentili, primo quartile e terzo quartile. Box-plot. Distribuzioni simmetriche e asimmetriche.
10/10: Indici di dispersione e varianza campionaria: definizione ed interpretazione. Proprietà della media e della varianza campionaria. Esempi di calcolo. Dati campionari bivariati. Grafico di dispersione. Covarianza campionaria e sua interpretazione come misura di dispersione rispetto al baricentro della distribuzione e come indice di dipendenza lineare. Coefficiente di correlazione lineare e sue proprietà. Dipendenza lineare perfetta. Esempio. Probabilità ed incertezza. Fenomeni aleatori. Esperimento o prova casuale e spazio campionario.
12/10: Esempi di prova e spazio campionario. Eventi ed esempi. Logica degli eventi: evento certo e impossibile, negazione, unione, intersezione, differenza, eventi necessari, partizione dello spazio campionario, leggi di de Morgan, eventi incompatibili, proprietà commutativa/associativa/distributiva degli eventi.
17/10: Proprietà sugli eventi ed esempi. Definizione frequentista di probabilità e sue proprietà. Cenni su quella soggettiva. Definizione assiomatica di probabilità. Prime conseguenze: probabilità dell'insieme vuoto e additività finita. Probabilità della negazione, monotonia, differenza tra due eventi, evento quasi impossibile e quasi certo. Esempi di modelli probabilistici. Probabilità dell'unione di due eventi.
19/10: Probabilità dell'unione di tre eventi. Costruzione di modelli probabilistici discreti mediante pesi opportuni. Probabilità uniforme: casi favorevoli su casi possibili Esempi. Calcolo combinatorio. Regola fondamentale del calcolo. Permutazioni semplici ed esempi di calcolo. Disposizioni semplici.
26/10: Disposizioni con ripetizione ed esempi di calcolo. Combinazioni semplici ed applicazioni. Proprietà dei coefficienti binomiali e binomio di Newton (senza dimostrazione). Il coefficiente multinomiale. Esercizi di riepilogo: paradosso dei compleanni e colorazione di un foglio quadrettato.
07/11: Definizione di probabilità condizionata e interpretazione. Probabilità condizionata come probabilità assiomatica. Esempi. La legge delle probabilità composte e legge del prodotto. La formula di disintegrazione e delle probabilità totali. Esempi. Il teorema di Bayes e sua interpretazione.
09/11: Applicazioni del Teorema di bayes: test clinici, il paradosso di Monty Hall, input in un sistema di comunicazione. Il concetto di indipendenza per due eventi. Osservazioni e discussione. Primi esempi. Indipendenza delle negazioni degli eventi. Indipendenza per 3 eventi ed n eventi.
14/11: Indipendenza per successioni di eventi ed per le negazioni. Sottoesperimenti indipendenti e schema delle prove ripetute ed indipendenti. Esempi ed applicazioni. Indipendenza condizionata. Sistemi in serie e in parallelo. Esercizi di riepilogo. (Il programma del primo esonero termina qui)
16/11: Introduzione al concetto di variabile aleatoria (v.a.) e primi esempi. Definizione di v.a. e calcolo delle probabilità di una v.a.: esempio. Legge di probabilità. Funzione di ripartizione di una v.a. e sue proprietà caratterizzanti. Esempio di funzione di ripartizione.
18/11: Prima prova di verifica.
21/11: Variabili aleatorie discrete: definizione e primi esempi. Densità discreta di una v.a.: definizione, proprietà e legge di probabilità. Osservazioni. Esempi di calcolo della densità discreta. Funzione di ripartizione di una v.a. discreta e punti di salto. Famiglie di v.a. discrete: degenere, uniforme, Bernoulli.
22/11: Famiglie di v.a. discrete: binomiale (costruzione mediante l'estrazione di palline da un'urna), geometrica (proprietà di mancanza di memoria), Poisson (legge degli eventi rari). Esempi ed applicazioni.
28/11: V.a. ipergeometrica ed estrazioni da un'urna senza ripetizioni. Esercizio di riepilogo. V.a. continua: funzione di ripartizione, funzione di densità e sue proprietà. Funzione di densità come derivata della funzione di ripartizione. Osservazioni. Interpretazione della densità come massa di probabilità. Legge di probabilità di una v.a. continua. Esempio.
30/11: Determinazione della densità partendo da una funzione di ripartizione. Famiglie di v.a. continue: uniforme su un intervallo, esponenziale (mancanza di memoria), gaussiana o normale. Determinazione della legge di una funzione di una v.a.: caso discreto ed esempio.
05/12: Determinazione della legge di una funzione di una v.a.: caso continuo ed esempi. Valor medio (finito): definizione per v.a. discrete e continue. Interpretazione come valore centrale e baricentro della distribuzione. Media: Bernoulli, degenere, uniforme discreta e continua, Poisson, geometrica, esponenziale e gaussiana.
07/12: Momento e momento centrato di ordine k. Definizione di varianza e sua interpretazione come indice di dispersione della distribuzione. Proprietà della varianza. Esempi di varianza: bernoulli, Poisson, gaussiana, uniforme, esponenziale. Introduzione ai vettori aleatori. Variabili aleatorie bidimensionale ed esempio introduttivo.
12/12: Definizione di vettore aleatorio n-dimensionale. Caso n=2. Discussione della legge di probabilità, funzione di ripartizione congiunta e marginali. Variabili doppie discrete. Densità discreta congiunta e marginali. Esempio. Variabili doppie continue. Funzione di densità congiunta e densità marginali. Interpretazione della densità congiunta e della probabilità come volume. Calcolo della probabilità mediante gli integrali doppi.
13/12: Distribuzione uniforme su un sottoinsieme del piano reale. Cenni sulla generalizzazione dei concetti di funzioni di ripartizione e densità per vettori aleatori n-dimensionali. Variabili aleatorie uguali in distribuzione. Variabili aleatorie indipendenti. Condizione necessaria e sufficiente. Condizioni necessarie e sufficienti nel caso di v.a. discrete e continue. Esempi. Media di un vettore aleatorio e valor medio di una trasformazione di una variabile aleatoria n-dimensionale. Proprietà della media: somma e prodotto di variabili aleatorie. Covarianza. Varianza della somma di n variabili aleatorie. Somma di binomiali indipendenti e binomiale come somma di bernoulli. Media e varianza di una binomiale. Somma di gaussiane indipendenti. Disuguaglianza di Markov e Cebicev. Interpretazione della varianza come indice di dispersione mediante la diseguaglianza di Cebicev.
14/12: Osservazioni sulla diseguaglianza di Cebicev. Definizione di convergenza in probabilità. Media campionaria e sue proprietà. Legge dei grandi numeri e sua interpretazione. Applicazione: binomiale e interpretazione frequentista della probabilità. Inferenza statistica: fenomeno aleatorio oggetto di studio, popolazione, campione e procedimento induttivo. Campione aleatorio ed osservato. Legge dipendente da uno o più parametri. Popolazione. Esempi. Statistica e media campionaria. Teorema del limite centrale (senza dimostrazione) e convergenza in distribuzione.
19/12: Commenti ed interpretazione del Teorema del limite centrale. Applicazioni ed esempi. Tavola della gaussiana. Stima parametrica e stimatori puntuali (definizione) per una popolazione dipendente da uno o più parametri. Stima parametrica. Funzione di verosimiglianza e sua interpretazione. Stimatore e stima di massima verosimiglianza. Stima di massima verosimiglianza per una popolazione di Bernoulli, Normale (con varianza nota), di Poisson, Esponenziale. Applicazioni della stima parametrica.
21/12: Cenni sulla stima della varianza. Intervalli di confidenza per la media di una popolazione normale: costruzione ed Interpretazione degli intervalli. Esempi. Quantili della gaussiana. Intervalli approssimati. Numerosità campionaria fissata l'ampiezza dell'intervallo.