Scienze e Tecnologie per i Media
Primo anno LT, a.a. 2022/2023, I semestre
Geometria (I modulo)
Docente: Leandro Arosio
Informazioni
Orario Lezioni: Lunedì 9-11 Aula L3, Mercoledì 11-13 Aula L3, Giovedì 9-11 Aula L3
Modalità esame: scritto e orale
Ricevimento: su appuntamento (da richiedere via mail o via teams)
Testo primo appello sessione invernale
Testo secondo appello sessione invernale
Programma del corso
Sistemi lineari e matrici. Metodi risolutivi e algoritmo di Gauss-Jordan. Matrici ed operazioni tra matrici. Rango di una matrice. Determinanti. Regola di Sarrus e Teorema di Laplace Spazi vettoriali. Dipendenza ed indipendenza lineare. Basi, dimensione, coordinate, cambiamenti di base. Applicazioni lineari e cambiamenti di base. Operatori lineari. Diagonalizzabilità di operatori lineari: polinomio caratteristico. Teorema di Hamilton-Cayley. Autovalori ed autospazi. Molteplicità algebrica e geometrica. Cenni sulla triangolarizzazione e forma canonica di Jordan. Spazi cartesiani. Elementi di geometria affine nel piano cartesiano R2 e nello spazio cartesiano R3: punti, rette e piani, equazioni cartesiane e parametriche, interpretazione geometrica dei relativi coefficienti, formule di geometria affine. Elementi di geometria Euclidea: prodotto scalare canonico sullo spazio vettoriale Rn delle n-ple reali, ortogonalità, angoli, norma, distanza. Proiezioni ortogonali. Prodotto vettoriale e prodotto misto. Interpretazione geometrica del modulo del determinante: volumi. Diagonalizzazione di operatori autoaggiunti (o matrici simmetriche). Geometria Euclidea nel piano cartesiano R2 e nello spazio cartesiano R3: formule di geometria euclidea Alcune isometrie ed affinità notevoli nel piano cartesiano R2 e nello spazio cartesiano R3: traslazioni, rotazioni, riflessioni, dilatazioni.
Testi di riferimento
Geometria Analitica con elementi di Algebra Lineare, Abate-de Fabritiis,
Esercizi svolti di Geometria e Algebra Lineare, Catino-Mongodi
Diario delle lezioni
3/10/22 (Mezza lezione) Il campo dei numeri reali. Le 9 proprietà di somma e prodotto di numeri reali. Il piano cartesiano.
5/10/22 Le 8 proprietà di somma e moltiplicazione per scalare in R^2. Rette nel piano cartesiano. Equazioni cartesiane e parametriche. Come si passa dalle cartesiane alle parametriche e viceversa. Un'equazione vettoriale è un sistema di equazioni, una per ogni componente.
6/10/22 Lo spazio R^3 e gli spazi R^n. Rette e piani in R^3. Cartesiane e parametriche. Passaggio da cartesiane a parametriche per un piano. Sistemi lineari. Primi esempi di eliminazione di Gauss. Un sistema lineare può avere una soluzione, nessuna soluzione, o infinite soluzioni.
10/10/22 Matrice dei coefficienti di un sistema lineare. Matrice completa. Eliminazione di Gauss operando con la matrice completa. Matrici ridotte a scala. Pivot. Criterio di compatibilità: non deve esserci una riga di coefficienti nulli con termine noto non nullo. Le variabili libere corrispondono alle colonne senza Pivot. Risoluzione di un sistema lineare compatibile dal basso e come scrivere le soluzioni in forma parametrica.
12/10/22 Matrici, somma e moltiplicazione per scalare. Matrice nulla. Prodotto righe per colonna. Non commutatività. Binomio di Newton. La matrice identità è l'elemento neutro del prodotto. Non è vero che ogni matrice quadrata diversa da 0 ammette un'inversa moltiplicativa. Formula per la matrice inversa di una matrice 2x2.
13/10/22 Matrici trasposte. Trasposta del prodotto. matrici simmetriche e antisimmetriche. La matrice A+A^t e' simmetrica. Vettori riga e vettori colonna. Interpretazione dei sistemi lineari col prodotto matriciale, come equazione tra matrici Ax=b. Definizione di spazio vettoriale con le 8 proprietà. Esempi: R^n, polinomi, matrici, funzioni. Definizione di sottospazio vettoriale. Grazia alla definizione un sottospazio vettoriale è a sua volta uno spazio vettoriale. Esempi di sottoinsiemi che non sono sottospazi vettoriali di R^2. Una retta passante per l'origine è un sottospazio di R^2 (dimostrazione usando la cartesiana). Uno spazio vettoriale è sottospazio vettoriale di sé stesso. Lo {0} è sempre un sottospazio vettoriale. Il sottoinsieme dei polinomi di grado minore o uguale a d è un sottospazio vettoriale di R[x].
17/10/22 Altro esempio di sottospazio vettoriale nello spazio dei polinomi (con la valutazione) e nello spazio delle matrici (con la traccia). Le funzioni reali minori di 1 in modulo non sono un sottospazio vettoriale. Definizione di combinazione lineare. Definizione di Span. Lo Span di 2 vettori non proporzionali in R^3 e' un piano. Dimostrazione che lo Span e' un sottospazio vettoriale. I vettori (1,0,0) e (0,0,1) non generano R^3. Come capire se vettori v_1, ..., v_m di R^n generano R^n? Con l'eliminazione di Gauss.
19/10/22 Definizione di sistema di generatori di uno spazio vettoriale. m vettori v_1, ... , v_m sono un sistema di generatori di R^n se e solo se la matrice ridotta a scala ha un pivot per ogni riga. Quindi necessariamente n è maggiore o uguale a n. Come passare da parametriche a cartesiane usando l'eliminazione di Gauss. Definizione di indipendenza lineare, esempi. Definizione di relazione di dipendenza lineare.
20/10/22 m vettori v_1, ... , v_m di R^n sono un linearmente indipendenti se e solo se la matrice ridotta a scala ha un pivot per ogni colonna. Quindi necessariamente n è minore o uguale a n. Come trovare una relazione di dipendenza lineare se i vettori v_1, ... , v_m di R^n sono linearmente dipendenti. Definizione di base. Base canonica. Una base di R^n ha necessariamente n elementi. v_1, ... , v_n di R^n sono una base se e solo se la matrice ridotta a scala ha un pivot per ogni colonna e uno per ogni riga. Teorema: se ho una base di uno spazio vettoriale, posso associare ad ogni vettore in modo unico le sue coordinate (con dimostrazione). La base canonica di R^n e' l'unica per cui le coordinate sono le componenti. Lo spazio dei polinomi R[x] non ammette una base.
24/10/22 Esempi di basi dello spazio dei polinomi di grado minore o uguale a d e dello spazio delle matrici nxm. Definizione di sottoinsieme massimale di vettori lineamente indipendenti di A. Teorema di esistenza della base: Da ogni sistema di generatori A posso estrarre una base prendendo un sottoinsieme massimale di vettori lineamente indipendenti di A. Dimostrazione. Enunciato del Teorema del completamento. Metodo operativo per completare ad una base dei vettori di R^n utilizzando l'eliminazione di Gauss.
26/10/22 Conseguenze del teorema del completamento e del teorema di esistenza della base: 1) due basi di uno spazio vettoriale hanno lo stesso numero di elementi. Definizione di dimensione. 2)se ho k vettori linearmente indipendenti in uno spazio n-dimensionale allora k ≤ n, e se k=n allora i vettori sono una base. 3) se ho k generatori di uno spazio vettoriale n-dimensionale allora k≥n, e se k=n allora i vettori sono una base. 4) se W è un sottospazio vettoriale di uno spazio n-dimensionale V allora dim(W)≤n, e se dim(W)=n allora W=V. L'intersezione di sottospazi vettoriali è un sottospazio vettoriale. L'unione in generale no. Definizione di somma di sottospazi vettoriali. La somma è un sottospazio vettoriale. Un sistema di generatori della somma si ottiene unendo i generatori dei due sottospazi.
27/10/22 Teorema di Grassmann con dimostrazione. Somma diretta di due sottospazi. Esempio di somma diretta in R^3. In R^3 non ci sono due ssv 2-dimensionali in somma diretta. In R^4 invece si. Esercizio: trovare basi e dimensioni di V,W,V intersecato W e V+W, dove V e W sono ssv di R^4. Come estrarre una base da un sistema di generatori di un ssv di R^n usando l'eliminazione di Gauss: si va a scegliere i vettori corrispondenti alle colonne su cui cadono i pivot.
31/10/22 Continuazione esercizio: trovare basi e dimensioni di V,W,V intersecato W e V+W, dove V e W sono ssv di R^4. Definizione di rango di una matrice come il numero dei pivot di una qualunque riduzione a scala. Il rango è uguale al numero massimo di colonne linearmente indipendenti.
2/11/22 Secondo metodo per l'intersezione: come trovare una base dell'intersezione di due sottospazi U,V di R^n se U è dato in cartesiane e conosco una base di V. Definizione di sottospazio affine di uno spazio vettoriale, giacitura e dimensione. Teorema di struttura delle soluzioni di un sistema lineare con dimostrazione: lo spazio delle soluzioni di Ax=b (A matrice nxm) è un sottospazio affine di R^m con giacitura lo spazio delle soluzioni del sistema omogeneo associato Ax=0. La dimensione dello spazio delle soluzioni è uguale a m-rg(A). Definizione di funzione, dominio, codominio, immagine, funzioni iniettive e surgettive. Funzioni bigettive.
3/11/22 Funzioni invertibili, composizione di funzioni. Definizione di applicazione lineare. La composizione di applicazioni lineari è lineare (con dimmostrazione). L'inversa di una funzione lineare bigettiva è lineare (con dimostrazione). Applicazione lineare L_A da R^m a R^n associata ad una matrice nxm. Ogni applicazione lineare da R^m a R^n si scrive come L_A, dove A si ottiene mettendo per colonna le immagini dei vettori della base canonica di R^m. Esempi. Matrice associata alla rotazione di R^2 di pi/2 in senso antiorario.
7/11/22 La matrice associata alla composizione di due funzioni lineari è il prodotto righe per colonne delle due matrici associate. Teorema di struttura delle applicazioni lineari. Corollario: due applicazioni lineari che coincidono su una base del dominio sono uguali. Nucleo e immagine di un'applicazione lineare. Dimostrazione che sono sottospazi. Un'applicazione lineare è iniettiva se e solo se il nucleo è 0. Un sistema di generatori dell'immagine si ottiene prendendo le immagini di un sistema di generatori del dominio. Corollario: l'immagine dell'applicacazione L_A è generata dalle colonne di A. Esempi: proiezione in R^2 sull'asse x, applicazione lineare derivata dallo spazio dei polinomi di grado minore o uguale a 2 in sé. Un'applicazione lineare iniettiva manda vettori linearmente indipendenti in vettori linearmente indipendenti.
9/11/22 Teorema della dimensione (rank-nullity). Corollari: se f è iniettiva dim V≤ dim W, se f è surgettiva dim V≥dim W, se f è un ismorfismo dim V=dim W. Un isomorfismo lineare manda basi in basi. Risolvere un sistema lineare Ax=b significa determinare la preimmagine L_A^{-1}(b). Risolvere un sistema lineare omogeneo Ax=0 significa determinare Ker(L_A). Un sistema Ax=b è compatibile se e solo se b appartiene all'immagine di L_A. Matrice associata ad un'applicazione lineare rispetto a basi del dominio e del codominio. Esercizi.
10/11/22 Esercizio su matrice associata ad un'applicazione lineare rispetto a basi del dominio e del codominio. Come calcolare immagine e nucleo usando la matrice associata. Un'applicazione lineare tra due spazi vettoriali della stessa dimensione è iniettiva se e solo se è surgettiva. Matrici invertibili: caratterizzazioni equivalenti dell'invertibilità. Perché A sia invertibile basta che esista B tale che AB=I, e in tal caso B è l'inversa. Come calcolare l'inversa usando l'eliminazione di Gauss.
14/11/22 Matrice di cambiamento di base. Come cambia la matrice associata ad un'applicazione lineare se cambio la base nel dominio e la base nel codominio. Esercizi. Proiezione su un sottospazio associata ad una decomposizione in somma diretta. Come scrivere la matrice di una proiezione rispetto alla base canonica usando le matrici di cambiamento di base.
16/11/22 Endomorfismi. Due matrici che rappresentano lo stesso endomorfismo rispetto a due basi diverse sono simili. Deterimante. Definizione assiomatica. Il determinante è multilineare alternante sulle righe. Se le righe sono dipendenti il determinante è 0 (con dimostrazione). Calcolo del determinante di una matrice 2x2. Calcolo di una matrice 3x3. Formula di Sarrus.
17/11/22 Il determinante di una matrice triangolare superiore è il prodotto degli elementi sulla diagonale (con dimostrazione). Calcolare il determinante usando l'eliminazione di Gauss. Corollario: se le COLONNE sono linearmente indipendenti allora il determinante è diverso da 0. Sottomatrici, minori. Sviluppo di Laplace.
21/11/22 Dimostrazioni per induzione. Dimostrazione che il determinante di una matrice è uguale al determinante della trasposta. Conseguenze: il determinante di una matrice A è diverso da 0 se e solo se le RIGHE sono linearmente indipendenti, se e solo se le COLONNE sono linearmente indipendenti, se e solo se la matrice A è invertibile. Il determinante è multilineare alternante anche sulle colonne. Teorema di Binet con dimostrazione. Corollario: il determinante dell'inversa è l'inverso del determinante. Due matrici simili hanno lo stesso determinante. Formula di Cramer con dimostrazione. Procedimento per ottenere la matrice inversa usando il determinante.
24/11/22 Teorema di Rouche-Capelli. Esercizi di preparazione all'esonero.
30/11/22 Prodotto scalare canonico su R^n, proprietà. Norma di un vettore, distanza tra 2 punti. Interpretazione geometrica del prodotto scalare. 2 vettori sono ortogonali se e solo se il loro prodotto scalare è nullo. Disuguaglianza di Cauchy-Schwarz, disuguaglianza triangolare. Vettori non nulli a 2 a 2 ortogonali sono linearmente indipendenti. Basi ortogonali e ortonormali. Formula per le coordinate di un vettore rispetto ad una base ortogonale e rispetto ad una base ortonormale.
12/12/22 Ortogonale di un sottospazio. Dimostrazione che è un sottospazio a sua volta. Definizione di proiezione ortogonale su un sottospazio U: l'unico vettore P_U(v) tale che v-P_U(v) appartiene all'ortogonale di U. Formula esplicita per la proiezione ortogonale data una base ortogonale u_1, ..., u_k del sottospazio U. Procedimento di ortogonalizzazione di Gram-Schmidt e interpretazione geometrica con le proiezioni ortogonali. Corollario: ogni k-pla di vettori non nulli ortogonali può essere completata ad una base ortogonale. Corollario: ogni sottospazio di R^n ammette una base ortogonale. Dimostrazione con Gram-Schmidt che U e U ortogonale sono in somma diretta.
14/12/22 l'ortogonale di U ortogonale è U. Il nucleo della proiezione ortogonale su U è U ortogonale. Isometrie, matrici ortogonali. Una matrice è ortogonale se e solo se le colonne sono una base ortonormale, se e solo se le righe sono una base ortonormale. Una matrice quadrata nxn è ortogonale se e solo se l'endomorfismo L_A è un'isometria. Se A è ortogonale allora ha determinante + o - 1. Se A è ortogonale allora la sua inversa è ortogonale. Se A e B sono ortogonali nxn allora AB è ortogonale. Descrizione delle matrici ortogonali 2x2, rotazioni e riflessioni. Basi orientate positivamente, regola della mano destra.
15/12/22 Prodotto vettore, formula con il determinante. Prodotto misto di tre vettori. Proprietà del prodotto vettore e interpretazione geometrica. Esercizi. Definizione di endomorfismo diagonalizzabile, matrice diagonalizzabile, autovalori e autovettori. Esempi.
19/12/22 Uno scalare a è autovalore di A se e solo se det(A-aI)=0. Polinomio caratteristico. Definizione di molteplicità di una radice di un polinomio. Molteplicità algebrica e geometrica di un autovalore. Esempio: la rotazione di 90 gradi non ha autovalori, il suo polinomio caratteristico è x^2+1. Esercizi.
21/12/22 Matrici simili hanno lo stesso polinomio caratteristico. Polinomio caratteristico delle matrici diagonali e triangolari. La molteplicità geometrica è minore o uguale alla molteplicità algebrica (dimostrazione). Autovettori relativi ad autovalori distinti sono linearmente indipendenti (dimostrazione) . Condizione necessaria e sufficiente per la diagonalizzabilità di un endomorfismo (dimostrazione) . Esercizi.
22/12/22 Esercizi sulla diagonalizzabilità. Come trovare le parametriche dell'ortogonale di un sottospazio dato in cartesiane. Come trovare le cartesiane dell'ortogonale di un sottospazio dato in parametriche. Retta ortogonale ad un piano passante per un punto dato. Calcolo della distanza piano punto nello spazio.
9/1/23 Calcolo della distanza retta punto nello spazio, e calcolo della distanza di due rette nello spazio. Matrice che rappresenta il prodotto scalare rispetto ad una data base. Il prodotto scalare si calcola rispetto ad una base ortonormale come rispetto alla base canonica. Endomorfismi simmetrici di R^n o di un suo sottospazio. Un endomorfismo è simmetrico se e solo se la matrice che lo rappresenta rispetto ad una base ortonormale è simmetrico (con dimostrazione). Enunciato del teorema spettrale per endomorfismi e corollario per matrici simmetriche. Autovettori relativi ad autovalori distinti sono ortogonali. Lemma di invarianza dell'ortogonale. Dimostrazione del teorema spettrale per induzione dulla dimensione del sottospazio (senza la dimostrazione dell'esistenza di un autovalore reale).
12/1/23 Esercizi sul teorema spettrale e sugli endomorfismi simmetrici.
16/1/23 Esercizi di preparazione all'esonero.