Scienze e Tecnologie per i Media

Primo anno LT, a.a. 2021/2022, I semestre

Geometria (I modulo)

Docente: Leandro Arosio


Informazioni

Orario Lezioni: Martedì 14:30-16:30 Aula 13, Giovedì 14:30-16:30 Aula 13, Venerdì 14-16 Aula 13

Modalità esame: scritto e orale

Ricevimento: su appuntamento (da richiedere via mail o via teams)

Programma del corso


Sistemi lineari e matrici. Metodi risolutivi e algoritmo di Gauss-Jordan. Matrici ed operazioni tra matrici. Rango di una matrice. Determinanti. Regola di Sarrus e Teorema di Laplace Spazi vettoriali. Dipendenza ed indipendenza lineare. Basi, dimensione, coordinate, cambiamenti di base. Applicazioni lineari e cambiamenti di base. Operatori lineari. Diagonalizzabilità di operatori lineari: polinomio caratteristico. Teorema di Hamilton-Cayley. Autovalori ed autospazi. Molteplicità algebrica e geometrica. Cenni sulla triangolarizzazione e forma canonica di Jordan. Spazi cartesiani. Elementi di geometria affine nel piano cartesiano R2 e nello spazio cartesiano R3: punti, rette e piani, equazioni cartesiane e parametriche, interpretazione geometrica dei relativi coefficienti, formule di geometria affine. Elementi di geometria Euclidea: prodotto scalare canonico sullo spazio vettoriale Rn delle n-ple reali, ortogonalità, angoli, norma, distanza. Proiezioni ortogonali. Prodotto vettoriale e prodotto misto. Interpretazione geometrica del modulo del determinante: volumi. Diagonalizzazione di operatori autoaggiunti (o matrici simmetriche). Geometria Euclidea nel piano cartesiano R2 e nello spazio cartesiano R3: formule di geometria euclidea Alcune isometrie ed affinità notevoli nel piano cartesiano R2 e nello spazio cartesiano R3: traslazioni, rotazioni, riflessioni, dilatazioni.


Testi di riferimento


  • Geometria Analitica con elementi di Algebra Lineare, Abate-de Fabritiis,

  • Esercizi svolti di Geometria e Algebra Lineare, Catino-Mongodi


Diario delle lezioni


  1. 5/10/21 Spazi R^2, R^3, R^n. Somma e prodotto di vettori, interpretazine geometrica. Rette in R^2, equazione cartesiana e parametrica. Come si passa dall'una all'altra. Rette e piani in R^3, equazioni cartesiane e parametriche.

  2. 7/10/21 Come si passa dall'equazione cartesiana di un piano all'equazione parametrica risolvendo l'equazione. Definizione di sistema lineare. Un sistema lineare può avere solo 0, 1 o infinite soluzioni. Esempi di sistemi con 0,1, infinite soluzioni. Eliminazione di Gauss: esempio con un sistema con 1 soluzione, 0 soluzioni, infinite soluzioni.

  3. 8/10/21 L'insieme delle soluzioni di un sistema lineare è un sottoinsieme di R elevato al numero di incognite. Dimostrazione che i passaggi dell'eliminazione di Gauss non cambiano l'insieme delle soluzioni. Matrice dei coefficienti e matrice completa. Pivot. Criterio per determinare se un sistema la cui matrice dei coefficienti è a scala è compatibile. Un sistema compatibile con matrice dei coefficienti a scala ha soluzione unica se e solo se ha un pivot per ogni colonna. Se ci sono colonne senza pivot, il sistema ha infinite soluzioni, e lo spazio delle soluzioni è parametrizzato da tanti parametri quante sono le colonne senza pivot.

  4. 12/10/21 Esempio di soluzione di un sistema lineare con parametro. Trovare l'equazione cartesiana di un piano per tre punti risolvendo il sistema ottenuto imponendo il passaggio per i tre punti. Matrici, somma, moltiplicazione di matrice per scalare, prodotto di matrici. Il prodotto non è coommutativo. Matrice identità. Alcune matrici quadrate diverse dalla matrice nulla non ammettono l'inverso moltiplicativo.

  5. 14/10/21 Le matrici 2x2 con ad-bc diverso da 0 ammettono inversa. Esistono matrici A,B diverse da 0 il cui prodotto è 0. Scrivere un sistema lineare in forma di equazione matriciale Ax=b. Definizione di spazio vettoriale con le 8 proprietà. Spazi R^n, spazio dei polinomi R[x], spazio delle matrici M_{nxm}(R), spazio delle funzioni da R a R. Definizione di sottospazio con le 3 proprietà. Esempi di sottospazi di R^n. Le rette per l'origine di R^2 sono tutti e soli i sottospazi vettoriali non banali. Esempi di sottospazi dei polinomi, delle matrici, delle funzioni.

  6. 15/10/21 Lo spazio delle soluzioni di un sistema lineare è un sottospazio vettoriale di R^m, dove m è il numero di variabili. Combinazioni lineari, Span, sistema di generatori. m vettori in R^n sono generatori se e solo se, detta A la matrice ottenuta mettendoli in colonna, quando la riduco a scala non trovo una riga tutta nulla (altrimenti detto, trovo un pivot in ogni riga).

  7. 19/10/21 Definizione di indipendenza lineare, relazione di dipendenza lineare. m vettori in R^n sono linearmente indipendenti se e solo se, detta A la matrice ottenuta mettendoli in colonna, quando la riduco a scala trovo un pivot in ogni colonna. m vettori in R^n con m>n non possono essere linearmente indipendenti. m vettori in R^n con n>m non possono essere generatori. Definizione di base. Base canonica, esempio di base dei polinomi e delle matrici.

  8. 21/10/21 Coordinate di un vettore rispetto ad una base: come si dimostra che esistono e sono uniche. Le coordinate di un vettore di R^n rispetto alla base canonica sono le sue componenti. Lo spazio vettoriale dei polinomi (senza limitazione sul grado) non può ammettere una base. Definizione di sottoinsieme massimale in A c V di vettori linearmente indipendenti. Teorema (con dimostrazione): se A c V è un sistema di generatori, posso estrarre da A una base di V prendendo un sottoinsieme massimale in A di vettori linearmente indipendenti.

  9. 22/10/21 Siano v_1, .., v_n vettori di R^m. Come usare l’eliminazione di Gauss per estrarre da essi una base di W= Span(v_1, …, v_n), andando a selezionare i vettori relativi alle colonne con i pivot. Questo funziona perché in questo modo di seleziona un sottoinsieme massimale di vettori linearmente indipendenti. Teorema del completamento o di sostituzione (senza dimostrazione). Corollario: due basi di uno spazio vettoriale V hanno lo stesso numero di elementi, detto dimensione di V. Come usare l’eliminazione di Gauss per completare v_1, … v_n linearmente indipendenti ad una base di R^m.

  10. 26/10/21 n vettori generatori in uno spazio di dimensione n sono una base. se ho m vettori linearmente indipendenti in uno spazio vettoriale di dimensione n allora m è minore o uguale a n. Se m=n allora sono una base. Se W è un sottospazio di V allora la dimensione di W è minore o uguale alla dimensione di V, e se è uguale, allora W=V. Se A x=0 è un sistema lineare omogeneo nxm, lo spazio delle soluzioni Sol (Ax=0) è un sottospazio vettoriale di R^m, e la sua dimensione è uguale al numero di variabili libere, cioè m meno il numero dei pivot. Il numero dei pivot è anche detto rango di A ed è uguale al numero massimo di colonne linearmente indipendenti. Una base di Sol (Ax=0) è data dai vettori che troviamo a moltiplicare i parametri alla fine dell'eliminazione di Gauss (sono chiaramente generatori, e sono linearmente indipendenti). Sottospazi affini di uno spazio vettoriale. Teorema di struttura delle soluzioni di un sistema lineare compatibile Ax=b .Come passare da cartesiane a parametriche , e da parametriche a cartesiane, di un sottospazio affine di R^m, usando l'eliminazione di Gauss.

  11. 29/10/21 Intersezione di sottospazi vettoriali è un sottospazio vettoriale. Unione di sottospazi vettoriali NON è un sottospazio vettoriale. Somma di sottospazi vettoriali è un sottospazio vettoriale. Come trovare base e dimensione dell'intersezione e della somma di sottospazi vettoriali in R^m. Metodo quando entrambi sono dati in equazioni cartesiane e metodo quando uno è dato in cartesiane e uno in parametriche. Esercizi.

  12. 4/11/21 Formula di Grassmann con dimostrazione. Somma diretta, supplementare di un sottospazio. Definizione di funzione, funzioni iniettive.

  13. 5/11/21 Funzioni surgettive, bigettive, inversa. Definizione di applicazione lineare. Composizione di applicazioni lineari è lineare. L 'inversa di un'applicazione lineare è lineare. Applicazione lineare L_A da R^m a R^n associata ad una matrice nxm. L'immagine L_A(x) si trova facendo il prodotto righe per colonna Ax. Tutte le applicazioni lineari si scrivono come L_A per una qualche matrice. La composizione di applicazioni lineari corrisponde al prodotto di matrici. La derivata è un esempio di applicazione lineare dallo spazio dei polinomi in sé.

  14. 9/11/21 Teorema di struttura delle applicazioni lineari. Due applicazioni lineari che coincidono su una base sono uguali. Nucleo e immagine sono sottospazi lineari. Una applicazione lineare è iniettiva se e solo se il nucleo è 0. L'immagine è generata dalle immagini di un sistema di generatori di V. L'immagine di L_A è generata dalle colonne della matrice A. Il rango di A è uguale alla dimensione dell'immagine di L_A. Teorema della dimensione con dimostrazione.

  15. 11/11/21 Se f è iniettiva la dimensione del dominio è minore o uguale della dimensione del codominio. Se f è surgettiva la dimensione del codominio è minore o uguale della dimensione del dominio. Definizione di isomorfismo lineare. Esercizio: un'applicazione lineare iniettiva manda vettori indipendenti in vettori indipendenti. Un'applicazione lineare surgettiva manda generatori in generatori. Un isomorfismo lineare manda basi in basi. Matrice associata ad un'applicazione lineare data una base in partenza e una in arrivo. Esempio di un'applicazione da R^m a R^n. Esempio della matrice associata alla derivata dallo spazio dei polinomi di grado minore o uguale a 3 in sé. Trovare basi di nucleo e immagine.

  16. 12/11/21 Matrici invertibili. Una matrice quadrata A è invertibile se e solo se L_A è un isomorfismo se e solo se L_A è surgettiva se e solo se L_A è iniettiva se e solo se il rango di A è n se e solo se le colonne di A sono indipendenti se e solo se il sistema Ax=0 ha solo la soluzione nulla se e solo se il sistema Ax=b ha solo la soluzione x= A^{-1}b. Se ho AB=I_n, allora A è invertibile e B è l'inversa di A. Calcolo della matrice inversa con l'eliminazione di Gauss.

  17. 18/11/21 Matrice di cambiamento di base dalla base B alla base B': è la matrice associata all'identità rispetto alla base B in partenza e alla base B' in arrivo. Come cambia la matrice associata ad un'applicazione lineare se cambiamo la base in partenza e la base in arrivo. Esercizi. Esempio della proiezione P rispetto ad una decomposizione di R^n in somma diretta, come scrivere la matrice di P rispetto alla base canonica in partenza e in arrivo.

  18. 19/11/21 Endomorfismi lineari. Due matrici associate allo stesso endomorfismo rispetto a 2 basi (uguali in partenza e in arrivo) sono simili. Determinante. Assiomi. Conseguenze. Se le righe sono linearmente dipendenti allora il determinante è 0. Calcolo in dimensione 2 usando gli assiomi. Interpretazione geometrica in dimensione 2. Cacolo in dimensione 3 usando Sarrus. Il determinante di una matrice triangolare superiore è uguale al prodotto degli elementi sulla diagonale (con dimostrazione).

  19. 23/11/21 Calcolo del determinante di una matrice di dimensione qualsiasi usando il metodo di Gauss. Conseguenza: il determinante di una matrice è diverso da 0 se e solo se la matrice è invertibile (se e solo se le colonne sono linearmente indipendenti). Definizione di sottomatrice, minore, A_{i,j}. Sviluppo di Laplace sulle righe e sulle colonne. Il determinante di una matrice è uguale al determinante della trasposta. Dimostrazione per induzione usando lo sviluppo di Laplace. Corollario: il determinante di una matrice è diverso da 0 se e solo se le righe sono linearmente indipendenti. Teorema di Binet: enunciato. Dimostrazione che il determinante dell'inversa di A è l'inverso del determinante di A.

  20. 25/11/21 Teorema di Binet: dimostrazione. Matrici simili hanno determinante uguale. Formula di Cramer: dimostrazione ed esempi. Formula per l'inversa con il determinante: dimostrazione con Cramer e esempi.

  21. 26/11/21 Rango per righe è uguale al rango per colonne (con dimostrazione). Teorema degli orlati (senza dimostrazione). Esempi di calcolo del rango. Teorema di Rouché-Capelli (con dimostrazione). Esempi di sitemi lineari con parametro, discussione della compatibilitá usando Rouché-Capelli.

  22. 30/11/21 prodotto scalare in R^n. Definizione, proprietà: bilinearità, simmetria. La norma di un vettore è la radice del prodotto scalare del vettore per sé stesso. Norma al quadrato di v+w usando la bilinearità. Deduzione della formula <v,w>=|v||w|cos theta usando il teorema del coseno. Calcolo dell'angolo fra due vettori usando il prodotto scalare. Diseguaglianza di Cauchy-Schwarz, diseguaglianza triangolare. Base ortogonale e base ortonormale. Per ottenere una base ortonormale da una ortogonale basta dividere i vettori per la loro norma. k vettori di R^n a due a due ortogonali sono linearmente indipendenti (con dimostrazione). Formula delle coordinate di un vettore rispetto ad una base ortogonale e rispetto ad una base ortonormale. Corollario: la norma al quadrato di un vettore è la somma dei quadrati delle coordinate di v rispetto ad una base ortonormale.

  23. 2/12/21 Procedimento di ortogonalizzazione di Gram-Schmidt. Formula della proiezione ortogonale P_U su un sottospazio U di R^n. Il passo n-esimo del procedimento consiste nel definire w_n come v_n meno la proiezione ortogonale di v_n sullo Span di w_1, ..., w_(n-1). La proiezione ortogonale di v su U è l'unico vettore w di R^n tale che v-w è ortogonale ad ogni vettore di U (con dimostrazione). Definizione di ortogonale di un sottospazio. Dimostrazione che l'ortogonale di un sottospazio è un sottospazio.

  24. 3/12/21 Proprietà dell'ortogonale di un sottospazio con dimostrazione. Calcolo della matrice associata alla proiezione ortogonale su un piano passante per l'origine di R^3 rispetto alla base canonica in partenza e in arrivo. Come si trova il vettore ortogonale ad un piano dato in cartesiane. Trucco del determinante per trovare un vettore di R^3 ortogonale a due vettori dati. In generale: se U è dato in equazioni cartesiane Ax=0, l'ortogonale è lo Span delle righe di A. Se U è dato in parametriche come Span (v_1, ... v_n), l'ortogonale è dato in cartesiane dal sistema lineare omogeneo <v_1,x>=0, ... , <v_n,x>=0. Esercizio: trovare il piano ortogonale ad una retta e passante per un punto.

  25. 7/12/21 Esercizi di preparazione all'esonero.

  26. 9/12/21 Altri esercizi di preparazione all'esonero. Mutua posizione di rette e piani nello spazio. Proiezione ortogonale di un punto su una retta o un piano nello spazio. Distanza punto-piano e punto retta. Distanza retta-piano.

  27. 10/12/21 Esonero.

  28. 14/12/21 Isometrie di R^n, matrici ortogonali. Una matrice nxn è ortogonale se e solo se le sue colonne formano una base ortonormale di R^n, se e solo se le sue righe formano una base ortonormale di R^n. Se B è una base ortonormale di R^n e f è un endomorfismo di R^n, la matrice associata a f rispetto a B è ortogonale se e solo se f è un'isometria. Il prodotto scalare si può calcolare usando le coordinate rispetto ad una base ortonormale di R^n con la stessa formula <v,w>=x_1y_1+... x_ny_n. Se A è ortogonale allora det(A)= 1 o det(A)= -1. Se A,B sono matrici ortogonali nxn allora AB è ortogonale. Se A è ortogonale allora la sua inversa è ortogonale. Studio delle matrici ortogonali 2x2. Rotazioni e riflessioni di R^2. Definizione di endomorfismo diagonalizzabile, autovalori e autovettori.

  29. 16/12/21 Un endomorfismo può essere rappresentato da una matrice diagonale (con la stessa base in partenza e in arrivo) se e solo se esiste una base di autovettori. Definizione di matrice diagonalizzabile e relazione con il concetto di endomorfismo diagonalizzabile. Gli autospazi sono sottospazi vettoriali. Polinomio caratteristico. Coefficienti noti del polinomio caratteristico. Molteplicità delle radici di un polinomio. Molteplicità algebrica e geometrica di un autovalore. La rotazione di 90 gradi in senso antiorario non ha autovalori: motivazione geometrica. Motivazione algebrica: il polinomio x^2+1 non ha radici reali.

  30. 17/12/21 Due matrici simili hanno lo stesso polinomio caratteristico. Quindi il polinomio caratteristico è univocamente determinato dall'endomorfismo (e non dipende dalla base scelta).

Polinomio caratteristico di una matrice diagonale e di una matrice triangolare. Una matrice diagonalizzabile nxn ha esattamente n autovalori contati con molteplicità . La molteplicità geometrica è minore o uguale della molteplicità algebrica. Enunciato del criterio di diagonalizzabilità: una matrice nxn è diagonalizzabile se e solo se ha n autovalori contati con molteplicità e se per ogni autovalore la molteplicità geometrica è uguale alla molteplicità algebrica. Esercizi.

  1. 21/12/21 Autovalori relativi ad autospazi distinti sono linearmente indipendenti (dimostrazione per induzione). Dimostrazione del criterio di diagonalizzabilità.

  2. 13/01/22 (Tovena) Introduzione ai numeri complessi. Introduzione del piano di Argand-Gauss. Parte reale e parte immaginaria di un numero complesso. Somma e prodotto tra numeri complessi. Proprietà delle operazioni. Coniugio e sue proprietà. Modulo di un numero complesso e sue proprietà. Norma di un numero complesso. Inverso di un numero complesso.

  3. 14/01/22 (Tovena) Argomento di un numero complesso. Forma trigonometrica di un numero complesso. Interpretazione geometrica del prodotto tra numeri complessi. Formula di De Moivre sulla potenza di un numero complesso.Radici n-me dell’unità.

  4. 18/01/22 (Tovena) Definizione di orientazione in uno spazio 3D. Definizione di prodotto vettoriale (fissata una orientazione). Modulo, direzione e verso del prodotto vettoriale. Il prodotto vettoriale definisce una applicazione bilineare alternante. Determinazione dell’area di un parallelogramma o di un triangolo. Prodotto misto e volume di un parallelepipedo. Volume di una piramide a base triangolare. Applicazione del prodotto vettoriale al calcolo di un vettore direttore di una retta descritta tramite equazioni cartesiane.

  5. 20/01/22 (Tovena) Esercizi relativi a numeri complessi, prodotto vettoriale, autovettori e autovalori.

  6. 21/01/22 Esonero.