Numero imaginario: resulta de la raíz cuadra de un numero real negativo.
Formas de representar un numero complejo.
Binomica →
Polar →
Exponencial →
Trigonometrica →
Raiz de un numero complejo.
Logaritmo de un numero complejo.
Formula de Euler
Aplicaciones de los números complejos→Análisis de Circuitos Eléctricos de CA
Aplicaciones de las matrices→Análisis de Circuitos Eléctricos de CD
Aplicaciones de los espacios vectoriales→Cálculo Vectorial
Los números complejos expresan la suma entre un número real y un número imaginario. a+bi o en forma polar.
Un número real es aquel que puede ser expresado por un número entero (4, 15, 2686) o decimal (1.25; 38.1236; 29854.152). En cambio, un número imaginario es un número cuyo cuadrado es negativo.
i²=-1
i...de imaginario, número imaginario
El conjunto de los números complejos se designa con la notación
, siendo el conjunto de los números reales se cumple que
( está estrictamente contenido en )
Es muy importante que aprendas esto:
(Todos los números son complejos)
• Suma de Números Complejos
Dados dos números complejos a + bi y c + di se definen su suma como:
(a + bi ) + (c + di) = (a + c) + (b + d)i
Ejemplo:
(2 - 3i ) + (-3 + i ) = (2 - 3)+(-3 + 1)i = -1 - 2i
•Multiplicación de Números Complejos
La multiplicación se efectúa igual que si fuesen números reales, pero teniendo en cuenta que la multiplicación de complejos no es equivalente al producto escalar de vectores.
Dados dos números complejos a + bi y c + di se definen su producto como:
(a + bi) (c + di) = (ac - bd) + (ad + bc)i
•División de Números Complejos
Para dividir dos complejos, se multiplica el dividendo y el divisor por el conjugado de éste, así el divisor pasará a ser un número real.
Ejemplo:
Sea z=(a +bi) un número complejo cualquiera. Llamaremos módulo del número complejo z, al número real dado por
y lo denotaremos por lzI. El módulo se interpreta como la distancia al origen del número z.
Ejemplo:
Se puede representar un número complejo cualquiera (z = a +bi ) en forma polar, dando su módulo y su argumento. Esta forma también se llama forma trigonométrica.
El módulo de un número complejo z es la longitud del vector que lo representa.
El argumento de un complejo es el ángulo que forma el vector con el eje real.
Por lo cual:
Ejemplo:
Teorema de De Moivre, potencias y extracción de raíces ecuaciones polinómicas
Aplicando la propiedad de la potencia de un número complejo, se obtiene la siguiente fórmula llamada Fórmula de De Moivre:
Que es útil en trigonometría.
Esta igualdad recibe el nombre de fórmula de De Moivre, en honor del matemático francés Abraham de Moivre (1667-1754).
Ejemplo:
Raíz de un número complejo:
Los números complejos surgen ante la imposibilidad de hallar todas las soluciones de las ecuaciones polinómicas de tipo:
Dados los valores apropiados de los coeficientes an a a0 , esta ecuación tendrá n soluciones reales si que permitirán reescribir el polinomio de la siguiente forma:
Sin embargo, ecuaciones incluso tan sencillas como x2 + 1 = 0 desafían esta regla, ya que su solución, que teóricamente vendría dada por
y que no existe en el campo de los reales ya que la raíz cuadrada no está definida para argumentos negativos.
Los números complejos sin embargo permiten ampliar aún más el concepto de "número", definiendo la unidad imaginaria o i como i = raíz de -1, lo que significaría que la ecuación anterior sí tendría dos soluciones, que serían x1= i y x2= - i.
La introducción de los números complejos permite probar el teorema fundamental del álgebra, que dice que cualquier ecuación polinómica de grado n tiene exactamente n soluciones complejas.
De esta manera, se define genéricamente un número complejo como un número compuesto por dos partes, una parte real a y una parte imaginaria b, escribiéndose como sigue: z = a + bi.
Por ejemplo, 2-3i, 4+8i, 3-πi, etc.
Con los números complejos se opera como se operaría con productos de sumas ordinarios, teniendo en cuenta siempre que i2 = -1:
(a + bi)(c + di) = ac +adi +bci + bdi2 = (ac - bd) + (ad+bc)i
La división es un poco más sofisticada debido a la necesidad de eliminar la unidad imaginaria del de nominador de la fracción:
Una matriz es una tabla cuadrada o rectangular de datos (llamados elementos) ordenados en filas y columnas, donde una fila es cada una de las líneas horizontales de la matriz y una columna es cada una de las líneas verticales. A una matriz con m filas y n columnas se le denomina matriz m-por-n (escrito m×n). Las dimensiones de una matriz siempre se dan con el número de filas primero y el número de columnas después.
Comúnmente se dice que una matriz m-por-n tiene un orden de m × n ("orden" tiene el significado de tamaño). Dos matrices se dice que son iguales si son del mismo orden y tienen los mismos elementos.
Ejemplo:
Dada la matriz:
que es una matriz 4 x 3. El elemento A[2,3] es el 7
La matriz:
es una matriz 1×9, o un vector fila con 9 elementos.
Suma
Las matrices se pueden sumar y restar entre sí, con la condición que sean del mismo orden. La suma se obtiene sumando los elementos de dos matrices que pertenecen a la misma fila y a la misma columna. Dada las matrices A y B del mismo orden, la matriz sumante se obtiene sumando cada término de A correspondiente en B:
Propiedades de la suma
Asociativa: (A+B)+C = A + (B+C)
Conmutativa: A + B= B + A
Elemento neutro: A + 0 = A
Elemento simétrico: A - B = A + ( - B )
Producto por un escalar
Con un nombre real k y la matriz A de orden (m,n), definimos el producto de K por A el producto de cada elemento que les forma cada uno. Igual que la siguiente forma: cuando K=2
Propiedades del producto escalar
k ( A + B ) = kA + kB
( k + h )A = kA + hA
k ( hA) = ( kh ) A
1A = A
Triangular superior
En una matriz triangular superior los elementos situados por debajo de la diagonal principal son ceros.
Triangular inferior
En una matriz triangular inferior los elementos situados por encima de la diagonal principal son ceros.
Diagonal
En una matriz diagonal todos los elementos situados por encima y por debajo de la diagonal principal son nulos.
Escalar
Una matriz escalar es una matriz diagonal en la que los elementos de la diagonal principal son iguales.
Identidad
Una matriz identidad es una matriz diagonal en la que los elementos de la diagonal principal son iguales a 1.
Potencia
Se llama potencia k-ésima de una matriz cuadrada A, donde k OE Õ, un entero positivo, al producto de A por sí misma, repetido k veces.
Ak =A⋅A⋅A⋅......k veces ...... ⋅A
Se conviene en que:
A- k = (A- 1) k " k OE Õ
A0 = I
Traspuesta
Dada una matriz A, se llama matriz traspuesta de A a la matriz que se obtiene cambiando ordenadamente las filas por las columnas.
(At)t = A
(A + B)t = At + Bt
(α ·A)t = α· At
(A · B)t = Bt · At
Simétrica
Una matriz simétrica es una matriz cuadrada que verifica:
A = At.
Antisimetrica
Una matriz antisimétrica o hemisimétrica es una matriz cuadrada que verifica:
A = -At.
Conjugada
Matriz conjugada de una matriz A. Aquella que se obtiene sustituyendo cada elemento por su complejo conjugado (igual parte real, pero la parte imaginaria cambiada de signo).
Hermitiana o hermítica
Una matriz hermitiana (o hermítica) es una matriz cuadrada de elementos complejos que tiene la característica de ser igual a su propia traspuesta conjugada. Es decir, el elemento en la i-ésima fila y j-ésima columna es igual al conjugado del elemento en la j-ésima fila e i-ésima columna, para todos los índices i y j:
o, escrita con la traspuesta conjugada A*: Por ejemplo,
es una matriz hermítica.
Antihermitiana
Una Matriz antihermitiana es una matriz cuadrada cuya traspuesta conjugada es menos la matriz. Esto es si satisface a la relación:
A * = -A
o en su forma componente, si (A = ai,j):
Para todas las i y las j.
Ortogonal
Una matriz ortogonal es necesariamente cuadrada e invertible : A-1 = AT La inversa de una matriz ortogonal es una matriz ortogonal. El producto de dos matrices ortogonales es una matriz ortogonal. El determinante de una matriz ortogonal vale +1 ó -1.
La idea que se persigue con las transformaciones elementales es convertir una matriz concreta en otra matriz más fácil de estudiar. En concreto, siempre será posible conseguir una matriz escalonada, en el sentido que definimos a continuación.
Sea A una matriz y F una fila de A. Diremos que F es nula si todos los números de F coinciden con el cero. Si F es no nula, llamamos PIVOTE de F al primer n´umero distinto de cero de F contando de izquierda a derecha.
Una MATRIZ ESCALONADA es aquella que verifica las siguientes propiedades:
Todas las filas nulas (caso de existir) se encuentran en la parte inferior de la matriz.
El pivote de cada fila no nula se encuentra estrictamente mas a la derecha que el pivote de la fila de encima.
Por ejemplo, entre las matrices:
A no es escalonada, mientras que B y C si lo son.
Dada una matriz escalonada E se define el RANGO de E, que representamos por rg (E), como el numero de filas no nulas de E.
En los ejemplos B y C de arriba se tiene rg (B) = rg(C) = 2, sin embargo no podemos decir que rg(A) = 3 ya que A no está escalonada. Otro ejemplo, las matrices nulas tienen rango cero y la matriz identidad de orden n cumple rg (In) = n.
La siguiente cuestión que abordaremos es la definición de rango para una matriz cualquiera que no esté escalonada. La idea será la de transformar la matriz dada en otra que sea escalonada mediante las llamadas transformaciones elementales por filas que describimos a continuación.
Dada una matriz A cualquiera, las TRANSFORMACIONES ELEMENTALES por filas de A son tres:
Intercambiar la posición de dos filas.
Multiplicar una fila por un número real distinto de cero.
Sustituir una fila por el resultado de sumarle a dicha fila otra fila que ha sido previamente multiplicada por un número cualquiera.
Nota: Análogamente podríamos hacerlo todo por columnas; sin embargo, son las transformaciones por filas las que son importantes en los sistemas de ecuaciones lineales que estudiaremos después.
El siguiente resultado nos garantiza que siempre podemos transformar una matriz cualquiera en otra escalonada.
Teorema
A partir de cualquier matriz A se puede llegar, mediante una cantidad finita de transformaciones elementales, a una matriz escalonada E.
Veamos en un ejemplo cómo se hace. Observe que, primero, hacemos que la componente (1,1) de la matriz de partida sea igual a uno. Luego, se hace que el resto de componentes de la primera columna sean cero. Después se pasa a la componente (2,2), y así sucesivamente.
El teorema anterior nos permite hacer una definición importante:
Dada una matriz A cualquiera se define el RANGO de A y lo denotamos rg(A) como el rango de cualquier matriz escalonada E equivalente con A (se demuestra que este número no depende de la matriz escalonada E a la que se llegue). El rango siempre es un número menor o igual que el número de filas y el número de columnas de A. Además, el rango es cero si y sólo si A = 0. En nuestro ejemplo de antes, el rango es 3.
Sabemos ya multiplicar matrices y hemos visto algunas de las propiedades de esta operación. Recordemos, en primer lugar, que no siempre es posible efectuar la multiplicación de dos matrices, y en segundo lugar, que aunque sea posible hacer esta multiplicación, en general no es conmutativo, es decir A·B es distinto de B*A.
En el caso particular de que tratemos con matrices cuadradas del mismo orden A y B, es claro que podemos efectuar los productos A·B y B·A, que darán como resultado otra matriz del mismo orden, aunque, como ya se ha dicho, las matrices resultantes serán, en general, distintas.
Sabemos también que el elemento neutro del producto de matrices es la matriz identidad In. Por analogía con el caso de los números reales, podemos plantearnos la siguiente cuestión: Si tenemos un número real, por ejemplo el 2, podemos interesarnos en buscar el inverso del 2 para el producto, es decir un número real x tal que 2·x = 1, el producto de 2 por x sea igual al elemento neutro, el 1.
Evidentemente, en el caso de los números reales es bien fácil despejar x para obtener, en nuestro caso, que x =12, es decir, el inverso de un número real es otro número que multiplicado por ´el da el elemento neutro, el 1.
Todo número real, salvo el 0, tiene inverso.
Trasladando esto a las matrices, nos podemos plantear si dada una matriz cuadrada A de orden n, cualquiera, existe su inversa X para el producto de matrices, tal que A ・ X = In es decir, el producto de A por su inversa produce el elemento neutro matricial, la matriz identidad In. Sin embargo, hay algunas diferencias con respecto al caso de los números reales:
No podemos “despejar” la matriz X del modo X = In A, porque no hemos definido la división de matrices.
No todas las matrices cuadradas no nulas tienen matriz “inversa” (sea lo que sea, por analogía con los números).
Definamos, en primer lugar, el término de matriz inversa: Dada una matriz cuadrada de orden n , A, se dice que A es invertible (o que posee inversa o que es no singular o que es regular ), si existe otra matriz del mismo orden, denominada matriz inversa de A y representada por A−1 y tal que: A * A−1 = In y A−1 * A = In
Si A no tiene inversa, se dice que es singular o no invertible.
Si una matriz tiene inversa, dicha matriz inversa es única (sólo hay una).
El determinante de una matriz cuadrada es un número real cuya definición exacta es bastante complicada. Por ello, definiremos primero el determinante de matrices pequeñas, y estudiaremos métodos y técnicas para calcular determinantes en general. Solamente se puede calcular el determinante a matrices cuadradas.
En cuanto a la notación, a veces el determinante se escribe con la palabra det, y otras veces se indica sustituyendo los paréntesis de la matriz por barras verticales.
El determinante de una matriz determina si los sistemas son singulares o mal condicionados. En otras palabras, sirve para determinar la existencia y la unicidad de los resultados de los sistemas de ecuaciones lineales.
• El determinante de una matriz es un número.
• Un determinante con valor de cero indica que se tiene un sistema singular.
• Un determinante con valor cercano a cero indica que se tiene un sistema mal condicionado.
Un sistema singular es cuando en el sistema de ecuaciones se tiene a más de una ecuación con el mismo valor de la pendiente. Por ejemplo ecuaciones que representan líneas paralelas o ecuaciones que coinciden en los mismos puntos de graficación.
En un sistema mal condicionado es difícil identificar el punto exacto en que las líneas de las ecuaciones se interceptan.
1.- |At|= |A| El determinante de una matriz A y el de su traspuesta At son iguales.
2.-|A|=0 Si: Posee dos líneas iguales
Todos los elementos de una línea son nulos.
Los elementos de una línea son combinación lineal de las otras.
F3 = F1 + F2
3.-Un determinante triangular es igual al producto de los elementos de la diagonal principal.
4.-Si en un determinante se cambian entre sí dos líneas paralelas su determinante cambia de signo.
5.-Si a los elementos de una línea se le suman los elementos de otra paralela multiplicados previamente por un nº real el valor del determinante no varía.
6.-Si se multiplica un determinante por un número real, queda multiplicado por dicho número cualquier línea, pero sólo una.
7.-Si todos los elementos de una fila o columna están formados por dos sumandos, dicho determinante se descompone en la suma de dos determinantes.
8.-|A•B| =|A|•|B| El determinante de un producto es igual al producto de los determinantes.
Sea A una matriz de nxn. Entonces A es invertible si y solo si detA≠0. Si detA≠0, entonces
Si detA≠0, entonces se demuestra que (1/detA)(adjA) es la inversa de A multiplicándola por A y obteniendo la matriz identidad:
Si AB=I, entonces B=A-1. Así, (1/detA)adjA=A-1
Aplicación de matrices y determinantes.
Las matrices se utilizan en el contexto de las ciencias como elementos que sirven para clasificar valores numéricos atendiendo a dos criterios o variables.
Ejemplo: Un importador de globos los importa de dos colores, naranja (N) y fresa (F). Todos ellos se envasan en paquetes de 2, 5 y 10 unidades, que se venden al precio (en euros) indicado por la tabla siguiente:
Sabiendo que en un año se venden el siguiente número de paquetes:
Resumir la informaci´on anterior en 2 matrices A y B, de tamaño respectivo 2x3 y 3x2 que recojan las ventas en un año (A) y los precios (B).
Nos piden que organicemos la información anterior en dos matrices de tamaño concreto. Si nos fijamos en las tablas, es sencillo obtener las matrices:
Estas matrices se denominan matrices de información, y simplemente recogen los datos numéricos del problema en cuestión.
Otras matrices son las llamadas matrices de relación, que indican si ciertos elementos están o no relacionados entre sí. En general, la existencia de relación se expresa con un 1 en la matriz y la ausencia de dicha relaci´on de expresa con un 0.
Estas matrices se utilizan cuando queremos trasladar la información dada por un grafo y expresarla numéricamente.
En Matemáticas, un grafo es una colección cualquiera de puntos conectados por lineas. Existen muchos tipos de grafos. Entre ellos, podemos destacar:
Grafo simple: Es el grafo que no contiene ciclos, es decir, lineas que unan un punto consigo mismo, ni lineas paralelas, es decir, lineas que conectan el mismo par de puntos.
Grafo dirigido: Es el grafo que indica un sentido de recorrido de cada linea, mediante una flecha.
Estos tipos de grafo pueden verse en la figura:
Relacionadas con los grafos se pueden definir algunas matrices. Entre todas ellas, nosotros nos fijaremos en la llamada matriz de adyacencia, que es aquella formada por ceros y unos exclusivamente, de tal forma que:
un 1 en el lugar (i,j) expresa la posibilidad de ir desde el punto de la fila i hasta el punto de la columna j mediante una linea que los una directamente.
un 0 en el lugar (i,j) expresa la imposibilidad de ir del primer punto al segundo mediante una linea que los una directamente.
La matriz de adyacencia del grafo dirigido de la figura anterior será:
En matemáticas y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales (es decir, un sistema de ecuaciones en donde cada ecuación es de primer grado), definidas sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sería el siguiente:
El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y x3 que satisfacen las tres ecuaciones.
El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señales, análisis estructural, estimación, predicción y más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis numérico.
En general, un sistema con m ecuaciones lineales y n incógnitas puede ser escrito en forma normal como:
Donde
son las incógnitas y los números son los coeficientes del sistema sobre el cuerpo
. Es posible reescribir el sistema separando con coeficientes con notación matricial:
Si representamos cada matriz con una única letra obtenemos:
Donde A es una matriz m por n, x es un vector columna de longitud n y b es otro vector columna de longitud m. El sistema de eliminación de Gauss-Jordan se aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los coeficientes.
Clasificación de los sistemas de ecuaciones lineales y tipos de solución.
Clasificación
Podemos clasificar los sistemas de ecuaciones lineales según su número de soluciones de la siguiente forma:
Sistemas con una solución: Las ecuaciones del sistema son rectas secantes. Se cortan en un punto (x, y) que es la solución del sistema
Sistemas sin solución: Las ecuaciones del sistema son rectas paralelas. No tienen ningún punto en común, y por tanto no hay solución
Sistemas con infinitas soluciones: Las ecuaciones del sistema son rectas coincidentes. Tienen todos los puntos en común, y por tanto todos ellos son soluciónCondiciones que deben cumplir las ecuaciones para que el sistema tenga una, ninguna o infinitas soluciones:
Una solución: Los coeficientes de x e y de las dos ecuaciones no son proporcionales. Ejemplo:
Ninguna solución: Los coeficientes de x e y de una ecuación son proporcionales a los de la otra, mientras que los términos independientes no lo son. Ejemplo:
Infinitas soluciones: Los coeficientes de x e y, y el término independiente de una ecuación, son proporcionales a los de la otra. Ejemplo:
Tipos de Solución
Sustitución
El método de sustitución consiste en despejar en una de las ecuaciones cualquier incógnita, preferiblemente la que tenga menor coeficiente, para, a continuación, sustituirla en otra ecuación por su valor.
En caso de sistemas con más de dos incógnitas, la seleccionada debe ser sustituida por su valor equivalente en todas las ecuaciones excepto en la que la hemos despejado. En ese instante, tendremos un sistema con una ecuación y una incógnita menos que el inicial, en el que podemos seguir aplicando este método reiteradamente. Por ejemplo, supongamos que queremos resolver por sustitución este sistema:
En la primera ecuación, seleccionamos la incógnita y por ser la de menor coeficiente y que posiblemente nos facilite más las operaciones, y la despejamos, obteniendo la siguiente ecuación.
El siguiente paso será sustituir cada ocurrencia de la incógnita y en la otra ecuación, para así obtener una ecuación donde la única incógnita sea la x.
Al resolver la ecuación obtenemos el resultado x=5, y si ahora sustituimos esta incógnita por su valor en alguna de las ecuaciones originales obtendremos y=7, con lo que el sistema queda ya resuelto.
Igualación
El método de igualación se puede entender como un caso particular del método de sustitución en el que se despeja la misma incógnita en dos ecuaciones y a continuación se igualan entre sí la parte derecha de ambas ecuaciones.
Tomando el mismo sistema utilizado como ejemplo para el método de sustitución, si despejamos la incógnita
en ambas ecuaciones nos queda de la siguiente manera:
Como se puede observar, ambas ecuaciones comparten la misma parte izquierda, por lo que podemos afirmar que las partes derechas también son iguales entre sí.
Una vez obtenido el valor de la incógnita x, se substituye su valor en una de las ecuaciones originales, y se obtiene el valor de la y.
La forma más fácil de tener el método de sustitución es realizando un cambio para despejar x después de averiguar el valor de la y.
Reducción
Este método suele emplearse mayoritariamente en los sistemas lineales, siendo pocos los casos en que se utiliza para resolver sistemas no lineales. El procedimiento, diseñado para sistemas con dos ecuaciones e incógnitas, consiste en transformar una de las ecuaciones (generalmente, mediante productos), de manera que obtengamos dos ecuaciones en la que una misma incógnita aparezca con el mismo coeficiente y distinto signo. A continuación, se suman ambas ecuaciones produciéndose así la reducción o cancelación de dicha incógnita, obteniendo así una ecuación con una sola incógnita, donde el método de resolución es simple. Por ejemplo, en el sistema:
no tenemos más que multiplicar la primera ecuación por -2 para poder cancelar la incógnita y. Al multiplicar, dicha ecuación nos queda así:
Si sumamos esta ecuación a la segunda del sistema original, obtenemos una nueva ecuación donde la incógnita y ha sido reducida y que, en este caso, nos da directamente el valor de la incógnita x:
El siguiente paso consiste únicamente en sustituir el valor de la incógnita x en cualquiera de las ecuaciones donde aparecían ambas incógnitas, y obtener así que el valor de y es igual a:
Método Gráfico
Consiste en construir la gráfica de cada una de las ecuaciones del sistema. El método (manualmente aplicado) solo resulta eficiente en el plano cartesiano, es decir para un espacio de dimensión 2.
El proceso de resolución de un sistema de ecuaciones mediante el método gráfico se resuelve en los siguientes pasos:
Se despeja la incógnita (y) en ambas ecuaciones.
Se construye para cada una de las dos ecuaciones de primer grado obteniendo la tabla de valores correspondientes.
Se representan gráficamente ambas rectas en los ejes coordenados.
En este último paso hay tres posibilidades:
Si ambas rectas se cortan, las coordenadas del punto de corte son los únicos valores de las incógnitas (x,y). "Sistema compatible determinado".Si ambas rectas son coincidentes, el sistema tiene infinitas soluciones que son las respectivas coordenadas de todos los puntos de esa recta en la que coinciden ambas. «Sistema compatible indeterminado».
Si ambas rectas son paralelas, el sistema no tiene solución.
Método de Gauss
La eliminación de Gauss-Jordan, más conocida como método de Gauss, es un método aplicable únicamente a los sistemas lineales de ecuaciones, y consistente en triangular la matriz aumentada del sistema mediante transformaciones elementales, hasta obtener ecuaciones de una sola incógnita, cuyo valor será igual al coeficiente situado en la misma fila de la matriz. Este procedimiento es similar al anterior de reducción, pero ejecutado de manera reiterada y siguiendo un cierto orden algorítmico.
El Método de Gauss consiste en convertir un sistema normal de 3 ecuaciones con 3 incognitas en uno escalonado, en la que la primera ecuación tiene 3 incógnitas, la segunda ecuación tiene 2 incógnitas, y la tercera ecuación tiene 1 incógnita. De esta forma será fácil a partir de la última ecuación y subiendo, calcular el valor de las tres incógnitas.
En primer lugar, reducimos la incógnita x, sumando a la segunda fila, la primera multiplicada por 2/3, y a la tercera, la primera fila. La matriz queda así:
El siguiente paso consiste en eliminar la incógnita y en la primera y tercera fila, para lo cual les sumamos la segunda multiplicada por -2 y por -4, respectivamente.
Por último, eliminamos la z, tanto de la primera como de la segunda fila, sumándoles la tercera multiplicada por -2 y por 1/2, respectivamente:
Llegados a este punto podemos resolver directamente las ecuaciones que se nos plantean:
O, si lo preferimos, podemos multiplicar las tres filas de la matriz por: 1/2, 2 y -1 respectivamente, y obtener así automáticamente los valores de las incógnitas en la última columna.
Pongamos un ejemplo del cálculo de un sistema de ecuaciones por el método de Gauss:Se reúnen 30 personas entre hombres, mujeres y niños. Se sabe que entre los hombres y el triple de mujeres exceden en 20 el doble de los niños. También se sabe que entre hombres y mujeres se duplican al número de niños. Plantear y resolver el sistema de ecuaciones.x=numero de hombres; y=numero de mujeres; y z=numero de niños. Se reúnen 30 personas entre hombres, mujeres y niños: x+y+z=30. Se sabe que entre los hombres y el triple de mujeres exceden en 20 el doble de los niños: x+3y=2z+20. También se sabe que entre hombres y mujeres se duplican al número de niños: x+y=2z.
Agrupando las tres ecuaciones tenemos el sistema, que ordenado resulta
:
Aplicamos Gauss, restando la primera ecuación a las dos siguientes:
En este caso en la tercera ecuación se ha eliminado la y, por lo que no es necesario hacer más operaciones. Por lo tanto obtenemos que z = 10 de la tercera ecuación:
Sustituyendo z en la segunda ecuación obtenemos que y = 10:
Sustituyendo z é y en la primera ecuación obtenemos x = 10.
Con lo que hemos obtenido el resultado del sistema:
Método de Cramer
La regla de Cramer da una solución para sistemas compatibles determinados en términos de determinantes y adjuntos dada por:
Donde Aj es la matriz resultante de remplazar la j-ésima columna de A por el vector columna b. Para un sistema de dos ecuaciones y dos incógnitas:
La regla de Cramer da la siguiente solución:
Nota: Cuando en la determinante original det(A) el resultado es 0, el sistema indica múltiples o sin coincidencia.
Cada ecuación representa un plano en el espacio tridimensional. Luego se trata de estudiar la posición relativa de tres planos en el espacio. Las soluciones del sistema son geométrica-mente los puntos de intersección de los tres planos, los casos son:
Un punto único. Sistema compatible determinado.. Los tres planos se cortan en P.
Una recta. Son soluciones todos los puntos representativos de la recta común. Sistema compatible indeterminado con un grado de libertad. Los planos se cortan en r.
Un plano. Los planos son coincidentes. El sistema es compatible indeterminado con dos grados de libertad.
Ningún punto. El sistema es incompatible. Esta situación se presenta geométrica-mente de distintas maneras. Para estudiar las posiciones relativas de los planos hay que tomarlos de dos en dos.
Se pueden presentar varios casos: Que los planos sean paralelos:
MÉTODO DE RESOLUCIÓN DE GAUSS-JORDAN
Es el método de resolución de sistemas de ecuaciones lineales, que consiste en llegar a un sistema "escalonado" transformando la matriz ampliada en una matriz escalonada por filas. El método de Gauss es una generalización del método de reducción, que utilizamos para eliminar una incógnita en los sistemas de dos ecuaciones con dos incógnitas. Consiste en la aplicación sucesiva del método de reducción, utilizando los criterios de equivalencia de sistemas, para transformar la matriz ampliada con los términos independientes ( A* ) en una matriz triangular, de modo que cada fila (ecuación) tenga una incógnita menos que la inmediatamente anterior. Se obtiene así un sistema, que llamaremos escalonado, tal que la última ecuación tiene una única incógnita, la penúltima dos incógnitas, la antepenúltima tres incógnitas, ..., y la primera todas las incógnitas.
El siguiente esquema muestra cómo podemos resolver un sistema de ecuaciones lineales aplicando este método.
Partimos, inicialmente, de un sistema de n ecuaciones lineales con n incógnitas, compatible determinado:
En primer lugar, aplicando sucesivamente el método de reducción, eliminamos en todas las ecuaciones, excepto en la primera, la incógnita x1, obteniéndose un sistema equivalente:
En segundo lugar, aplicando nuevamente el método de reducción de forma sucesiva, eliminamos en todas las ecuaciones, excepto en las dos primeras, la incógnita x2, obteniéndose un sistema equivalente:
Para resolverlo despejamos, en primer lugar, la única incógnita de la última ecuación. Luego sustituimos ésta en la penúltima ecuación y despejamos la otra incógnita. Posteriormente, sustituimos dos de las tres incógnitas de la antepenúltima ecuación por sus valores y despejamos la que queda, y así sucesivamente hasta llegar a la primera ecuación.
Las transformaciones que podemos realizar en dicha matriz para transformar el sistema inicial en otro equivalente son las siguientes:
Multiplicar o dividir una fila por un número real distinto de cero.
Sumarle o restarle a una fila otra fila.
Sumarle a una fila otra fila multiplicada por un número distinto de cero.
Cambiar el orden de las filas.
Cambiar el orden de las columnas que corresponden a las incógnitas del sistema, teniendo en cuenta los cambios realizados a la hora de escribir el nuevo sistema equivalente. Es decir: si, por ejemplo, la 2ª columna corresponde a la incógnita y y la tercera a la incógnita z, y cambiamos el orden de las columnas, ahora la 2ª columna corresponde a la incógnita z y la tercera a la incógnita y.
Eliminar filas proporcionales o que sean combinación lineal de otras.
Eliminar filas nulas (0 0 0 ... 0).
Después de realizar las transformaciones que se consideren pertinentes, se obtendrá un sistema escalonado. Suponiendo que hubiésemos eliminado, si las hubiera, las filas nulas (0 0 0 ... 0), que corresponden a ecuaciones del tipo 0 = 0, el sistema equivalente tendría ahora k ecuaciones lineales con n incógnitas.
Analizando el sistema resultante, podemos efectuar su discusión del siguiente modo:
Si alguna de las ecuaciones es del tipo 0 = b (siendo b distinto de cero), el sistema es incompatible y no tiene solución.
Si no hay ecuaciones del tipo 0 = b, y además k = n, es decir, el número de ecuaciones del sistema equivalente es igual al número de incógnitas, el sistema es compatible determinado y, por lo tanto, tiene una única solución.
Si no hay ecuaciones del tipo 0 = b y k < n, es decir, el número de ecuaciones es menor que el número de incógnitas, el sistema es compatible indeterminado y, en consecuencia, tiene infinitas soluciones. En este caso, tenemos que separar las incógnitas principales de las no principales.
Pero, ¿cuáles son las incógnitas principales? Se puede dar el siguiente criterio: Si el sistema es escalonado y tiene k ecuaciones, las k primeras incógnitas serán las principales y las n - k restantes serán las no principales que pasaremos al segundo miembro como parámetros.
MÉTODO DE RESOLUCIÓN DE CRAMER. REGLA DE CRAMER
La regla de Cramer utiliza las propiedades de las matrices y sus determinantes para despejar, por separado, una cualquiera de las incógnitas de un sistema de ecuaciones lineales.
REGLA DE CRAMER
Un sistema de ecuaciones lineales recibe el nombre de sistema de Cramer cuando se cumplen las dos condiciones siguientes:
El número de ecuaciones es igual al número de incógnitas.
El determinante de la matriz de los coeficientes (matriz del sistema) es distinto de cero (det ( A ) ≠ 0)
Un sistema de Cramer es, por definición, compatible determinado, puesto que se cumple que rango (A) = rango (A*) = n (nº de incógnitas).
Consideremos un sistema de Cramer, es decir, un sistema de n ecuaciones lineales con n incógnitas, cuya expresión general es la siguiente:
Sean A la matriz del sistema , entonces det (A) ≠0.
Llamaremos matriz asociada a la incógnita xi y la designaremos por Ai a la matriz que se obtiene al sustituir en la matriz del sistema la columna i por la matriz columna de los términos independientes. Es decir:
Todos los sistemas de Cramer son compatibles determinados. El valor de cada incógnita se obtiene dividiendo el determinante de la matriz asociada a dicha incógnita por la matriz del sistema (matriz de los coeficientes de las incógnitas).
¿Se puede aplicar la regla de Cramer para resolver sistemas de ecuaciones lineales compatibles que tengan más ecuaciones que incógnitas? La respuesta es afirmativa. Basta con obtener un sistema equivalente al inicial eliminando las ecuaciones superfluas o dependientes (proporcionales, nulas o que sean combinación lineal de otras).
El procedimiento a seguir es el siguiente: Supongamos que tenemos un sistema de m ecuaciones lineales con n incógnitas, siendo m > n y tal que: rango (A) = rango (A*) = n. Por lo tanto, sobran m - n ecuaciones. Para averiguar cuáles son las ecuaciones de las que podemos prescindir, basta encontrar en la matriz de los coeficientes ( A ) un menor de orden n distinto de cero, por ejemplo, el que utilizamos para averiguar el rango de la matriz A.
Las filas que intervienen en este menor son las que corresponden a las ecuaciones principales. Las restantes ecuaciones las podemos suprimir.
Ejemplo: Sea el sistema de ecuaciones lineales formado por dos ecuaciones con dos incógnitas:
Encontrar el valor de x e y mediante la regla de Cramer.
Empezaremos con el primer paso, que consiste en hallar la matriz ampliada A b asociada al sistema de ecuaciones lineales:
El segundo paso es calcular el determinante de A. Así pues:
Y el tercero y último paso consiste en calcular las incógnitas:
MÉTODO DE LA MATRIZ INVERSA
Consideremos un sistema de n ecuaciones lineales con n incógnitas, cuya expresión general es la siguiente:
Hemos visto que este sistema se puede escribir en forma matricial del siguiente modo: A X = B.
La matriz A se llama matriz del sistema, es de dimensión n x n y sus elementos son los coeficientes de las incógnitas.
La matriz X es una matriz columna, de dimensión n x 1, formada por las incógnitas del sistema. Por último, la matriz B es otra matriz columna, de dimensión n x 1, formada por los términos independientes. Es decir:
Si el determinante de la matriz A es distinto de cero (det (A) ≠ 0 ), la matriz A tiene inversa ( A-1 ). Por lo tanto, podemos calcular la matriz de las incógnitas X del siguiente modo:
Es decir, para calcular la matriz columna de las incógnitas ( X ), multiplicamos la inversa de la matriz A ( A-1 ) por la matriz columna de los términos independientes, obteniéndose otra matriz columna de la misma dimensión que X.
¿Se puede aplicar el método de la matriz inversa para resolver sistemas de ecuaciones lineales compatibles que tengan más ecuaciones que incógnitas? La respuesta es afirmativa. Basta con obtener un sistema equivalente al inicial eliminando las ecuaciones superfluas o dependientes (proporcionales, nulas o que sean combinación lineal de otras).
El procedimiento a seguir es el siguiente: Supongamos que tenemos un sistema de m ecuaciones lineales con n incógnitas, siendo m > n y tal que: rango (A) = rango (A*) = n. Por lo tanto, sobran m - n ecuaciones. Para averiguar cuáles son las ecuaciones de las que podemos prescindir, basta encontrar en la matriz de los coeficientes ( A ) un menor de orden n distinto de cero, por ejemplo, el que utilizamos para averiguar el rango de la matriz A. Las filas que intervienen en este menor son las que corresponden a las ecuaciones principales. Las restantes ecuaciones las podemos suprimir.
¿Se puede aplicar el método de la matriz inversa para resolver sistemas de ecuaciones lineales compatibles indeterminados? La respuesta es también afirmativa. El procedimiento a seguir es el siguiente: Supongamos que tenemos un sistema de m ecuaciones lineales con n incógnitas, tal que: rango (A) = rango (A*) = k < n. Por lo tanto, sobran m - k ecuaciones y, además, hay n - k incógnitas no principales. Para averiguar cuáles son las ecuaciones de las que podemos prescindir, y cuáles son las incógnitas no principales, basta encontrar en la matriz de los coeficientes ( A ) un menor de orden k distinto de cero, por ejemplo, el que utilizamos para averiguar el rango de la matriz A. Las filas que intervienen en este menor son las que corresponden a las ecuaciones principales o independientes. Las restantes ecuaciones las podemos suprimir. Las columnas que figuran en dicho menor corresponden a las incógnitas principales. Las incógnitas no principales las pasamos al otro miembro y pasan a formar un único término junto con el término independiente. Se obtiene, de este modo, un sistema de k ecuaciones lineales con k incógnitas, cuyas soluciones van a depender de n - k parámetros (correspondientes a las incógnitas no principales).
=Fracciones parciales =
Una técnica muy conveniente utilizada en algunas tareas matemáticas es aquella conocida como fracciones idea principal consiste en cambiar la forma que puede ser expresado un cociente entre polinomios a otra forma más conveniente para cierto tipo de cálculo.
Ejemplo 4.1 Determine los valores de las constantes a y b para que satisfagan:
SOLUCIÓN
Ejemplo: (Forma dudosa) Determine los valores de las constantes a y b para que satisfagan:
SOLUCIÓN
Determinación de curvas
Un problema común en diferentes áreas es la determinación de curvas. es decir el problema de encontrar la función que pasa por un conjunto de puntos. Usualmente se conoce la naturaleza de la función, es decir, se conoce la forma que debe tener la función. Por ejemplo, línea recta, parábola o exponencial etc. Lo que se hace para resolver este tipo de problemas es describir la forma más general de la función mediante parámetros constantes. Y posteriormente se determinan estos parámetros haciendo pasar la función por los puntos conocidos.
Ejemplo: Determine la función cuadrática que pasa por los puntos P (1, 4), Q(−1, 2), y R(2, 3).
Solución
La forma más general de una cuadrática es: f (x) = a x2 + b x + c donde los coeficientes a, b, y c son constantes numéricas. El problema consiste en determinar estos coeficientes.
Así pues los parámetros a, b, y c se vuelven ahora las incógnitas. Y para poderlas determinar requerimos de ecuaciones o igualdades que deben satisfacer. Para determinar estas ecuaciones debemos usar los puntos.
Para que la función pase por el punto P (1, 4) se debe cumplir que f (x = 1) = 4,
es decir, se debe cumplir: a (1)2 + b (1) + c = 4
es decir, se debe cumplir: a + b + c =4
Procediendo de igual manera con el punto Q(−1, 2): formulamos la ecuación: a − b + c =2 y para R(2, 3): 4a + 2b + c = 3.
Resumiendo para que la función f (x) = a x2 + b x + c pase por los puntos P , Q, y R deben cumplirse las ecuaciones:
a + b + c = 4
a − b + c = 2
4a + 2b + c = 3
La solución a este sistema es: a = 2/3, b = 1, y c =11/3
La misma situación presentada en el problema de las fracciones parciales que originaba un sistema inconsistente, se puede presentar en la determinación de funciones. Y la conclusión es similar: si el sistema originado es inconsistente lo que se concluye es que no existe una funci´on con esa forma general que pase exactamente por los puntos dados.
=Balanceo de Reacciones Químicas=
Una aplicación sencilla de los sistemas de ecuaciones se da en el balanceo de reacciones químicas. La
problemática consiste en determinar el número entero de moléculas que intervienen en una reacción química
cuidando siempre que el número de átomos de cada sustancia se preserve.
Ejemplo Balancee la reacción química: aCH4 + bO2=cCO2 + dH2O
Solución: Para determinar los coeficientes a, b, c, y d que representan el numero de moléculas de las sustancias en la reacción debemos igualar el numero de átomos en cada miembro:
Por los átomos de carbono: a = c. Por los átomos de oxigeno: 2 b = 2 c + d. Por los átomos de hidrógeno: 4 a = 2 d
Este sistema es consistente y origina infinitas soluciones. La f´ormula general para las soluciones queda:
a = 1/2 d
b = d
c = 1/2 d
El valor más pequeño de d que hace que los números de moléculas sean enteros positivos es d = 2: a = 1, b = 2, c = 1, y d = 2
=Aplicaciones a Manufactura=
Ejemplo: Patito computers fabrica tres modelos de computadoras personales: cañon, clon, y lenta-pero-segura. Para armar una computadora modelo ca˜non necesita 12 horas de ensamblado, 2.5 para probarla, y 2 mas para instalar sus programas. Para una clon requiere 10 horas de ensamblado, 2 para probarla, y 2 para instalar programas. Y por ´ultimo, para una lenta-pero-segura requiere 6 para ensamblado, 1.5 para probarla, y 1.5 para instalar programas. Si la f´abrica dispone en horas por mes de 556 para ensamble, 120 para pruebas, y 103 horas para instalación de programas, ¿cu´antas computadoras se pueden producir por mes?
Solución
En nuestro caso las incógnitas el n´umero de cada tipo de computadora a producir:
x = n´umero de computadoras cañón
y = n´umero de computadoras clon
z = n´umero de computadoras lenta-pero-segura
Para determinar las ecuaciones debemos utilizar los tiempos de ensamblado, pruebas, e instalación de programas.
Ensamblado: 556(total) = 12 x(cañon) + 10 y(clon) + 6 z(lenta)
Pruebas: 120(total) = 2.5 x(cañon) + 2 y(clon) + 1.5 z(lenta)
Instalación de programas: 103(total) = 2 x(cañon) + 2 y(clon) + 1.5 z(lenta)
Al resolver este sistema obtenemos: x = 34, y = 4, z = 18
Dado lo común de las aplicaciones hacia el área de manufactura, existe una forma simple de construir la matriz del sistema de ecuaciones que en general se trabaja como una tabla:
En la ultima columna aparecen los recursos: un renglón para cada tipo de recursos y en cuya posición final se pone el total de recursos disponibles.
En las primera columnas se colocan los objetos o modelos a ser ensamblados o construidos: en cada posición se coloca el total de recursos que consume en forma unitaria cada tipo de objeto.
Sean K un cuerpo dado y V un conjunto no vacio, con reglas de suma y producto por escalar que asigna a cada par u, vϵV una suma u+vϵV y a cada par uϵV, kϵK un producto kuϵV. V recibe el nombre de espacio vectorial sobre K (y los elementos de V se llaman vectores) si satisfacen los siguientes axiomas.
[A1] para toda terna de vectores u, v, wϵV, (u+v)+w=u+(v+w).
[A2] existe un vector en V, denotado por 0 y denominado el vector cero, tal que u+0=u para todo vector uϵV.
[A3] para todo vector uϵV existe un único vector en V, denotado por –u, tal que u+(-u)=0.
[A4] para todo par de vectores u, vϵV, u+v=v+u.
[M1] para todo escalar kϵK y todo par de vectores u, vϵV, k(u+v)=ku+kv.
[M2] para todo par de escalares a, bϵK y todo vector uϵV, (a+b)u=au+bu.
[M3] para todo par de escalares a, bϵK y todo vector uϵV, (ab)u=a(bu).
[M4] el escalar unidad 1ϵK cumple 1u=u para todo vector uϵV.
Los axiomas precedentes se desdoblan de forma natural en dos categorías. Los cuatro primeros atañen únicamente a la estructura aditiva de V y pueden resumirse diciendo que V es un grupo conmutativo bajo la suma. De ello se deriva que cualquier suma de vectores de la forma v1+v2+…+vm no requieren paréntesis y no depende del orden de los sumandos, que el vector cero, 0, es único, que el opuesto –u de u es único y que se verifica la ley de cancelación; esto es, para tres vectores cualesquiera u, v, wϵV.
U+w=v+w implica u=v. Asimismo, la resta se define según u-v=u+(-v).
Por otra parte, los cuatro axiomas restantes se refieren a la <<acción>> del cuerpo K sobre V. observece que la rotulación de los axiomas refleja este desdoblamiento. Empleando estos axiomas adicionales probaremos las siguientes propiedades elementales de un espacio vectorial.
Teorema: sea V un espacio vectorial sobre un cuerpo K.
Para todo escalar kϵK y 0ϵV, k0-0.
Para 0ϵK y todo vector uϵV, 0u=0.
Si ku=0, donde kϵK y uϵV, entonces k=0 o u=0.
Para todo kϵK y todo uϵV, (-k)u=-ku.
Sea W un subconjunto de un espacio vectorial V sobre un cuerpo K. W se denomina un subespacio de V si es a su vez un espacio vectorial sobre K con respecto a las operaciones de V, suma vectorial y producto por un escalar. Un criterio simple para identificar subespacios es el siguiente.
Teorema: supongamos que W es un subconjunto de un espacio vectorial V. entonces W es un subespacio de V si y solo si se cumple:
0єW
W es cerrado bajo la suma de vectores, es decir: para todo par de vectores u, vєW, la suma u+vєW.
W es cerrado bajo el producto por un escalar, esto es: para todo uєW y para todo kєK el múltiplo kuєW.
Corolario: W es un subespacio de V si y solo si:
0єW.
au+bvєW para todos los u, vєW y a, bєK.
Ejemplo: sean U y W subespacios de un espacio vectorial V. probemos que la intersección UÇW es también subespacio de V. claramente, 0ÎU y 0ÎW, porque U y W son subespacios, de donde 0ÎUÇW. supongamos ahora que u, vÎUÇW. entonces u, vÎU y u, vÎE y, dado que U y W son subespacios, u+v, kuÎU y u+v, kuÎW para cualquier escalar k. así u+v, kuÎUÇW y por consiguiente UÇW es un subespacio de V. El resultado del ejemplo precedente se generaliza como sigue.
Teorema: la intersección de cualquier número de subespacios de un espacio vectorial V es un subespacio de V.
Recuérdese que toda solución de un sistema de ecuaciones lineales con n incógnitas AX=B puede verse como un punto en Kn y por tanto el conjunto solución de tal sistema es un subconjunto de Kn. Supongamos que el sistema homogéneo, es decir, supongamos que el sistema tiene la forma AX=0. Denotemos por W su conjunto solución. Como A0=0, el vector cero 0ÎW además, si u y v pertenecen a W, esto es, si u y v son soluciones de AX=0, necesariamente Au=0 y Av=0. Por esta razón, para todo par de escalares a y b en K, tendremos A(au+bv)=aAu+bAv=a0+b0=0+0=0. De esta manera, au + bv es también una solución de AX=0 o, dicho de otro modo, au+bvÎW. En consecuencia, según el corolario, hemos demostrado:
Teorema: el conjunto solución W de un sistema homogéneo con n incógnitas AX=0 es un subespacio de kn.
Hacemos énfasis en que el conjunto solución de un sistema no homogéneo AX=B no es subespacio de Kn. De hecho, el vector cero, 0, no pertenece a dicho conjunto solución.
COMBINACIÓN LINEAL
Sean v1, v2, …, vn, vectores en un espacio vectorial V. entonces cualquier vector de la forma: a1v1+a2v2+…+anvn, donde a1,a2,…,an son escalares se denomina una combinación lineal de v1, v2,…,vn.
Una combinación lineal en M23
Conjunto generador.
Se dice que los vectores v1, v2, …, vn de un espacio vectorial V generan a V si todo vector en V se puede escribir como una combinación lineal de los mismo. Es decir, para todo vÎV, existen escalares a1, a2, …, an tales que v=a1v1+a2v2+…+anvn
Cuatro vectores que generan a M22
Espacio generado por un conjunto de vectores.
Sean v, v2, …, vk, k vectores de un espacio vectorial V. el espacio generado por {v1, v2, …, vk} es el conjunto de combinaciones lineales v1, v2, …, vk. Es decir
donde a1, a2, …, ak, son escalares arbitrarios.
Teorema: si v1, v2, …, vk son vectores en un espacio vectorial V, entonces gen{v1, v2, …, vk} es un subespacio de V.
Ejemplo: el espacio generado por dos vectores en R3
Sea v1=(2,-1,4) y v2=(4,1,6). Entonces H=gen{v1, v2}={v:v=a1(2,-1,4)+a2(4,1,6)}. ¿Cuál es la apariencia de H? si v=(x, y,z)ÎH, entonces tiene x=2a1+4a 2, y=-a1+a2 y z=4a 1+6ª 2. Si se piensa que (x, y, z) esta fijo, entonces estas ecuaciones se pueden ver como un sistema de tres ecuaciones con tres incognitas a1, a2. Este sistema se resuelve en la forma usual:
INDEPENDENCIA LINEAL
En el estudio del algebra lineal, una de las ideas centrales es la de dependencia o independencia lineal de los vectores. En esta sección se define el significado de independencia lineal y se muestra su relación con la teoría de sistemas homogéneos de ecuaciones y determinantes.
Existe una relación espacial entre los vectores , se puede apreciar que v2=2v1; o si se escribe esta ecuación de otra manera. 2v1-v2=0.
En otras palabras, el vector cero se puede escribir como una combinación no trivial de v1 y v2 (es decir, donde los coeficientes en la combinación lineal no son ambos cero).
¿Qué tienen de especial los vectores ?
La respuesta a esta pregunta es más difícil a simple vista. Sin embargo, es sencillo verificar que v3=3v1+2v2; rescribiendo esto se obtiene
.
Se ha escrito el vector cero como una combinación lineal de v1, v2, y v3. Parece que los dos vectores de la ecuación y los tres vectores de la otra ecuación tienen una relación más cercana que un par arbitrario de 2-vectores a una terna arbitraria de 3-vectores. En cada caso, se dice que los vectores son linealmente dependientes. En términos generales, se tiene la importante definición a continuación presentada.
Definición: sean v1, v2, …, vn vectores en un espacio vectorial V. entonces se dice que lois vectores son linealmente dependientes si existen n escalares c1, c2, …, cn no todos ceros tales que
.
Si los vectores no son linealmente dependientes, se dice que son linealmente independientes.
Para decirlo de otra forma, v1, v2, .., vn son linealmente independientes si la ecuación c1v1+c2v2+…+cnvn=0 se cumple únicamente para c1=c2=…=cn=0. Son linealmente dependientes si el vector cero en V se puede expresar como una combinación lienal de v1, v2,…,vn con coeficientes no todos iguales a cero.
Nota. Se dice que los vectores v1, v2, …, vn son linealmente independientes (o dependientes), o que el conjunto de vectores {v1, v2, …, vn} es linealmente independiente (o pendiente). Esto es, se usan las dos frases indistintivamente.
Teorema:dependencia e independencia lineal
Dos vectores en un espacio vectorial son linealmente dependientes si y solo si uno de ellos es un múltiplo escalar del otro.
Demostración: primero suponga que v2=cv1 para elgun escalar c≠0. Entonces cv1-v2=0 y v1 y v2 son linealmente dependientes. Por otro parte, suponga que v1 y v2 son linealmente dependientes. Entonces existen constantes c1 y c2 al menos uno distinto a cero, tales que c1v1+c2v2=0. Si c1≠0, entonces dividiendo entre c1 se obtiene v1+(c2/c1)v2=0, o sea,
Es decir, v1 es un múltiplo escalar de v2. Si c1=0, entonces c2≠0 y, por lo tanto, v2=0=0v1.
Se ha visto en R2 conviene escribir vectores como una combinación lineal de los vectores
. En R3 se escribieron los vectores en términos de
. Ahora se generalizara esta idea.
BASEUn conjunto finito de vectores es una base para un espacio vectorial V si
Todo conjunto de n vectores linealmente independiente en Rn es una base en Rn.
En Rn se define
Puesto que los vectores e, son las columnas d una matriz identidad (que tiene determinante 1),
es un conjunto linealmente independiente y, por lo tanto, constituye una base en Rn. Esta base especial se denomina base canonica en Rn. Ahora se encontraran bases para otros espacios.
EJEMPLO: base canónica para M22
Se vio que generan a
, entonces es evidentemente que . Así, estas cuatro matrices son linealmente independientes y forman una base para M22, lo que se denomina base canónica para M22.
TEOREMA: sies una base para V y si vÎV, entonces existe un conjunto único de escalares
tales que
Existe cuando menos un conjunto de dichos escalares porque genera a V. suponga entonces que v se puede escribir e dos maneras como una combinación lineal de los vectores de la base.
Es decir, suponga que
Sea dos bases para V. debe demostrarse que m=n. esto se prueba mostrando que si m>n, entonces S es un conjunto literalmente independiente, lo que contradice la hipótesis de que S es una bse. Esto demostrara que m≤n. la misma prueba demostrara que ≤m y esto prueba el teorema. Así, basta demostrar que si m>n, entonces S es independiente. Como S constituye una base, todo u se puede expresar como una combinación lineal de las v. se tiene (1)
TEOREMA: suponga que dimV=n. si
Entonces, restando se obtiene la ecuación
pero como los v son linealmente independientes, esta ecuación se cumple si y solo si
Así, y el teorema queda demostrado.
TEOREMA: si son bases en un espacio vectorial V, entonces m=n; es decir, cualesquiera dos bases en un espacio vectorial V tienen el mismo numero de vectores.
Para demostrar que S es dependiente, deben encontrarse escalares
no todos cero, tales que (2)
Sustituyendo (1) en (2) se obtiene (3)
La ecuación (3) se puede reescribir como
Pero como son linealmente independientes, se debe tener (5)
El sistema (5) es un sistema homogéneo de n ecuaciones con las m incógnitas
y como m>n, el teorema dice que el sistema tiene un numero infinito de soluciones. De esta forma, existen escalares
no todos cero, tales que (2) se satisface y, por lo tanto, S es un conjunto linealmente dependiente. Esta contradicción prueba que m≤n si se cambian los papeles de S1 y S2, se demuestra que n≤m y la prueba queda completa.
Por este teorema se puede definir uno de los conceptos centrales en el algebra lineal.
DIMENSIÓN
Si el espacio vectorial V tiene una base con un numero finito de elementos, entonces la dimensión de V es el numero de vectores en todas las bases y V se denomina espacio vectorial de dimensión finita. De otra manera, V se denomina espacio vectorial de dimensión infinita. Si V={0}, entonces se dice que V tiene dimensión cero.
Notación. La dimensión V se denota por dimV.
EJEMPLO: la dimensión de Mmn
En Mmn sea A la matriz de mxn con un uno en la posición ij y cero en otra parte. Es sencillo demostrar que las matrices a para i=1,2,…,m y j=1,2,…,n forman una base para Mmn. Así, dimMmn=mn.
TEOREMA: suponga que dimV=n. si es un conjunto de m vectores linealmente independientes en V, entonces m≤n.
Seaentonces, igual que la prueba del teorema, se pueden encontrar constantes
no todas cero, tales que la ecuación (2) se satisface. Esto contradice la independencia lineal de los vectores u. así, m≤n.
TEOREMA: sea H un subespacio de un espacio vectorial de dimensión finita V. entonces H tiene dimensión finita y (6)
Sea dimV=n. cualquier conjunto de vectores linealmente independientes en H es también linealmente independiente en V. por el teorema anterior, cualquier conjunto linealmente independiente en H puede contener a lis mas n vectores. Si H={0}, entonces dimH=0. Si dimH≠{0}, sea v≠0 un vector en H y H=gen{v}. si H=H, dimH=1 y la prueba queda completa. De lo contrario, elija a vÎH tal que vÏH y sea H=gen{v1,v2}, y así sucesivamente. Continuamos hasta encontrar vectores linealmente independientes
tales que H=gen{
}. El proceso tiene que terminar porque se pueden encontrar a lo mas n vectores linealmente independientes en H. entonces H-k≤n.
EJEMPLO: una base para el espacio de solución de un sistema homogéneoEncuentre una base (y la dimensión) para el espacio de solución S del sistema homogéneo
SOLUCIÓN: aquí . Como A es una matriz de 2x3, S es un subespacio de R3. Reduciendo por renglones, se encuentra, sucesivamente,
Entonces y=z y x=-z de manera que todas las soluciones son de la forma.Así,
es una base para S y dimS=1. Obsérvese que S es el conjunto de vectores que se encuentran en la recta x=-t, y=t, z=t.
TEOREMA: cualquier conjunto de n vectores linealmente independientes en eun espacio vectorial V de dimensión n constituyen una base apara V.Sean
, n vectores. Si generan el espacio V, entonces constituyen una base. De lo contrario, existe un vector uÎV tal que uÏgen
. Esto significa que los n+1 vectores
, u donde linealmente independientes. Para ver esto observe que si (8)
Entonces porque de lo contrario podríamos escribir u como una combinación lineal de
dividiendo la ecuación (8) entre y poniendo todos los términos, excepto u, en el lado derecho. Pero si
entonces (8) es
Lo que significa queya que los v son linealmente independientes. Ahora sea W=gen{
,u}. como todos los vectores entre las llaves están en V, W es un subespacio de V. como
,u son linealmente independientes, forman una base para W, y dimW=n+1. Pero por el teorema, dimW≤n. esta contradicción muestra que no existe el vector uÎV tal que uÏgen{
}. Así,
genera a V y, por lo tanto, constituye una base para V.
CAMBIO DE BASEEn R2 se expresaron vectores en términos de la base canónica
. En Rn se definió la base canonica . En Pn se definió la base estandra como
. Estas bases se usan ampliamente por la sencillez que ofrecen a la hora de trabajar con ellas. Pero en ocasiones ocurre que es mas conveniente alguna otra base. Existe un numero infinito de bases para elegir, ya que en un espacio vectorial de dimensión n, cualesquiera n vectores, linealmente independientes, forman una base. En esta sección se vera como cambiar de una base a otra mediante el calculo de cierta matriz. Iniciaremos por un ejemplo sencillo. Sean u
. entonces,
es la base canonica en R2. SeanComo v1 y v2 son linealmente independientes (porque v1 no es un múltiplo de v2),
es una segunda base en R2. Sea
un vector en R2. Esta notación significa que
Es decir, x esta expresando en términos de los vectores de la base B. para hacer hincapié en este hecho, se escribe
Como B es otra base en R2, existen escalares c1 y c2 tales que (1)
Una vez que se encuentran estos escalares. Se puede escribir
para indicar que x esta ahora expresado en términos de los vectores en B. para encontrar los números c1 y c2, se escribe la base anterior en términos de la nueva base. Es sencillo verificar que
(2) y
es decir,
Entonces,
Así, de (1),
o
Por ejemplo, si
entonces
Un espacio vectorial complejo V se denomina espacio con producto interno si para cada par ordenado de vectores u y v en V, existe un numero complejo único (u,v), denominado producto interno de u y v, tal que si u, v y w están en V y αϵC, entonces
La barra es las condiciones v) y vii) denota el conjugado complejo.
Nota. Si (u,v) es real, entonces (u,v)=(u,v) y se puede eliminar la barra en v).
EJEMPLO: producto interno de dos vectores en C3
En C3 sean x=(1+i, -3, 4-3i) y y=(2-i, -i, 2+i). entonces
Sea V un espacio con producto interno y suponga que u y v están en V. entonces
Nota 1. Aquí se usa la doble barra en lugar de una sola para evitar confusión con el valor absoluto. Por ejemplo ǁsen tǁ denota la norma de sen t como un “vector” en C[0, 2π] mientras que |sen t| denota el valor absoluto de la función sen t.
Nota 2. La ecuación anterior tiene sentido ya que (u, u)≥0.
EJEMPLO: dos vectores ortogonales en C2
En C2 los vectores (3,-i) y (2,6i) son ortogonales porque
Conjunto ortonormal
El conjunto de vectores es un conjunto ortonormal en V si
y
Si solo el primero se cumple, se dice que el conjunto es ortonormal.
TEOREMA: cualquier conjunto finito de vectores ortonormales diferentes de cero en un espacio con producto interno es linealmente independiente.
TEOREMA: cualquier conjunto finito linealmente independiente en un espacio con producto interno se puede convertir en un conjunto ortonormal mediante el proceso de Gram-Schmidt. En particular, cualquier espacio con producto interno tiene una base ortonormal.
Proyección ortogonal
Sea H un subespacio del espacio con producto interno V con base ortonormal
Si vϵV, entonces la proyección ortonormal de v sobre H denotada por proyHv esta dada por (6)
Las demostraciones de los siguientes teoremas son idénticas a sus contrapartes en Rn.
TEOREMA: sea H un subespacio de dimensión finita con producto interno V. suponga que H tiene dos bases ortonormales
Sea vϵV. entonces
Complemento ortogonal
Sea H un subespacio del espacio con producto interno V. entonces el complemento ortogonal de H, denotado por H, esta dado por (7)
TEOREMA: si H es un subespacio del espacio con producto interno V, entonces
TEOREMA DE PROYECCIÓN: sea H un subespacio de dimensión finita del espacio con producto interno V y suponga que vϵV. entonces existe un par único de vectores h y p tales que hϵH, pϵH, y (8) v=h+p donde h=proyHv.
Si V tiene dimensión finita, entonces p=proyHv.
TEOREMA: sea A una matriz de nxn; entonces A tiene vectores propios linealmente independientes si y solo si multiplicidad geométrica de cada valor propio es igual a su multiplicidades algebraica. En particular, A tiene n vectores propios linealmente independientes si todos los valores propios son distintos (ya que entonces la multiplicidad algebraica de cada valor propio es 1).
Conjunto ortonormal en Rn
Se dice que un conjunto de vectores S={u1, u2, …, uk} en Rn es un conjunto ortonormal si (1) (2)
Si solo satisface la ecuación (1), se dice que el conjunto es ortogonal.
Si u, v y w en Rn y α es un numero real, entonces (3) (4) (5) (6)(7)
Ahora se presenta otra definición útil
Si vϵRn, entonces la longitud o norma de v, denotada por |v|, esta dada por (8)
Nota. Si
entonces v*v= Esto significa que (9)
De esta forma se puede obtener la raíz cuadrada en (8), y se tiene (10)(11)
TEOREMA: si S=es un conjunto ortogonal de vectores diferentes de cero, entonces S es linealmente independiente.
Suponga que
Entonces, para cualquier i=1,2,…,k
Como v≠0 por hipótesis |v|2>0 y se dice que c=0. Esto es cierto para i=1,2,…,k, lo que completa la prueba.
Proceso de ortonormalizacion de Gram-Schmidt
Sea H un subespacio de dimensión m de Rn. Entonces H tiene una base ortonormal.Sea S=
una base de H. se probara el teorema construyendo una base ortonormal a partir de vectores en S. antes de dar los pasios para esta construccion, se observa el hecho sencillo de que un conjunto de vectores linealmente independiente no contiene al vector cero.
Paso 1. Eleccion del primer vector unitarioSea (12)
Entonces
De manera que |u|=1.
Paso 2. Eleccion de un segundo vector ortogonal a u. Como anteriormente se ha visto que, en R2, el vector
es la ortogonal a v. en este caso es la proyección de u sobre v. esto se ilustra en la siguiente figura.
Resulta que el vector w dado es ortogonal a v cuando w y v están en Rn para cualquier n≥2. Obsérve que como u es un vector unitario,
para cualquier vector v.
Sea (13) entonces
de manera que v’ es ortogonal a u. mas aun, por el teorema, u y v´son linealmente independientes. v’≠0 porque de otra manera
lo que contradice la independencia de v1 y v2.
Paso 3. Elección de un segundo vector unitario
Sea (14) entonces es evidente que {u1,u2} es un conjunto ortonormal.
Suponga que se han construido los vectores u1, u2,…,uk(k<m) y que forman un conjunto ortonormal. Se mostrara como construir uk+1.
Paso 4. Continuación del proceso
Sea (15) entonces para i=1,2,…,k
Pero Por lo tanto,
Así, es un conjunto linealmente independiente, ortogonal y v´k+1≠0.
Paso 5
Sea
Entonces es claro que es un conjunto ortonormal y se puede continuar de esta manera hasta que k+1=m con lo que se completa la prueba.
Nota. Como cada u es una combinación lineal de vectores v, gen es un subespacio de gen
y como cada espacio tiene dimensión k, los espacio son iguales.
El presente capitulo aborda una clase especial de funciones denominadas transformaciones lineales que ocurren con mucha frecuencia en el algebra lineal y otras ramas de las matematicas. Estas tienen una gran variedad de aplicaciones importantes. Antes de definirlas, se estudiaran dos ejemplos sencillos para ver lo que es posible realizar.
Ejemplo 1: reflexión respecto al eje x
En R2 se define una función T mediante la formula T(x;y)=(x;-y). Geométricamente, T toma un vector en R2 y lo refleja respecto al eje x. esto se ilustra en la figura. Una vez que se ha dado la definición básica, se vera que T es una transformación lineal de R2 en R2.
Ejemplo 2: transformación de un vector de producción en un vector de materia prima.
Un fabricante elabora cuatro tipos de productos distintos, de los cuales cada uno requiere tres tipos de materiales. Se identifican los cuatro productos como P1, P2, P3, y P4 y a los materiales por R1, R2 y R3. La tabla siguiente muestra el numero de unidades de cada materia prima que se requieren para fabricar 1 unidad de cada producto.
Ejemplo 2: transformación de un vector de producción en un vector de materia prima.
Un fabricante elabora cuatro tipos de productos distintos, de los cuales cada uno requiere tres tipos de materiales. Se identifican los cuatro productos como P1, P2, P3, y P4 y a los materiales por R1, R2 y R3. La tabla siguiente muestra el numero de unidades de cada materia prima que se requieren para fabricar 1 unidad de cada producto.
Surge una pregunta natural: si se produce cierto número de los cuatro productos, ¿Cuántas unidades de cada material se necesitan? Sean p1, p2, p3 y p4 el número de artículos fabricados en los cuatro productos y sean r1, r2, y r3 el número de unidades necesarios de los tres materiales. Entonces se define
Por ejemplo, suponga que P=(10,30,20,50). ¿Cuántas unidades de R1 se necesitan para producir estos números de unidades de los cuatro productos? De la tabla se tiene que
r=p1*2+p2*1+p3*3+p4*4=10*2+30*1+20*3+50*4=310 unidades
de manera similar r2=10*4+30*2+20*2+50*1=190 unidades
y r3=10*3+30*3+20*1+50*2=240 unidades
en general se ve que
o Ap= r.
Esto se puede ver de otra manera. Si a p se le conoce como le vector de producción y a r como el vector de materia prima, se define la función T por = T(p) = Ap. Esto es, T es la función que “transforma” el vector de producción en el vector de materia prima y se hace mediante la multiplicación de matrices ordinaria. Como se verá , esta función es también una transformación lineal.
Antes de definir una transformación lineal, hablaremos un poco sobre las funciones. En la sección 1.7 se escribió un sistema de ecuaciones como
Ax=b
Donde A es una matriz de m*n, x R” y b R”. Se pidió encontrar x cuando A y b se conocían . No obstante, esta ecuación se puede ver de otra forma: suponga que A se conoce. Entonces la ecuación Ax=b “dice” : proporcione una x en R´´ y yo le daré una b en R´´´; es decir , A representa una función con dominio R´´ e imagen en R´´´.
La función que se acaba de definir tiene las propiedades de que A ( si es un escalar y A(x + y) = Ax + Ay. Esta propiedad caracteriza las transformaciones lineales.
Definición 1 transformación lineal
Sean V y W espacios vectoriales reales. Una transformación lineal T de V en W es una función que asigna a cada vector v V un vector único Tv W y que satisface, para cada u y v en V y cada escalar .
T(u + v) = Tu + Tv
Y
T(av)=aTv
TRES OBSERVACIONES SOBRE NOTACIÓN
1. Se escribe T: v W para indicar que T toma el espacio vectorial real V y lo lleva al espacio vectorial real W; esto es, T es una función con V como su dominio y un subconjunto de W como su imagen.
2. Se escriben indistintamente Tv y T(v). Denotan lo mismo; las dos se leen “T de v”. Esto es análogo a la notación funcional ʄ(x), que se lee “ʄ de x”.
3. Gran parte de las definiciones y teoremas en este capítulo también se cumplen para los espacios vectoriales complejos (espacios vectoriales en donde los escalares son números complejos).
Ejemplo 5 La transformación identidad
Sea V un espacio vectorial y definida I: V V por Iv = v para todo v en V. Aquí es obvio que es I es una transformación lineal, la cual se denomina transformación identidad u operador identidad.
Ejemplo 6 Transformación de reflexión
Sea T:R2 R2 definida por T(x;y)=(x;-y). Es fácil verificar que T es lineal. En términos geométricos, T toma un vector en R2 y lo refleja respecto al eje y (vea la figura 5.2)
Ejemplo 7 Transformaciones de Rn Rm dada por la multiplicación por una matriz de m*n.
Sea A una matriz de m*n y definida T:R´´ R´´´ por Tx = Ax. Como A(x + y) = Ax + Ay y A( si x y y están en R´´, se observa que T es una transformación lineal. Entonces: toda matriz A de m*n se puede utilizar para definir una transformación lineal de R´´ en R´´´.
En esta sección se desarrollan algunas propiedades básicas de las transformaciones lineales.
Teorema 1. Sea T: V W una transformación lineal. Entonces para todos los vectores u, v, v1, v2,….vn en V y todos los escalares
Nota en la parte i el 0 de la izquierda es el vector cero en v; mientras que el cero de la derecha es el vector cero en W.
i. T(0) = T(0 + 0)= T(0) + T(0). Así 0= T(0) – T(0) = T(0) + t(0) – T(0) = T(0)
ii.T(u-v) = T[u + (-1)v] = Tu + T[(-1)v] = Tu + (-1)Tv = Tu – Tv.
iii.Esta parte se prueba por inducción (vea el apéndice 1). Para n = 2 se tiene T(α1v1 + α2v2) = T (α1v1) + T(α2v2) = α1Tv1 + α2Tv2. Así, la ecuación (1) se cumple para n = 2. Se supone que se cumple para n = k y se prueba para n=k + 1: T(α1v1 + α2v2+ ….+ αkvk+αk+1vk-1 ) = T(α1v1 + α2v2+….+αkvk) + T(αk+1vk+1), y usando la ecuación en la parte iii para n= k, esto es igual a (α1Tv1 + α2Tv2+….αkTvk) + αk+1Tvk+1, que es lo que se quería demostrar. Esto completa la prueba.
Observación. Los incisos i) y ii) del teorema 1 son casos especiales del inciso iii). Un dato importante sobre las transformaciones lineales es que están completamente determinadas por el efecto sobre los vectores de la base.
Teorema 2 Sea v un espacio vectorial de dimensión finita con base B= {v1,v2,….vn}. Sean w1,w2,….wn vectores en W. Suponga que T1y T2 son dos transformaciones lineales de V en W tales que T1vi = T2vi = wi para i = 1, 2,…,n. Entonces para cualquier vector v ϵ v, T 1v = T2v; es decir T1 = T2.Como B es una base para V, existe un conjunto único de escalares α1, α2,…., αn. Tales que v = α1v1 + α2v2 + …+ αn vn.
Entonces, del inciso iii) del teorema 1, T1v = T1(α1 v1 + α2v2 + …+ αnvn) = α1T2v1 + α2T2v2 +… + αnTnvn= α1w1 + α2w2 +…+ αnTnvn
De manera similar T2v = T2(α1v1 + α2v2 + …+ αnvn) = α1T2v1 + α2T2v2 +…+ αnTnvn = α1w1 + α2w2 +…+ αnvn
Por lo tanto, T1v =T2v.
El teorema 2 indica que si T:v W y V tiene dimensión finita, entonces sólo es necesario conocer el efecto que tiene T sobre los vectores de la base en V. Esto es, si se conoce la imagen de cada vector básico, se puede determinar la imagen de cualquier vector en V. Esto determina T por completo. Para ver esto, sean v1, v2,….vn una base en V y sea v otro vector en V. Entonces, igual que en l aprueba del teorema 2, Tv = α1Tv1 + α2Tv2 +…+ αnTvn
Así, se puede calcular Tv para cualquier vector vϵ V si se conocen Tv1,Tv2,….Tvn
Ejemplo 1 Si se conoce el efecto de una transformación lineal sobre los vectores de la base, se conoce el efecto sobre cualquier otro vector.
Sea T una transformación lineal de R3 en R2 y suponga que
Solución. Se tiene
Entonces
Surge otra pregunta; si w1,w2,….,wn son n vectores en W, ¿existe una transformación lineal T tal que Tv1 = w1 para i = 1,2,…,n? La respuesta es sí. Como lo muestra el siguiente teorema.
Definición 1 Núcleo e imagen de una transformación lineal
Sean V y W dos espacios vectoriales y sea T:V W una transformación lineal. Entonces
i . El núcleo de T, denotado por un, está dado por
ii. La imagen de T, denotado por Im T, esta dado por
Observacion 1. Observe que un T es no vacio porque, de acuerdo al teorema 1, T(0) = 0 de manera que 0 ϵ un T para cualquier transformación lineal T. Se tiene interés en encontrar otros vectores en V que “se transformen en 0”. De nuevo, observe que cuando escribimos T(0) = 0, el 0 de la izquierda está en V y el de la derecha en W.
Observación 2. La imagen de T es simplemente el conjunto de “imajenes” de los vectores en V bajo la transformación T. De hecho, si w = Tv, se dice que w es la imagen de v bajo T.
Antes de dar ejemplos de núcleos e imágenes , se demostrará un teorema de gran utilidad.
Teorema 4 Si T:V W es una transformación lineal, entonces
i.Un T es un subespacio de V.
ii.Im T es un subespacio de W.
Demostracion
i.Sean u y v en un T; Entonces T(u + v) = Tu + Tv =0 + 0 =0 y T( ) = = 0 = 0 de forma que u + v y ∝u están en un T.
ii. Sean w y x en Im T. Entonces w = Tu y x = Tv para dos vestores u y v en V. Esto significa que T(u + v)= Tu + Tv = w + x y T(∝u) = ∝Tu =∝w. Por lo tanto, w + x y ∝w están en Im T.
Ejemplo 3. Núcleo e imagen de la transformación cero
Sea Tv = 0 para todo vϵ V(T es la transformación cero). Entonces un T = v e Im T = {0}.
Ejemplo 4 Núcleo e imagen de la transformación identidad
Sea Tv = v para vϵ V(T es la transformación identidad). Entonces un T= {0} e Im T = V.
Las transformaciones cero e identidad proporcionan dos extremos. En la primera todo se encuentra en el núcleo. En la segunda sólo el vector cero se encuentra en el núcleo. Los casos intermedios son más interesantes.
Ejemplo 5 Núcleo e imagen de un operador de proyecciónSea T:R3 R3 definida por
T es el operador de proyección de R3 en el plano xy.
Entonces x = y = 0. Así, nu T = {(x,y,z):x = y = 0, zϵR}, es decir, el eje z, e Im T = {(x,y,z): z = 0}, es decir el plano xy. Observe que dim un T = 1 y dim Im T = 2.
Definición 2 Nulidad y rango de una transformación lineal
Si T es una transformación lineal de v en w, entonces se define.
Observación. En la sección 4.7 se definieron el rango, la imagen, el espacio nulo y la nulidad de una matriz. Según el ejemplo 5.1.7, Toda matriz A de m*n da lugar a una transformación lineal T:R´´ R´´´ definida por Tx = Ax. Es evidente que un T = NA, Im T = Im A = CA, v(T) = v(A) y p(T) = p(A). Entonces se ve que las definiciones de núcleo, imagen, nulidad y rango de una transformación lineal son extensiones del espacio nulo, la imagen, la nulidad y el rango de una matriz.
Si A es una matriz de m*n y T: Rn-Rm está definida por Tx = Ax, entonces, T es una transformación lineal. Ahora se verá que para toda transformación lineal de Rn en Rm existe una matriz A de m*n tal que Tx = Ax para todo x ϵ Rn. Este hecho es de gran utilidad. Si Tx = Ax. Entonces un T = NA e Im T = RA. más aun, v(T) = dim un T = v(A) y p(T) = dim Im T = p(A). Así se puede determinar el núcleo, la imagen, la nulidad y el rango de una transformación lineal de Rn-Rm determinando el espacio nulo y la imagen de la matriz correspondiente. Adicionalmente, una vez que se sabe que Tx = Ax. Se puede evaluar Tx para cualquier x en Rn mediante una simple multiplicación de matrices.
Pero esto no es todo. Como se verá, cualquier transformación lineal entre espacios vectoriales de dimensión finita se puede representar mediante una matriz.
Teorema 1
Sea T:Rn -Rm una transformación lineal. Existe entonces una matriz única de m*n, AT tal que
Demostración
Sea w1 = Te1,w2 = Te2,….,wn = Ten. Sea AT la matriz cuyas columnas son w1, w2,…., wn y hagamos que AT denote también ala transformación de Rn-Rm, que multiplica un vector en Rn por AT. si
Entonces
De esta forma, ATei = wi para i = 1,2,….n., T y la transformación AT son las mismas porque coinciden en los vectores básicos.
Ahora se puede demostrar que AT es única. Suponga que Tx = ATx y que Tx = BTx para todo x ϵ Rn. Entonces ATx = BTx, o estableciendo CT= AT – BT, se tiene que CTx = 0 para todo x ϵ Rn. En particular, CTei es la columna i de CT. Así, cada una de las n columnas de CT es el m-vector cero, la matriz cero de m*n. Esto muestra que AT = BT y el teorema queda demostrado.
Definición 1 Matriz de transformación
La matriz AT en el teorema 1 se denomina matriz de transformación correspondiente a T o representación matricial de T.
NOTA. La matriz de transformación AT está definida usando las bases estándar tanto en Rn como en R3. Si se utilizan otras bases, se obtendrá una matriz de transformación diferente.
TEOREMA 2 sea AT la matriz de transformación correspondiente a laa transformación lineal T. entonces.
i. Im T = Im A = CAT
ii. P(T) = p(AT)
iii. Un T = NAT
iv. v(T) = v(AT
Ejemplo 1 Representación matricial de una transformación de proyección
Encuentre la matriz de transformación AT correspondiente ala proyección de un vector en R3 sobre el plano xy.
Solución
Teorema 4
Sean V y W espacios vectoriales de dimensión finita con dim V = n. sea T:V-W una transformación lineal y sea AT una representación matricial de T respecto a las bases B1 en V y B2 en W. entonces
i. p(T) =p(AT) ii. V(A) = v(AT) iii. V(a) + p(T) = n
Teorema 5 Sea T:Rn-Rm una transformación lineal. Suponga que C es la matriz de transformación de T respecto a las bases estándar Sn y Sm en Rn y Rm, respectivamente. Sea A1 la matriz de transición de B2 a base Sm en Rm. Si AT denota la matriz de transformación de T respecto a las bases B1 y B2, entonces.
Geometría de las transformaciones lineales de R2 en R2.
Sea T:R2-R2 una transformación lineal con representación matricial AT Ahora de demostrará que si AT es invertible, entonces T se puede escribir como una sucesión de una o más transformaciones especiales, denominadas expansiones, compresiones, reflexiones y cortes.
Expansiones a lo largo de los ejes x o y
Una expansión a lo largo del eje x es una transformación lineal que multiplica a la coordenada x de un vector en R2 por una constante C >1. Esto es
De manera similar, una expansión a lo largo del eje y es una transformación lineal que multiplica la coordenada y de todo vector en R2 por una constante C>1. Como antes ,
entonces la representación matricial de T es de manera que
a) se comienza con este rectángulo.
b) Expansión en la dirección de x c = 2.
c) Expansión en la dirección de y con c = 4.
Compresión a lo largo de los ejes x o y.
Una compresión a lo largo de los ejes x o y es una transformación lineal que multiplica ala coordenada x o y de un vector en R2 por una constante positiva 0<c<1, mientras que para la expansión c<1.
a) se comienza con este rectángulo.
b) Compresión a lo largo del eje x con c =1/3.
c) Compresión a lo largo del eje x con c=1/2.
Reflexión sobre el eje x
En este caso, queremos averiguar como está definida la transformación T de R2 en R2 que cada vector
lo refleja sobre el eje x, para obtener un vector
En una gráfica, vemos la situación como sigue:
En este caso, la situación es más sencilla ya que claramente tenemos dos triángulos rectángulos que son congruentes, de donde T queda definida como sigue:
Esta transformación se llama la reflexión sobre el eje x, y es lineal, ya que:
Ejemplo dilatación o expansión
Una dilatación es una transformación que incrementa distancias.
Sea V= (2 4) encontrara la expansión vertical cuando K=2
Expansión horizontal (k71) o contracción (0<k<1)
Expansión vertical (k71) o contracción (0<k<1)
Ejemplo contracción
Una contracción es una transformación que decrece distancias. Bajo una contracción, cualquier par de puntos es enviado a otro par a distancia estrictamente menor que la original.
Sea V= (2 4) encontrara la contracción horizontal cuando K=1/2
Haciendo la grafica el punto disminuye en el eje horizontal.
Rotación por un ángulo
Sea un ángulo medido en radianes. Queremos averiguar cual es la transformación T de R2 en R2 que gira cada vector
un angulo , para obtener un vector
En una gráfica, vemos la situación como sigue:
Si usamos las funciones trigonométricas, tenemos que:
Distribuyendo y usando el hecho de que y tenemos que:
Por lo tanto, ya descubrimos cómo debe estar definida la transformación tal que
Esta transformación se llama la rotación por un ángulo y es lineal, ya que: