Diferencias entre Álgebra y Aritmética

El concepto de la cantidad en álgebra es mucho mas amplio que en aritmética. 


En aritmética las cantidades se expresan en números y estos expresan valores determinados. Así, 20 expresa un solo valor: veinte; para expresar un valor menor o mayor que este habrá que escribir un número distinto de 20. 

En álgebra, para lograr la generalización, las cantidades se representan por medio de letras, las cuales pueden representar todos los valores. Así, a representa el valor que nosotros le asignemos, y por lo tanto puede representar 20 o mas de 20 o menos de 20, a nuestra elección, aunque conviene advertir que cuando en un problema asignamos a una letra un valor determinado, esa letra no puede representar, en el mismo problema, otro valor distinto del que le hemos asignado.

El álgebra es una rama de las matemáticas en la que se usan letras para representar relaciones aritméticas. Al igual que en la aritmética, las operaciones fundamentales del álgebra son adición, sustracción, multiplicación, división y cálculo de raíces. La aritmética, sin embargo, no es capaz de generalizar las relaciones matemáticas, como el teorema de Pitágoras, que dice que en un triángulo rectángulo el área del cuadrado que tiene como lado la hipotenusa es igual a la suma de las áreas de los cuadrados cuyos lados son los catetos. La aritmética sólo da casos particulares de esta relación (por ejemplo, 3, 4 y 5, ya que 32 + 42 = 52). El álgebra, por el contrario, puede dar una generalización que cumple las condiciones del teorema: a² + b² = c²

 El álgebra clásica, que se ocupa de resolver ecuaciones, utiliza símbolos en vez de números específicos y operaciones aritméticas para determinar cómo usar dichos símbolos. El álgebra moderna ha evolucionado desde el álgebra clásica al poner más atención en las estructuras matemáticas. Los matemáticos consideran al álgebra moderna como un conjunto de objetos con reglas que los conectan o relacionan. Así, en su forma más general, se dice que el álgebra es el idioma de las matemáticas.


La aritmética trata de los números específicos, el álgebra, en cambio, con frecuencia formula proposiciones que son verdaderas para un número cualquiera. A este “número cualquiera” del que habla el álgebra, se le asigna un símbolo, digamos la letra x. Si se quiere hablar acerca de otros símbolos, y, z, etcétera.  El álgebra formula proposiciones como:  (x + y) (x- y) =  - y²


Esta proposición escrita en el lenguaje del álgebra se puede traducir al español como “la suma de dos números cualesquiera multiplicada por la diferencia entre los dos mismos números es igual a la diferencia entre los cuadrados de los dos números”. Esta proposición es verdadera para cualquier valor numérico que se represente con x y y; en otras palabras la expresión es verdadera para todos los números. En este sentido se puede decir que la aritmética formula proposiciones acerca de números específicos, mientras el álgebra puede formular proposiciones acerca de todos los números.  El álgebra también formula proposiciones tales como y = x + 3. Aquí se puede elegir cualquier número para  x, pero una vez elegido, sólo hay un valor de  y, para el cual la proposición es correcta. Si se específica que x = 2, la proposición es correcta sólo si y = 5. 


Los matemáticos describen esta situación diciendo que y es una función de x.  Si, y es una función de x, entonces x también es una función de y; y se dice que x y y están relacionadas funcionalmente. De hecho, una expresión como :  y =  x +3 es una función proposicional, que se convierte en una proposición sólo cuando los números específicos sustituyen a las variables x y y. una relación funcional entre dos magnitudes, se puede mostrar en un dibujo sobre un sistema de coordenadas (gráfica), como ejemplo tenemos: y = 3x² +7, o y = 3x + 7.

Consideremos la proposición: x2 - 1 = 0.  Esta proposición es verdadera cuando  x = +1, y cuando x = -1. Los valores +1 y -1 se denominan raíces de la ecuación de segundo grado debido a la presencia del término x elevado al cuadrado. Sin embargo no es posible encontrar números ordinarios  que satisfagan la ecuación:  x2 + 1 = 0. Estas ecuaciones definen una nueva clase de números, que no se encuentran directamente en el mundo físico de la experiencia cotidiana. Estos nuevos números necesitan de símbolos que los representen (+i, -i).

Este paso se dio en el siglo XVI. Los nuevos números se denominaron números imaginarios. Es verdad que son imaginarios, pero lo son también todos los números en el sentido de que son abstracciones hechas por el cerebro. La opinión actual considera a los números imaginarios como invenciones que  satisfacen una necesidad descubierta. Los números imaginarios fueron inventados para satisfacer una necesidad puramente matemática; ya que no había preocupación alguna por la utilidad que pudieran tener para describir el mundo físico.

Desde entonces los físicos han encontrado muy útiles los números imaginarios para
describir el mundo físico

Comments