Echemos un vistazo al pasado. 1936, Konrad Zuse, ingeniero alemán, diseño y fabricó la Z1, la que para muchos es la primera computadora programable de la historia.
La Z1 era una calculadora mecánica binaria operada con electricidad y que ocupaba una mesa entera, bastante grande por cierto. Los datos los recibía de cintas perforadas, y aunque no permitía un lenguaje de programación tal y como lo entendemos hoy, la Z1 fue la primera máquina programable de la historia.
Con el paso de los años, Konrad Zuse también fabricó las Z2, Z3 y hasta la Z4 en 1950, máquinas bastante más avanzadas pero igualmente poco avanzadas en cuanto al lenguaje de programación (Zuse creó teóricamente el suyo propio llamado Plankalkül pero que jamás llegó a implementar y probar)
El ser humano desde épocas remotas ha necesitado medios para efectuar cálculos y procesar la información. Su complejidad se ha ido acrecentando con el tiempo, conforme surgían nuevas necesidades, y ha estado subordinada al progreso de la tecnología. Primero surgieron los instrumentos aritméticos, como el ábaco, desde los cuales se ha llegado a las calculadoras y ordenadores actuales.
El origen del procesamiento automático de la información, se remonta al año 1896 cuando Herman Hollerith (1860-1929) fundó una empresa que posteriormente daría lugar a IBM.
Es difícil determinar el punto de inicio para una síntesis histórica de la informática, por cuanto son muchos los trabajos y descubrimientos que trajeron como consecuencia la construcción de los primeros ordenadores. Desde tiempo inmemorial la humanidad se ha valido de instrumentos para realizar cálculos y para almacenar y procesar información. La primer herramienta que servía para contar y al mismo tiempo para representar las cantidades contadas fueron los dedos, dando origen al sistema decimal de numeración.
El hombre primitivo usó piedrecillas para representar números y hacer sumas sencillas. 500 años a.n.e., surgió el ábaco inventado y reinventado por culturas distintas en el espacio y en el tiempo, como los aztecas y los sumerios. El ábaco ruso es decimal, dispone de diez anillos de madera en cada columna. En el chino el tablero está dividido en dos zonas, "cielo" y "tierra", con dos y cinco bolas respectivamente. En la pᅵgina Molecular Expressions se muestra un ábaco en el que es posible simular operaciones reales.
La evolución del hardware se encuentra dividida por generaciones:
Primera Generación (1945–1956): La electrónica se basa en la implementación de tubos de vacío, lo cual generó la primera evolución tecnológica que funcionó en las computadoras y como consecuencia desplazó a los componentes electromecánicos.
Segunda Generación (1957–1963): En esta generación la electrónica es desarrollada con transistores, los cuales ayudaron a reducir los componentes físicos del computador. El razonamiento fue parecido a la anterior generación, pero el resultado al implementar esta tecnología fue más eficaz, ya que se aumentó la velocidad en el procesamiento de datos.
Tercera Generación (1964 – al presente): La electrónica es basada en circuitos integrados, lo cual permitió adherir una gran cantidad de transistores y otros componentes electrónicos a un circuito integrado conformado por una placa de Silicio. En efecto, se redujo de forma considerable el tamaño y costo del computador, aumentando su capacidad, velocidad y fiabilidad, hasta convertirse en ordenadores que existen en la actualidad.
Cuarta Generación (el futuro): Posiblemente se producirá en el momento que los circuitos se Silicio sean reemplazados por una nueva y sofisticada tecnología, la cual contendrá circuitos integrados en una escala mayor a la actual.
La mayoría del software se desarrollaba y era utilizada por la misma persona u organización. La misma persona lo escribía, lo ejecutado y, si fallaba, lo depuraba. El diseño era un proceso implícito, realizado en la mente de alguien y, la documentación normalmente no existe.
La segunda era en la evolución de los sistemas de computadora se extienden desde la mitad de la década de los sesenta hasta los finales de los setenta. La multiprogramación y los sistemas multiusuario introdujeron nuevos conceptos de interacción hombre - maquina. También se caracteriza por el establecimiento del software como producto y la llegada de las "casas del software". Los patronos de la industria, del gobierno y de la universidad se aprestaban a "desarrollar el mejor paquete de software" y ganar así mucho dinero.
La tercera era en la evolución de los sistemas de computadora comenzó a mediados de los años setenta y continúo más allá de una década. El sistema distribuido, múltiples computadoras, cada una ejecución de funciones concurrentes y comunicándose con alguna otra, incrementaron notablemente la complejidad de los sistemas informáticos. Las redes de área local y de área global, las comunicaciones digitales de alto ancho de banda y la creciente demanda de acceso "instantáneo" a los datos, supusieron una fuerte presión sobre los desarrolladores del software. La conclusión de la tercera era se caracterizo por la llegada y amplio uso de los microprocesadores. El microprocesador ha producido un extenso grupo de productos inteligentes, desde automóviles hasta hornos microondas, desde robots industriales a equipos de diagnóstico de suero sanguíneo.
La cuarta era de la evolución de los sistemas informáticos se aleja de las computadoras individuales y de los programas de computadoras, dirigiéndose al impacto colectivo de las computadoras y del software. Potentes máquinas personales controladas por sistemas operativos sofisticados, en redes globales y locales, acompañadas por aplicaciones de software avanzado se han convertido en la norma.
La industria del software ya es la cuna de la economía del mundo. Las técnicas de la cuarta generación para el desarrollo del software están cambiando en la forma en que la comunidad del software construye programas informáticos. Las tecnologías orientadas a objetos están desplazando rápidamente los enfoques de desarrollo de software más específicos en muchas áreas de aplicaciones
Los inicio de Internet nos remontan a los años 60. En plena guerra fría, Estados Unidos crea una red exclusivamente militar, con el objetivo de que, en el hipotético caso de un ataque ruso, se pudiera tener acceso a la información militar desde cualquier punto del país.
Este red se creó en 1969 y se llamó ARPANET. En principio, la red contaba con 4 ordenadores distribuidos entre distintas universidades del país. Dos años después, ya contaba con unos 40 ordenadores conectados. Tanto fue el crecimiento de la red que su sistema de comunicación se quedó obsoleto. Entonces dos investigadores crearon el Protocolo TCP/IP, que se convirtió en el estándar de comunicaciones dentro de las redes informáticas (actualmente seguimos utilizando dicho protocolo).
ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona con fines académicos o de investigación podía tener acceso a la red.
Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET, una nueva red creada por los Estados Unidos.
La NSF (National Science Fundation) crea su propia red informática llamada NSFNET, que más tarde absorbe a ARPANET, creando así una gran red con propósitos científicos y académicos.
El desarrollo de las redes fue abismal, y se crean nuevas redes de libre acceso que más tarde se unen a NSFNET, formando el embrión de lo que hoy conocemos como INTERNET.
En 1985 la Internet ya era una tecnología establecida, aunque conocida por unos pocos.
El autor William Gibson hizo una revelación: el término "ciberespacio".
En ese tiempo la red era basicamente textual, así que el autor se baso en los videojuegos. Con el tiempo la palabra "ciberespacio" terminó por ser sinonimo de Internet.
El desarrollo de NSFNET fue tal que hacia el año 1990 ya contaba con alrededor de 100.000 servidores.
En el Centro Europeo de Investigaciones Nucleares (CERN), Tim Berners Lee dirigía la búsqueda de un sistema de almacenamiento y recuperación de datos. Berners Lee retomó la idea de Ted Nelson (un proyecto llamado "Xanadú" ) de usar hipervínculos. Robert Caillau quien cooperó con el proyecto, cuanta que en 1990 deciden ponerle un nombre al sistema y lo llamarón World Wide Web (WWW) o telaraña mundial.
La nueva formula permitía vincular información en forma lógica y através de las redes. El contenido se programaba en un lenguaje de hipertexto con "etíquetas" que asignaban una función a cada parte del contenido. Luego, un programa de computación, un intérprete, eran capaz de leer esas etiquetas para despeglar la información. Ese interprete sería conocido como "navegador" o "browser".
En 1993 Marc Andreesen produjo la primera versión del navegador "Mosaic", que permitió acceder con mayor naturalidad a la WWW.
La interfaz gráfica iba más allá de lo previsto y la facilidad con la que podía manejarse el programa abría la red a los legos. Poco después Andreesen encabezó la creación del programa Netscape.
Apartir de entonces Internet comenzó a crecer más rápido que otro medio de comunicación, convirtiendose en lo que hoy todos conocemos.
Algunos de los servicios disponibles en Internet aparte de la WEB son el acceso remoto a otras máquinas (SSH y telnet), transferencia de archivos (FTP), correo electrónico (SMTP), conversaciones en línea (IMSN MESSENGER, ICQ, YIM, AOL, jabber), transmisión de archivos (P2P, P2M, descarga directa), etc
Hablamos de una red informática de pocos metros, algo parecido a la distancia que necesita el Bluetooth del móvil para intercambiar datos. Son las más básicas y sirven para espacios reducidos, por ejemplo si trabajas en un local de una sola planta con un par de ordenadores.
Las redes PAN pueden serte útiles si vas a conectar pocos dispositivos que no estén muy lejos entre sí. La opción más habitual, sin embargo, para aumentar el radio de cobertura y para evitar la instalación de cablea estructurado, suele ser la compra de un router y la instalación de una red de área local inalámbrica.
Es la que todos conocemos y la que suele instalarse en la mayoría de las empresas, tanto si se trata de un edificio completo como de un local. Permite conectar ordenadores, impresoras, escáneres, fotocopiadoras y otros muchos periféricos entre sí para que puedas intercambiar datos y órdenes desde los diferentes nodos de la oficina.
Las redes LAN pueden abarcar desde los 200 metros hasta 1 kilómetro de cobertura.
Vale, supongamos que tenemos varios edificios en los que queremos montar una red inalámbrica. ¿Qué pasa si el área de cobertura debe ser mayor a los 1000 metros cuadrados? Y no lo digo sólo por las universidades; las instalaciones de los parques tecnológicos, recintos feriales y naves comerciales pueden superar perfectamente esa superficie.
En tal caso, tenemos las redes CAN. Habría varias redes de área local instaladas en áreas específicas, pero a su vez todas ellas estarían interconectadas, para que se puedan intercambiar datos entre sí de manera rápida, o pueda haber conexión a Internet en todo el campus.
Mucho más amplias que las anteriores, abarcan espacios metropolitanos mucho más grandes. Son las que suelen utilizarse cuando las administraciones públicas deciden crear zonas Wifi en grandes espacios. También es toda la infraestructura de cables de un operador de telecomunicaciones para el despliegue de redes de fibra óptica. Una red MAN suele conectar las diversas LAN que hay en un espacio de unos 50 kilómetros.
Son las que suelen desplegar las empresas proveedoras de Internet para cubrir las tipos de casino necesidades de conexión de redes de una zona muy amplia, como una ciudad o país.
Es una red propia para las empresas que trabajan con servidores y no quieren perder rendimiento en el tráfico de usuario, ya que manejan una enorme cantidad de datos. Suelen utilizarlo mucho las empresas tecnológicas. En Cisco te cuentan las ventajas de una red SAN.
Las redes de las que hablamos normalmente se conectan de forma física. Las redes VLAN se encadenan de forma lógica (mediante protocolos, puertos, etc.), reduciendo el tráfico de red y mejorando la seguridad. Si una empresa tiene varios departamentos y quieres que funcionen con una red separada, la red VLAN