La Z1 está considerada como la primera computadora mecánica programable del mundo. Fue diseñado por el ingeniero alemán Konrad Zuse entre 1935 y 1936, y se terminó de construir en 1938.
Era una calculadora de acción binaria, que leía instrucciones de cintas perforadas. Sus funciones eran limitadas, pero representó un gran avance para la época. La computadora fue destruida tras el bombardeo a Berlín en 1943, pero hoy en día se puede ver una réplica del aquel equipo en el Museo de Tecnología que hay en esa ciudad.
La Z1 tenía memoria, lógica de punto flotante, unidad de control micro secuencia y dispositivos de entrada-salida, elementos que también están presentes (junto con muchas otras cosas más) en las computadoras modernas.
La computadora se podía programar por medio de una cinta perforada. En los hechos funcionaba como una calculadora gigante (pesaba 1.000 kg y tenía unas 20.000 piezas). La máquina podía efectuar sumas, restas, multiplicación y división. A su vez era capaz de leer y guardar información en la memoria.
Tenía una memoria de 64 palabras de 22 bits y dos registros de coma flotante de 22 bits cada uno.La única unidad eléctrica era un motor eléctrico para dar la frecuencia de reloj de 1 Hz (ciclo por segundo) a la máquina, que era capaz de realizar sumas a una velocidad de 5 segundos y multiplicaciones, en 10 segundos.
Se dice que Zuse construyó la computadora en el departamento de sus padres que financiaron el proyecto, junto con su hermana, algunos estudiantes y un fabricante de calculadoras de Berlín.
La evolución del hardware se encuentra dividida por generaciones:
Primera Generación (1945–1956): La electrónica se basa en la implementación de tubos de vacío, lo cual generó la primera evolución tecnológica que funcionó en las computadoras y como consecuencia desplazó a los componentes electromecánicos.
Segunda Generación (1957–1963): En esta generación la electrónica es desarrollada con transistores, los cuales ayudaron a reducir los componentes físicos del computador. El razonamiento fue parecido a la anterior generación, pero el resultado al implementar esta tecnología fue más eficaz, ya que se aumentó la velocidad en el procesamiento de datos.
Tercera Generación (1964 – al presente): La electrónica es basada en circuitos integrados, lo cual permitió adherir una gran cantidad de transistores y otros componentes electrónicos a un circuito integrado conformado por una placa de Silicio. En efecto, se redujo de forma considerable el tamaño y costo del computador, aumentando su capacidad, velocidad y fiabilidad, hasta convertirse en ordenadores que existen en la actualidad.
Cuarta Generación (el futuro): Posiblemente se producirá en el momento que los circuitos se Silicio sean reemplazados por una nueva y sofisticada tecnología, la cual contendrá circuitos integrados en una escala mayor a la actual.
El Software representa la vida interna de un computador, el manejo y aprovechamiento del mismo y todas las ventajas que se brindan el mundo de las computadoras, depende del software, facilitando a los usuarios el desarrollo de programas que contribuyen con tareas diarias tanto personales como generales, empresariales y organizacionales el software en sus diferentes tipos es el elemento esencial como interfaz entre usuario - computador, su historia desde un principio se muestra con poca atención pero con el paso del tiempo se ha tornado importante para los programadores y creadores de sistemas tanto de aplicación como operativos, todo lo que se ve digitalizado en un computador representa el software clasificado de alguna forma, las herramientas del menú inicio y todas aquellas que se despliegan al encendido del CPU, el desarrollo de esta herramienta ha permitido innovar en cuanto a la robótica he inteligencia artificial facilitando el trabajo en determinadas áreas laborales y agilizando las mismas por ejemplo en la fabricación de vehículos mediante software de programación se diseñan estructuras robóticas inmensas y fuertes que realizan tareas que al brazo humano le tomarían mas tiempo.
En 1990 La crisis del software se fundamentó en el tiempo de creación de software, ya que en la creación del mismo no se obtenían los resultados deseados, además de un gran costo y poca flexibilidad.
Es un término informático acuñado en 1968, en la primera conferencia organizada por la OTAN sobre desarrollo de software, de la cual nació formalmente la rama de la ingeniería de software. El término se adjudica a F. L. Bauer, aunque previamente había sido utilizado por Edsger Dijkstra en su obra The Humble Programmer.
Básicamente, la crisis del software se refiere a la dificultad en escribir programas libres de defectos, fácilmente comprensibles, y que sean verificables. Las causas son, entre otras, la complejidad que supone la tarea de programar, y los cambios a los que se tiene que ver sometido un programa para ser continuamente adaptado a las necesidades de los usuarios.
Además, no existen todavía herramientas que permitan estimar de una manera exacta, antes de comenzar el proyecto, cuál es el esfuerzo que se necesitará para desarrollar un programa. Este hecho provoca que la mayoría de las veces no sea posible estimar cuánto tiempo llevará un proyecto, ni cuánto personal será necesario. Cuando se fijan plazos normalmente no se cumplen por este hecho. Del mismo modo, en muchas ocasiones el personal asignado a un proyecto se incrementa con la esperanza de disminuir el plazo de ejecución.
Por último, las aplicaciones de hoy en día son programas muy complejos, inabordables por una sola persona. En sus comienzos se valoró como causa también la inmadurez de la ingeniería de software, aunque todavía hoy en día no es posible realizar estimaciones precisas del coste y tiempo que necesitará un proyecto de software.
Englobó a una serie de sucesos que se venían observando en los proyectos de desarrollo de software:
Los proyectos no terminaban en plazo.
Los proyectos no se ajustaban al presupuesto inicial.
Baja calidad del software generado.
Software que no cumplía las especificaciones.
Código inmantenible que dificultaba la gestión y evolución del proyecto.
Aunque se han propuesto diversas metodologías para intentar subsanar los problemas mencionados, lo cierto es que todavía hoy no existe ningún método que haya permitido estimar de manera fiable el coste y duración de un proyecto antes de sus comienzos.
En 1984 Richard Stallman deja el MIT y comienza a trabajar en su proyecto GNU, con el objetivo de desarrollar un sistema operativo completamente libre, desde el kernel, editores, compiladores, debuggers, hasta utilitarios más complejos como procesadores de texto e inclusive juegos. Uno de los primeros desarrollos realizados por el mismo Stallman fue el editor de textos GNU Emacs a principios de 1985. Ese mismo año se funda la Free Software Fundation, ente que financia desde entonces al proyecto GNU, la misma se mantiene con donaciones y con el producto de la venta de CD-ROMs tanto de programas binarios como código fuente, manuales y distribuciones completas (conjunto de software para una dada plataforma de hardware).
En este punto conviene aclarar la distinción entre software libre y software gratuito. Se entiende que el poseedor de software libre tiene la libertad de:
Ejecutar el programa.
Modificar el programa (para que este punto tenga sentido es necesario que el programa sea distribuido con el código fuente).
Redistribuir copias del programa (ya sea gratis o no).
Distribuir copias modificadas del programa.
Con el tiempo, los programadores de la Free Software Fundation fueron completando algunas de las tareas planeadas originalmente por el proyecto GNU, entre otros la biblioteca de lenguaje "C", y el shell más utilizado en los sistemas GNU/Linux: bash. El éxito conseguido por estos programas que no sólo trabajan en sistemas GNU/Linux, sino que han sido portados a otras plataformas, forzaron a sus desarrolladores a dedicar un tiempo importante a su mantenimiento y mejora. De esta manera, el desarrollo completo de un sistema operativo basado en software libre se vio demorado por algunos años.
Por otra parte, además de los productos de la FSF, existen otros desarrollos de software libre que fueron aprovechados por el proyecto GNU, entre los más importantes están el TeX como procesador de textos y el X Windows System como sistema gráfico de interfase con el usuario.
Alrededor de 1990 el único componente básico del sistema que estaba faltando era el kernel. La decisión que se tomó en ese momento fue utilizar el microkernel Mach (desarrollado por las universidades Carnegie Mellon y la de Utah), adicionándole una serie de procesos servidores desarrollados por la FSF. A esta combinación de un micro-kernel con procesos servidores independientes se le llamó HURD. Recién desde los últimos meses de 1999 HURD ha comenzado a ser utilizado en forma confiable. Mucho antes de que esto sucediera, un estudiante finlandés, Linus Torvalds, desarrolló un kernel para computadoras basadas en el procesador Intel 386, compatible con unix, que llamó LINUX. Este kernel fue también desarrollado como software libre, y rápidamente fue creciendo merced a la colaboración de programadores de todo el mundo. En este momento Linux ha sido portado a toda la gama de procesadores Intel a partir del i386: (486, Pentium, Pentium II y III, Celeron), a procesadores para PC's de Cyrix y de AMD, e incluso a procesadores tipo sparc (SUN), a los procesadores Motorola 68000 (Apple MacIntosh), a procesadores Alpha (de 64 bits, utilizados por Compaq, antes Digital). De esta manera, alrededor de 1992 fue posible combinar el kernel Linux con los utilitarios del proyecto GNU y surgió el primer sistema operativo completamente basado en software libre.
Software de sistema
Es el software básico o sistema operativo. Es un conjunto de programas cuyo objeto es facilitar el uso del computador (aísla de la complejidad de cada dispositivo, y presenta al exterior un modelo común de sistema de manejo para todos los dispositivos) y conseguir que se use eficientemente (ejemplo: realizar operaciones mientras se ejecuta un programa). Administra y asigna los recursos del sistema (hard-ware), ejemplo windows xp, edition, vista, ms-dos, lunix, unix, mac, e incluido en este se encuentran los Programas de utilidad: (se le podrían llamar también software de mantenimiento): desfragementador de discos, liberador de espacio etc.
Software de Aplicación
Son los programas que controlan y optimización la operación de la máquina, establecen una relación básica y fundamental entre el usuario y el computador, hacen que el usuario pueda usar en forma cómoda y amigable complejos sistemas hardware, realizan funciones que para el usuario serían engorrosas o incluso imposibles, y actúan como intermediario entre el usuario y el hardware, ejemplo cuando nos vamos a inicio\todos los programas. y todos los que aparezcan ahí, instalados así se les llaman "software de aplicación"
Permite examinar en detalle el comportamiento estático y dinámico de dispositivos cinemáticos (por ejemplo robots). Es una herramienta muy potente tanto las aplicaciones de ingeniería robótica, I+D y test de rendimiento de sistemas robóticos. Permiten una gran flexibilidad en el análisis del comportamiento de sistemas cinemáticos complejos. Muestra los resultados de forma gráfica. Está concebido como el osciloscopio para la robótica.
Los robots son utilizados en una diversidad de aplicaciones, desde robots tortugas en los salones de clases, robots soldadores en la industria automotriz, hasta brazos teleoperados en el transbordador espacial.
Cada robot lleva consigo su problemática propia y sus soluciones afines; no obstante que mucha gente considera que la automatización de procesos a través de robots está en sus inicios, es un hecho innegable que la introducción de la tecnología robótica en la industria, ya ha causado un gran impacto. En este sentido la industria Automotriz desempeña un papel preponderante.
El gigante de la informática Microsoft lanzo un sistema operativo para robots. Bajo el nombre de Microsoft Robotics Studio, pretende facilitar la labor de quienes se dedican a la programación de robots reales o simulados y, de paso, ocupar una posición más relevante en la industria de la robótica.
Este sistema operativo sirve para programar todo tipo de robots, tanto de juguete como aquellos que se utilizan en las industrias, y estará a disposición de investigadores y aficionados de forma gratuita.
Llamada polisemia, la que los diferencia, como veremos, de los códigos computacionales.
En la actualidad, el problema de la comprensión del lenguaje natural por las máquinas dista mucho de estar resuelto, pero, como en el caso del procesamiento de voz, hay aproximaciones de utilidad práctica. La primera, la menos sofisticada, que no puede considerarse inteligencia artificial, consiste en hacer que el programa dirija el dialogo, forzando al usuario a responderle dentro de unos marcos muy rígidos, ya sea por medio de selecciones en menú, o mediante preguntas escogidas que sólo puedan responderse con SI o NO. Evidentemente, tendremos un dialogo en lenguaje natural, pero el usuario no ha llegado a escribir una sola frase completa.
En una segunda aproximación, lo que el programa interpreta no es un lenguaje natural sin restricciones, sino una versión simplificada, con reglas gramaticales más estrictas que las ordinarias, para evitar la ambigüedad. Podríamos, por ejemplo, forzar al usuario a utilizar siempre oraciones de Las forma sujeto-verbo-complemento directo.
En la tercera aproximación, dejaremos libre la sintaxis del lenguaje, pero se restringe el ámbito semántico, es decir, los sentidos posibles de las palabras. Esta técnica se utiliza a menudo en la interfaz de usuario de los sistemas expertos, en los que el tema sobre el que se esta dialogando se constriñe a un campo muy concreto. Por ejemplo, en un sistema experto en diagnostico medico, las palabras posiblemente ambiguas tomaran con preferencia aquel significado que tenga algo que ver con la medicina. Además, y para ganar tiempo, el programa no suele analizar la sintaxis del texto que ha recibido, sino que se apoya únicamente en los términos más importantes para deducir el significado de la frase, en el contexto de la conversación.
Descripción
Es la última versión de Microsoft Windows, (anteriormente conocido con nombre código Blackcomb, y luego Vienna), un sistema operativo producido por Microsoft Corporation para uso en PCs, incluyendo equipos de escritorio en hogares y oficinas, Notebooks, tablet PCs, netbooks y equipos media center.
A diferencia de su predecesor, Windows 7 es una actualización incremental del núcleo NT 6.0, esto con la meta de mantener cierto grado de compatibilidad con aplicaciones y hardware en los que su antecesor Windows Vista ya era compatible. Las metas de desarrollo para Windows 7 fueron el mejorar su interfaz para hacerla más amena al usuario, con nuevas características que permiten hacer tareas de una manera más fácil y rápida, al mismo tiempo en que se realizaron esfuerzos para lograr un sistema más ligero, estable y rápido. Diversas presentaciones dadas por la compañía en el 2008 se enfocaron en demostrar capacidades táctiles multi-touch, una interfaz rediseñada junto con una nueva barra de tareas y un sistema de redes domésticas denominado Grupo en el Hogar, además de mejoras en el rendimiento.
Características
Windows 7 incluye numerosas nuevas actualizaciones, entre las que se encuentran avances en reconocimiento de voz, táctil y escritura, soporte para discos virtuales, mejor desempeño en procesadores multi-núcleo, mejor arranque y mejoras en el núcleo.
Muchas nuevas características se agregaron al Panel de Control como: Aceleradores, Gadgets, Infrarrojo, Solución de problemas, Localización y otros sensores, Administrador de Credenciales, Windows Solution Center, entre otros.
Se hicieron grandes cambios en programas como WordPad, Paint, Calculadora y Teclado en pantalla.
La barra lateral de Windows o más conocida como Windows Sidebar se ha eliminado y ahora los gadgets pueden ubicarse libremente en cualquier lugar del escritorio.
Impresoras y dispositivos: Nuevo item del panel del control en la que se tendrá acceso a todo el hardware que se conecte al PC (marcos digitales, impresoras, cámaras fotográficas, etc). Junto a esto se ha incluido Device Stage, es un administrador de dispositivos móviles que ayuda a los usuarios a sincronizar música, vídeos, fotos y da información acerca del estado de la tarjeta SIM, la carga de la batería, mensajes, etc.
Aero Snaps: Permite cambiar el tamaño de una ventana simplemente con arrastrarla a un extremo de la pantalla, por ejemplo, si se arrastra al tope se maximiza, a la derecha o izquierda ocupa el 50% de la pantalla según el lado al que la arrastremos y si la arrastramos nuevamente al centro toma el tamaño original.
Funcionalidades
Windows 7 estará más enfocado en el rendimiento del sistema operativo. En el blog oficial Microsoft publicó seis de los puntos más relevantes a trabajar: empleo de memoria, utilización de CPU, operaciones de entrada y salida a disco, operaciones de arranque, cierre y reposo, rendimiento del sistema base y empleo de disco por parte del sistema.
En una entrevista con Newsweek, Bill Gates dijo que esta nueva versión de Windows estaría más centrada en el usuario; además comentó que trabajan con esmero para mejorar el rendimiento.
También uno de sus principales objetivos es mejorar el arranque y tienen como propósito que inicie en menos de 15 segundos. Para esto se propusieron reducir la cantidad de programas y servicios que se inician al cargar Windows.
Otra cosa muy presente en el desarrollo de este sistema (gracias a las quejas de los usuarios) es minimizar la intrusión, mejorar el rendimiento y habilitar la modificación del Control de Cuentas de Usuario, ya que éste fue un total fracaso en Windows Vista debido a sus constantes alertas innecesarias en simples acciones diarias.
Software Asociado
Compatibilidad:
Las versiones cliente de Windows 7 serán lanzadas en versiones para arquitectura 32 bits y 64 bits en versiones para Professional y Home. No obstante, las versiones servidor de este producto serán lanzadas exclusivamente para arquitectura 64 bits.
Esto significa que, las versiones cliente de 32 bits aún soportarán programas Windows 16 bits y MS-DOS. Y las versiones 64 bits (incluyendo todas las versiones de servidor), soportarán tanto programas de 32 como de 64 bits.
Modo XP:
Windows 7 incorpora la llamada Windows Virtual PC, un avance sobre Virtual PC 2007 y permite que ejecutar un equipo virtual Windows XP en forma amigable para el usuario (la aplicación dentro de la máquina virtualizada se vé como otra opción en el menú de Windows 7 y su ejecución es directa, sin pasar por el menú de inicio del XP virtualizado). Si bien Microsoft ya había liberado MED-V dentro de su paquete MDOP que cumple la misma función, esta es una solución orientada a profesionales y pequeñas empresas que no necesita de administración centralizada. Al momento del RC, esta funcionalidad se debe bajar en forma independiente en el sitio de Microsoft. Asimismo, el modo XP requiere de procesadores con capacidad de virtualización, a diferencia del tradicional Virtual PC 2007.
Interfaz:
Se ha establecido públicamente que el equipo de desarrollo de la interfaz Ribbon de Microsoft Office 2007 formará parte activa en el rediseño del Explorador de Windows y posiblemente otros elementos de la Interfaz de Usuario. Esta interfaz ya está incluida en Paint y Wordpad (En Betas de Windows 7).
Respaldo es el sector de una silla que permite apoyar la espalda o, en sentido simbólico, aquello que brinda sostén, amparo o apoyo. Una información, por su parte, es un conocimiento o un saber.
La noción de respaldo de información se refiere al resguardo que se realiza de ciertos datos. El concepto suele emplearse con relación a los datos digitales (que están alojados en el disco duro de una computadora u ordenador), aunque también puede vincularse a la protección de documentos físicos.
Existen diversos métodos para realizar un respaldo de información. Una posibilidad es copiar los datos digitales a diferentes formatos físicos: un DVD, un CD, un pendrive (también conocido como memoria USB), una tarjeta de memoria, etc. El resguardo de información también puede desarrollarse subiendo la información a un servicio online: en este caso, lo que se hace es copiar los documentos a un servidor y proteger el acceso a los documentos a través de una clave.
Por lo general, el respaldo de información es una práctica de las personas con un cierto grado de experiencia y conocimientos en el ámbito de la informática; los programadores y diseñadores gráficos, por ejemplo, suelen tener la costumbre de guardar copias de seguridad de sus trabajos en el ordenador y en la nube (un espacio en un equipo remoto al cual se puede acceder a través de diversos servicios, muchos de ellos gratuitos, para obtener más espacio del que nos provee nuestro propio disco local).
Es importante señalar que respaldar la información no es tan simple como crear más de una copia de nuestros archivos. En primer lugar, uno de los problemas más comunes por los cuales se pierden datos es la avería del disco duro; no olvidemos que este medio de almacenamiento es muy delicado y tiene una vida útil relativamente corta, ya que se compone de piezas mecánicas que se desgastan mucho más que las memorias flash (las cuales utilizan una tecnología basada en impulsos eléctricos, por lo cual no tiene partes móviles). Dicho esto, no debemos minimizar la importancia de escoger un medio fiable para guardar nuestros documentos más preciados.
Además de valorar la durabilidad del disco, debemos pensar en crear varias versiones de cada proyecto; esta técnica, llamada versionado, es muy usada en compañías de desarrollo de software, y ofrece múltiples ventajas, que van desde la posibilidad de volver a cualquier punto de un proyecto si deseamos cambiar de dirección, hasta superar un eventual problema físico en el disco que afecte alguna versión. Las copias de seguridad deben complementar, por lo tanto, la práctica de crear una nueva versión de nuestros documentos cada vez que realizamos una modificación importante.
El respaldo de información que se encuentra plasmada en un papel se puede llevar a cabo haciendo una fotocopia del mismo. Es importante destacar que, para mayor seguridad, se puede optar por realizar un respaldo físico y digital de manera simultánea: por ejemplo, un documento impreso se puede fotocopiar (para obtener varias copias del mismo) y digitalizar (a través de un escáner). Una vez que la información ya tiene su respaldo digital, este nuevo documento se puede proteger a través de los sistemas ya mencionados: alojándolo en un servicio de almacenamiento en Internet, copiándolo en un DVD, etc.
Las fotocopias y la digitalización mediante un escáner suelen servir para conservar facturas y documentos de compra que resultan esenciales para reclamos y solicitud de garantía, ya que el papel puede deteriorarse, romperse o perderse. Además, en muchos casos la tinta se borra con el tiempo, y por eso las propias tiendas comerciales recomiendan este modo de respaldo de información para beneficio de sus clientes.
Realizar un respaldo de información es importante para proteger datos valiosos de un posible virus o del ataque de un delincuente informático, si nos centramos en la información almacenada en una computadora.
Internet (el internet o, también, la internet)3 es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, lo cual garantiza que las redes físicas heterogéneas que la componen constituyan una red lógica única de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California (Estados Unidos).
Uno de los servicios que más éxito ha tenido en internet ha sido la World Wide Web (WWW o la Web), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Esta fue un desarrollo posterior (1990) y utiliza internet como medio de transmisión.4
Existen, por tanto, muchos otros servicios y protocolos en internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia —telefonía (VoIP), televisión (IPTV)—, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.456
El uso de internet creció rápidamente en el hemisferio occidental desde la mitad de la década de 1990; desde la década de 2000 en el resto del mundo.7 En los 20 años desde 1995, el uso de internet se ha multiplicado por 100, cubriendo en 2015 a la tercera parte de la población mundial.89
La mayoría de las industrias de comunicación, incluyendo telefonía, radio, televisión, correo postal y periódicos tradicionales están siendo transformadas o redefinidas por Internet, y permitió el nacimiento de nuevos servicios como correo electrónico (e-mail), telefonía por internet, televisión por Internet, música digital, y vídeo digital. Las industrias de publicación de periódicos, libros y otros medios impresos se están adaptando a la tecnología de los sitios web, o están siendo reconvertidos en blogs, web feeds o agregadores de noticias. Internet también ha permitido o acelerado nuevas formas de interacción personal por medio de mensajería instantánea, foros de Internet, y redes sociales. El comercio electrónico ha crecido exponencialmente tanto por grandes cadenas como pequeñas y medianas empresas o emprendedores, ya que ahora pueden vender por internet productos o servicios hacia todo el mundo.10 Los servicios interempresariales y financieros en Internet afectan las cadenas de suministro en todas las industrias.
Internet no tiene una gobernanza centralizada única ni en la implementación tecnológica ni en las políticas de acceso y uso; cada red constituyente establece sus propias políticas.11 Las definiciones excesivas de los dos espacios de nombres principales en Internet, el Protocolo de Internet (dirección IP) y el Sistema de nombres de dominio (DNS), están dirigidos por una organización mantenedora, la Corporación de Internet para la Asignación de Nombres y Números (ICANN)12. La base técnica y la estandarización de los protocolos centrales es una actividad del Grupo de Trabajo de Ingeniería de Internet (IETF), una organización internacional sin fines de lucro.13