Desde que se utilizó la computadora en el ámbito del proceso de datos, ha existido la necesidad latente o reconocida de desarrollar sistemas de información ,robustos (que no fallen), escalables (que puedan crecer) y de fácil mantenimiento (que se puedan modificar). El estado actual de las comunicaciones electrónicas, el incremento en el poder de hardware, nuevas tecnologías en el desarrollo de software, nuevos manejadores de bases de datos y diferentes arquitecturas en el “acomodo” de las aplicaciones dentro de la red, han hecho posible crear sistemas que se acerquen cada día más, a tener esas características deseadas.
La tecnología Cliente – Servidor propiciada por la aparición de las computadoras personales y la tecnología de redes, estableció una revolución en la forma en que se desarrollan las aplicaciones. No bien empezó esta revolución, aparece otra, la tecnología de componentes, la cual consiste en partir una aplicación en objetos inteligentes que, distribuidos en diferentes computadoras en una red, funcionan juntos y transparentemente para los usuarios, proporcionando una máxima flexibilidad, un mejor desempeño y generalmente un menor costo.
El recurso de un mejor manejo de los datos y la demanda una mejor optimización de los mismos, han llevado a alas empresas a tener que desarrollar una manera óptima y de rápida aplicación para poder atender toda aquella demanda, por lo cual a continuación se mostraran algunos ejemplos de casos de empresas que tuvieron que recurrir a este tipo de sistema para poder lograr el objetivo.
Google en el 2009 reconoció que uno de sus centros de operaciones, el cual cuenta con un hangar lleno con 45 contenedores y cada contenedor alberga hasta 1.160 servidores superando los 45.000 servidores. Este ejemplo es sólo uno de muchos de los centros de datos que posee alrededor del mundo. De acuerdo con Jonathan Komey, un experto en energía, de acuerdo a un reporte oficial de consumo energético entregado por Google, este consumo es el requerido para operar 900.000 servidores.
Para que su herramienta principal, el motor de búsqueda, pueda ofrecer resultados en tiempos prácticamente inmediatos, Google organiza sus servidores en racks configurando clusters dentro de un gran números de datacenters ubicados alrededor de todo el planeta para así estar en capacidad de entregar resultados prácticamente instantáneamente. La distribución geográfica la realiza porque la velocidad de respuesta también depende de la distancia entre el cliente y el servidor que le da respuesta.
Es la red social de más éxito hoy en día, y desde un punto de vista puramente técnico, sus datos son realmente espectaculares. Presume de tener del orden de unos 30.000 servidores capaces de servir unos 570 billones de páginas al mes. Hace una semana publicaron un artículo con algunos detalles del software que utilizan en sus máquinas, del cual se puede mencionar uno que es relevante para los sistemas de distribución; Hadoop es un conjunto de proyectos de código abierto originales de la fundación Apache con los que se persigue que los desarrolladores tengamos las herramientas necesarias para poder generar programas distribuidos, escalables y con alta disponibilidad. Se compone de un núcleo de librerías comunes, varios frameworks, y una serie de software más específico implementado sobre los anteriores.