surgimento internet



Tudo sobre a história da internet, sua origem.

A internet é uma inovação (ou melhor, uma série de inovações), que permite a comunicação e transmissão de dados entre computadores em locais diferentes. É uma evolução extremamente nova, mas isso não significa que não podemos analisá-la historicamente.
Como em outros países, também no Brasil a Internet foi implantada e se desenvolveu junto ao meio acadêmico e científico, tendo 1989 como ano inicial no país. Professores e pesquisadores que houvessem visitado universidades no exterior já conheciam as promissoras redes internacionais de comunicação e, a cada nova descoberta, o Brasil logo tratava de acompanhar. Seguimos a primeira onda da internet, lado a lado com os Estados Unidos. Desde então, o crescimento da rede por aqui apresentou uma curva ascendente.


 

O Desenvolvimento da Informática


A Internet é um sistema criado para permitir computadores comunicar-se uns com os outros. Antes de chegarmos a Internet temos que ter computadores. Grande parte das informações deste artigo foi retirada do Museu Virtual da Informática Históriaca. O primeiro passo para o computador moderno foi a invenção de Samuel Morse em 1844. Criou uma uma comunicação através de impulsos eletrônicos, uma chave e um código especial para que as seqüências de pulsos formassem  letras do alfabeto. Nós não vamos ficar discutindo se Morse  foi realmente o inventor do telégrafo (ou o seu parceiro Alfred Vail em 1837)  você pode encontrar tudo o que você sempre quis saber sobre o assunto no site do Historia do Telégrafo.

                                                                             Telegrafo morse


O próximo passo foi ligar esta invenção particular para outra mais moderna, a criação de uma máquina de calcular. Embora as calculadoras  já existiam a milhares de anos e foi descoberta pela primeira vez no Egito, por volta de 500 aC, pode-se dizer que o primeiro passo principal para o computador moderno foi os experimentos de Charles Babbage em 1820-1840 para construir uma "Difference Engine".
Eu usei uma das palavras "podia dizer" deliberadamente, pois pequenos erros em seus cálculos fez com que Babbage nunca realmente consegui-se construir o seu motor - o Museu da Ciência, em Kensington construiu uma cópia do motor de diferença em 1991 para comemorar o bi-centenário do seu nascimento.


A idéia de cálculo digital foi ganhando vida com a ideias e criações de Herman Hollerith que desenvolveu máquinas de processamento digital para auxiliar na elaboração do Censo 1890 E.U.. Hollerith passou a encontrar o Calculando-Tabulating Gravação (CTC) da empresa em 1914, uma empresa renomeada IBM (International Business Machines), em 1924. Babbage e idéias de Hollerith para a computação digital, no entanto, parecia ter conduzido a um beco sem saída, como a maioria dos cientistas prefere desenvolver técnicas para dispositivos analógicos, baseado em princípios slide-regra.


Estes dispositivos podem ficar muito grande como o Analizador diferencial construído no Massachusetts Institute of Technology (MIT) em 1930. Mas as máquinas deste tamanho também foram correndo contra as fronteiras das suas capacidades ate as vésperas da década de 1930. Até agora toda uma série de dispositivos associados com o desenvolvimento do telefone (comutadores, relés, etc) e rádio (tubos catódicos) seria para ampliar as possibilidades de uma solução. Mas o que acelerou a evolução foi a eclosão da Segunda Guerra Mundial.



Durante o período conturbado pela Segunda Guerra Mundial – 1939 / 1945 – foi desenvolvida investigação e

implantação de projectos de electrónica e computadores das quais uma pequena parte é publicamente conhecida. Só a partir de 1996 a NSA – National Security Agency USA – liberta os denominados

“segredos de guerra” e começam a ser conhecidos publicamente factos que conduzem ao refazer de uma “história oficial” há vários anos repetida e induzida na área da Ciência da Computação. Tradicionalmente a origem dos Computadores electrónicos tem sido atribuída ao ENIAC - Electronic Numerical Integrator and Automatic Computer - construído na Moore Scholl of Electrical Engineering da University of Pensylvania nos USA entre Maio 1943 (31 de Maio de 1943 com contrato assinado em 5 de Junho de 1943

com o USA Army - Ordnance Department; Ballistic Research Laboratory) e Novembro de 1945. O ENIAC foi formalmente apresentado à Imprensa no dia 15 de Fevereiro de 1946 na Moore School of Electrical Engineering. O ENIAC foi entregue oficialmente ao USA Army em 30 de Junho de 1946. Desligado em 9 de Novembro de 1946 arrancou, nas suas novas instalações em Aberdeen - USA -, a 29 de Julho de 1947. Foi utilizado até ao dia 2 de O utubro de 1955, data a partir da qual foi desmantelado e algumas das suas peças foram entregues à

Smithsonian Institution em Washington, D.C. para exposição pública. Também tradicionalmente se considera que o ENIAC teria sido concebido por John von Neumann e construído segundo a denominada Arquitectura von Neumann.


 História e Surgimento da Internet Introdução

Uma Breve História da Internet
A Brief History of the Internet



A Internet revolucionou o mundo do computador e das comunicações como nada antes. A invenção do telégrafo, telefone, rádio e computador prepararam o terreno para o surgimento da Internet. A Internet é ao mesmo tempo uma capacidade de difusão a nível mundial, um mecanismo de difusão de informações e um meio para colaboração e interação entre indivíduos e seus computadores, independentemente de localização geográfica.

A Internet representa um dos mais bem sucedidos exemplos dos benefícios da manutenção do investimento e compromisso com a investigação e o desenvolvimento de infra-estrutura de informação. Começando com as primeiras pesquisas em comutação de pacotes, o governo, a indústria e meio acadêmico tem sido parceiros na evolução e uso desta excitante nova tecnologia a Internet. Hoje, termos como "e-mail" Internet@historiadainternet.org e "Web site" http://www.acm.org estão na mente de praticamente todas as pessoas.

Este artigo pretende ser um sumário, necessariamente superficial e incompleto sobre a historia e o surgimento da Internet. Muito material para estudo existe actualmente sobre a Internet, cobrindo a história, tecnologia e uso. Uma viagem ao google, propria Internet ou qualquer livraria você encontrará nas prateleiras material escrito sobre a Internet.

Essa história sobre o surgimento da Internet gira em torno de quatro aspectos distintos. Não é a evolução tecnológica que começou com as primeiras pesquisas sobre trocas de pacotes e a ARPANET (e tecnologias relacionadas), onde a pesquisa atual continua a expandir os horizontes da infra-estrutura em várias dimensões, tais como escala, desempenho e funcionalidade do mais alto nível. Existe aspectos operacionais e gerenciais de uma infra-estrutura operacional complexa e global. Há o aspecto social, o que resultou numa larga comunidade de internautas trabalhando juntos para criar e evoluir a tecnologia. E há o aspecto de comercialização, o que resulta numa transição extremamente efetiva da pesquisa numa infra-estrutura de informação disponível e utilizável.

A Internet é hoje uma infra-estrutura generalizada, o protótipo inicial do que é muitas vezes chamado de National (Global ou Galactic) Information Infrastructure. Sua história é complexa e envolve muitos aspectos - tecnológicos, organizacionais e da comunidade. E sua influência atinge não somente os campos técnicos das comunicações via computadores mas toda a sociedade em que nos movemos em direção a crescente utilização de ferramentas online como comércio eletrônico, adquirir informação, estudar, fazer transações Bancarias e usar sites de relacionamento.

Origens e surgimento da Internet

A primeira descrição de registros de interações sociais que poderiam ser realizadas através de redes foi uma série de memorandos escritos por JCR Licklider, do MIT, em agosto de 1962, discutindo o "Galactic Network" conceito. Ele imaginou um mundo interconectado conjunto de computadores através dos quais todos poderiam acessar rapidamente os dados e programas de qualquer local. Em essência, o conceito foi muito parecido com a Internet de hoje. Licklider foi o primeiro chefe do programa de pesquisa de computador do DARPA, ele convenceu seus sucessores na DARPA, Ivan Sutherland, Bob Taylor e Lawrence G. Roberts, da importância do conceito de redes.

Leonard Kleinrock do MIT publicou o primeiro trabalho sobre teoria de comutação de pacotes em julho de 1961 e o primeiro livro sobre o assunto em 1964. Kleinrock convenceu Roberts da possibilidade teórica das comunicações usando pacotes ao invés de circuitos, que foi um passo importante no caminho para redes de computadores. O outro grande passo foi fazer os computadores se conversarem. Para explorar isto, em 1965, trabalhando com Thomas Merrill, Roberts conectou o computador TX-2 em Massachussets com um Q-32 na Califórnia, com uma baixa velocidade de linha telefônica discada, criando o primeiro (embora pequena) rede de computadores em toda a zona já construído. O resultado deste trabalho foi a constatação de que os computadores de tempo compartilhado poderiam trabalhar bem juntos, rodando programas e recuperando dados quando necessário em máquinas remotas, mas que o circuito comutado sistema telefônico era totalmente inadequado para o trabalho. convição de Kleinrock sobre a necessidade de comutação de pacotes foi confirmada.

http://upload.wikimedia.org/wikipedia/commons/thumb/d/dd/Internet_map_in_February_82.jpg/320px-Internet_map_in_February_82.jpg

No final de 1966, Roberts começou a trabalhar no DARPA para desenvolver o conceito das redes computadorizadas e elaborou o seu plano para a ARPANET, publicado em 1967 na conferência onde ele apresentou este trabalho. Houve também uma apresentação sobre o conceito de redes de pacotes desenvolvida pelos ingleses Donald Davies e Roger Scantlebury de NPL. Scantlebury disse Roberts sobre o trabalho NPL, bem como o de Paul Baran e outros em RAND. O grupo do projeto RAND tinha escrito um artigo sobre as redes de comutação de pacotes para voz segura quando serviam militarmente em 1964. Aconteceu que o trabalho no MIT (1961-1967), RAND (1962-1965) e NPL (1964-1967) estavam se desenrolando em paralelo sem que nenhum dos pesquisadores soubesse dos outros trabalhos. A palavra "pacote" foi adotada do trabalho desenvolvido no NPL e a velocidade de linha proposta para ser usado no projeto da ARPANET foi de 2,4 kbps a 50 kbps.

Em agosto de 1968, depois de Roberts e grupo do DARPA terem refinado a estrutura e especificações para a ARPANET, uma seleção foi feita para o desenvolvimento de um dos componentes-chave, o pacote de opções chamado Interface Message Processors (IMP's). A licitação foi vencida em dezembro de 1968 por um grupo liderado por Frank Heart Bolt Beranek and Newman (BBN). Como a equipe BBN trabalhou em jogar o IMPs com Bob Kahn assumindo um papel importante no desenho arquitetônico da ARPANET, a topologia e economia da rede foi desenvolvida e otimizada por Roberts em conjunto com Howard Frank e seu grupo da Network Analysis Corporation, um sistema de medição da rede foi preparado pelo pessoal de Kleinrock na UCLA.

Devido ao desenvolvimento precoce de pacotes de Kleinrock teoria de comutação e seu foco em análise, desenho e mensuração, seu Centro de Mensuração de Rede da UCLA foi escolhido para ser o primeiro nó na ARPANET. Tudo isso aconteceu em setembro de 1969, quando BBN instalou o primeiro IMP na UCLA eo primeiro servidor de computador foi conectado. Doug Engelbart autor do projeto sobre "Aumento do Intelecto Humano" (que incluía NLS, um sistema de hipertexto), no Stanford Research Institute (SRI), desde um segundo nó. SRI apoiou o Network Information Center, liderada por Elizabeth (Jake) Feinler e incluindo funções como a manutenção de tabelas de nome do host para o mapeamento de endereços, bem como um diretório do RFC's. Um mês depois, quando SRI foi conectado à ARPANET, a mensagem de host para host  foi primeiro enviada do laboratório de Kleinrock para o SRI. Dois nós foram adicionados, na UC Santa Barbara e na Universidade de Utah. Estes últimos dois nós incorporavam projetos de aplicações visuais, com Glen Culler e Burton Fried  investigando métodos para a exibição de funções matemáticas utilizando displays de armazenamento para lidar com o problema de atualização sobre a rede e Robert Taylor e Ivan Sutherland em Utah investigando métodos de 3 -D representações sobre a rede. Assim, até ao final de 1969, quatro computadores foram interligados na ARPANET inicial, com isso a Internet foi ganhando forma. Mesmo nesta fase inicial, é de notar que a pesquisa em rede incorporada oferecia trabalho na rede básica e  trabalho sobre como utilizar a rede. Esta tradição continua até hoje.

Larry Roberts sketch map of ARPANET - click for larger imageUm mapa de esboço da topologia possível da ARPANET por Larry Roberts. O mapa foi elaborado na década de 1960 como parte do planejamento para a rede.

Computadores foram rapidamente adicionados à ARPANET nos anos seguintes, e prosseguiu até completar uma funcionalidade completa do protocolo Host-to-Host e outros softwares de rede. Em dezembro de 1970, o Network Working Group (NWG) trabalhando sob S. Crocker, concluiu o primeiro protocolo ARPANET Host-to-Host, chamado de Network Control Protocol (NCP). Como os sites ARPANET concluída execução NCP durante o período de 1971-1972, os usuários da rede finalmente puderam começar a desenvolver aplicativos.

Em outubro de 1972, Kahn organizou uma demonstração, grande e bem sucedida da ARPANET na Conferência Internacional de Comunicação Computer (ICCC). Esta foi a primeira demonstração pública da nova tecnologia de rede para o público. Foi também em 1972 que a primeira aplicação "hot", correio electrónico, foi introduzido. Em março Ray Tomlinson, da BBN, escreveu o e-mail básico, enviar e ler software, motivado pela necessidade dos desenvolvedores da ARPANET de ter um fácil mecanismo de coordenação. Em julho, Roberts expandiu a utilidade escrevendo o primeiro programa utilitário de e-mail para listar, ler seletivamente, arquivar, encaminhar e responder às mensagens. De lá, para ca o programa de e-mail decolou como a maior aplicação de rede por mais de uma década. Este foi o prenúncio do tipo de atividade que vemos na World Wide Web de hoje, ou seja, o enorme crescimento de todos os tipos de pessoa-a-pessoa.

Os conceitos iniciais da Internet "Internetting"

A ARPANET original cresceu e se tornou a Internet. Internet foi baseada na idéia de que haveria múltiplas redes independentes de desenho arbitrário, começando com a ARPANET como rede de comutação de pacotes pioneiro, mas em breve poderia incluir redes de pacotes por satélite, redes de radiocomunicações terrestres e de outras redes de pacotes. A Internet como conhecemos hoje incorpora uma idéia-chave, ou seja, de redes de arquitetura aberta. Nesta abordagem, a escolha de qualquer tecnologia de rede individual não é ditada por uma arquitetura de rede particular, mas pode ser escolhida livremente pelo provedor e feito para interagir com outras redes através de um meta-nível "Internetworking Architecture". Até aquele momento, havia apenas um método para agregar redes. Esta foi a tradicional troca de circuitos onde redes se interconectam no nível do circuito, passando bits individuais em base síncrona ao longo de uma porção de um circuito final entre um par de localizações finais. Lembre que Kleinrock tinha mostrado em 1961 que troca de pacotes era um método mais eficiente. Junto com comutação de pacotes, as disposições para fins especiais de interconexão entre redes era outra possibilidade. Embora houvesse outras formas limitadas de interconectar redes diferentes, eles exigiram ser usado como um componente do outro, em vez de agir como um par  na oferta de serviços end-to-end.
Sketch of the first ARPANET node at UCLA - click for larger version
O primeiro nó da ARPANET na Universidade de Califórnia.

Numa rede de arquitetura aberta, as redes individuais podem ser separadamente desenhadas e desenvolvidas e cada um pode ter sua interface própria para oferecer aos usuários e / ou de outros provedores. incluindo os fornecedores da Internet. Cada rede pode ser projetada de acordo com o meio ambiente e às exigências específicas do usuário dessa rede. Não há restrições sobre os tipos de rede que pode ser incluído ou no seu âmbito geográfico, apesar de algumas considerações pragmáticas ditarem o que faz sentido para se oferecer.

A idéia de redes de arquitetura aberta foi primeiro introduzida por Kahn, depois de ter chegado a DARPA em 1972. Este trabalho foi originalmente parte do programa de rádio de pacote, mas posteriormente tornou-se um programa separado. Na época, o programa foi chamado de "Internetting". A chave para tornar o pacote de trabalho do sistema de rádio era um protocolo fim a fim confiável que poderia manter uma comunicação eficaz em face da interferência e interferência de rádio de outros, ou suportar apagão intermitente, tais como causada por estar em um túnel ou bloqueado pelo terreno local. Kahn primeiro contemplado o desenvolvimento de um protocolo local apenas para a rede de pacote de rádio, uma vez que evitaria ter de lidar com a multiplicidade de sistemas operacionais diferentes, e continuar a utilizar NCP.

No entanto, NCP não tinha a capacidade de lidar com redes (e máquinas) a jusante do que um destino IMP na ARPANET e, portanto, alguma mudança de NCP também seria necessária. (A suposição era de que a ARPANET não foi variável, a este respeito). NCP se amparava na ARPANET para prover confiabilidade de ponta a ponta. Se qualquer pacote fosse perdido, o protocolo (e, presumivelmente, qualquer aplicação que ele suportasse) chegaria a travar. Nesse modelo, NCP não tinha ponta a ponta o controle de erro de acolhimento, uma vez que a ARPANET seria a única rede em existência e não seria tão confiável que nenhum controle de erro seria necessário por parte dos anfitriões.

Assim, Kahn decidiu desenvolver uma nova versão do protocolo que iria satisfazer as necessidades de um ambiente de rede de arquitetura aberta. Este protocolo acabaria por ser chamado de Transmission Control Protocol / Internet Protocol (TCP / IP). Enquanto NCP agia como um driver de dispositivo, o novo protocolo seria mais como um protocolo de comunicações.



"Internet on a Chip" diagram - click for larger versionEste mapa interessante mostra o estado do núcleo da Internet em agosto de 1987. Poderia ser descrita como a Internet "em um chip".


Quatro regras foram críticas para a idéia de Kahn:

* Cada rede distinta teria que ficar em suas próprias mudanças internas e não poderia ser exigido a qualquer rede, para conectá-lo à Internet.
* Comunicações seriam na base do melhor esforço. Se o pacote não chegar ao destino final, ele seria retransmitido da fonte.
* Black caixas seriam utilizados para conectar as redes, as quais seriam mais tarde chamados de gateways e roteadores. Não haveria nenhuma informação retida pelos gateways sobre os fluxos de pacotes passando por eles, assim, mantê-las simples, evitando adaptações complicadas e recuperações de vários modos de falha.
* Não haveria controle global no nível operacional.

Outras questões importantes que precisam ser abordados foram:

* Algoritmos para prevenir perda de pacote de comunicações desabilitadas, capacitando-os para serem retransmitidos da fonte.
* Fornecimento de um hospedeiro para outro "pipelining" de modo que múltiplos pacotes poderiam ser roteados da origem para o destino, a critério do hosts azer, se redes intermediárias o permitissem.
* funções Gateway para permitir a encaminhar os pacotes apropriadamente. Isso incluiria cabeçalhos de IP para roteamento, interfaces dirigidas, quebra de pacotes em pedaços menores, se necessário, etc
* A necessidade de checagens ponta a ponta, recuperação dos pacotes de fragmentos e detecção de duplicatas, se houver.
* A necessidade de uma abordagem global
* Técnicas para um hospedeiro para outro controle de fluxo.
* Conexão com vários sistemas operacionais
* Houve também outras preocupações, como a eficiência da execução, o desempenho de redes, mas estes eram considerações secundárias em primeiro lugar.

Kahn começou a trabalhar em um conjunto orientada às comunicações dos princípios do sistema operacional enquanto na BBN, e documentou alguns dos seus pensamentos num memorando interno BBN intitulado "Princípios de Comunicações para Sistemas Operacionais". Nesse ponto, ele percebeu que seria necessário aprender os detalhes de implementação de cada sistema operacional para ter a chance de embutir neles novos protocolos de forma eficiente. Assim, na primavera de 1973, após o início do esforço internetting, pediu Vint Cerf (então trabalhando em Stanford) para trabalhar com ele no desenho detalhado do protocolo. Cerf tinha se envolvido intimamente com o projeto NCP original e desenvolvimento e já tinha o conhecimento sobre a interface com os sistemas operacionais existentes. Assim, armado com abordagem arquitetônica de Kahn para o lado de comunicação e com experiência Cerf NCP, eles uniram-se para especificar os elementos de que se tornou o TCP / IP.

http://www.netrino.com/images/articles/EmbeddedTCPIP_figure2.gif

O dar e receber foi altamente produtivo e a primeira versão escrita da teoria resultante foi distribuída numa reunião especial do International Network Working Group (INWG), que havia sido criada em uma conferência na Universidade de Sussex, em setembro de 1973. Cerf tinha sido convidado para presidir a este grupo e usou a ocasião para realizar uma reunião dos membros INWG que estavam representados na Conferência de Sussex.

Algumas teses básicas surgiram da colaboração entre Kahn e Cerf:

* A comunicação entre dois processos deveria consistir logicamente de uma longa corrente de bytes (que eles chamaram de octetos). A posição de qualquer octetos na corrente seria usada para identificá-la.

* O controle do fluxo seria feito usando janelas e corrediças e reconhecimentos (ACKs). O destino poderia selecionar quando reconhece e cada ack retornado seria cumulativo para todos os pacotes recebidos a esse ponto.

* Foi deixada em aberto sobre como, exatamente a fonte eo destino iriam concordar nos parâmetros das janelas a serem usadas. Padrões foram usados inicialmente.

* Embora Ethernet estava sob desenvolvimento em Xerox PARC naquele tempo, a proliferação de LANs não se imaginava na época, muito menos os PCs e workstations. O modelo original foi redes nacionais como a ARPANET, dos quais apenas um número relativamente pequeno deviam existir. Assim, um endereço IP de 32 bits foi usado, dos quais os primeiros 8 bits indicavam a rede e os restantes 24 bits designavam o servidor na rede. Este pressuposto de que 256 redes seriam suficientes para o futuro previsível, foi claramente na necessidade de reconsideração quando LANs começaram a aparecer no final de 1970.
http://www.teach-ict.com/ecdl/module_1/workbook1/miniweb/images/bitbyte.jpg
Imagem difereça entre Bits e Bytes

O trabalho original de Cerf e Kahn sobre a Internet descreveu um protocolo chamado TCP, que provia todo o transporte e serviços de encaminhamento na Internet. Kahn queria que o protocolo suportasse uma gama de serviços de transporte, a partir da entrega totalmente confiável sequência de dados (modelo de circuito virtual) de um serviço de datagrama em que a aplicação fazia uso direto do serviço de rede subjacente, que pode implicar perda ocasional, pacotes corrompidos ou reordenados.

No entanto, o esforço inicial para implementar TCP resultou numa versão que somente permitiu circuitos virtuais. Esse modelo funcionou bem para transferência de arquivos e aplicações de logins remotos, mas alguns dos primeiros trabalhos sobre aplicações de rede avançada, na voz de pacote especial em 1970, deixou claro que, em alguns casos, perdas de pacotes não deve ser corrigida pelo TCP, mas deve ser deixado ao pedido de tratar. Isto levou a uma reorganização do TCP original em dois protocolos: o simples IP que provia apenas o endereçamento eo encaminhamento dos pacotes individuais eo TCP em separado, que estava preocupado com as características do serviço, tais como controle de fluxo e recuperação de pacotes perdidos. Para aquelas aplicações que não queriam os serviços de TCP, uma alternativa chamada User Datagram Protocol (UDP) foi adicionada a fim de proporcionar acesso direto ao serviço básico de IP.

Uma grande motivação inicial para ambos os ARPANET e da Internet foi a partilha de recursos - por exemplo, permitindo que os usuários nas redes de rádio pacote para acessar os sistemas de partilha de tempo ligado à ARPANET. Ligar os dois juntos foi muito mais econômica que a duplicação de caros computadores. No entanto, enquanto a transferência de arquivos eo login remoto (Telnet) foram aplicações muito importantes, o correio eletrônico teve o impacto mais significativo das inovações daquela época. E-mail fornecido um novo modelo de como as pessoas poderiam se comunicar uns com os outros, e mudou a natureza da colaboração, primeiro na construção da própria Internet (como discutido abaixo) e mais tarde para grande parte da sociedade.

Havia outras aplicações propostas no início da Internet, incluindo comunicação de voz (precursora da telefonia via Internet), vários modelos de compartilhamento de arquivos e discos, e os primeiros programas que mostraram o conceito de agentes (e, Naturalmente, os vírus). Um conceito-chave da Internet é que ela não foi projetada para apenas uma aplicação, mas como uma infra-estrutura geral, na qual novas aplicações podem ser concebidas, como aconteceu com o surgimento da World Wide Web. É da natureza de uso geral do serviço prestado pela TCP e IP que tornam isso possível.

http://blog.apogee.gr/files/globe_Europe.jpgProvando Ideias sobre o surgimento da Internet


DARPA fez três contratos para Stanford (Cerf), BBN (Ray Tomlinson) ea UCL (Peter Kirstein) para implementar TCP / IP (que foi simplesmente chamado TCP no trabalho de Cerf / Kahn, mas que continha ambos os componentes). A equipe de Stanford, liderada por Cerf, produziu uma detalhada especificação e dentro de aproximadamente um ano, haviam três implementações independentes de TCP que poderiam operar.

Este foi o início de longa experimentação e desenvolvimento para evoluir e amadurecer os conceitos de Internet e tecnologia. Começando com as três primeiras redes (ARPANET, Packet Radio e Packet Satellite) e suas comunidades iniciais de pesquisa, o ambiente experimental cresceu para incorporar essencialmente qualquer forma de rede e uma pesquisa muito ampla e de desenvolvimento comunitário. [REK78] A cada expansão, novos desafios surgiram.

As primeiras implementações de TCP foram feitas para sistemas de tempo grande, como a partilha Tenex e TOPS 20. Quando os computadores desktop apareceu pela primeira vez, pensou por alguns de que TCP foi grande e complexo demais para ser executado em um computador pessoal. David Clark e seu grupo de pesquisa no MIT trabalharam para mostrar que uma simples e compacta implementação de TCP. Eles produziram esta implementação, primeiro para o Xerox Alto (início da estação de trabalho pessoal desenvolvida em Xerox PARC) e depois para o IBM PC. Esta implementação foi completamente interoperáveis com outros TCPs, mas foi adaptada para a suíte de aplicativos e objectivos de desempenho do computador pessoal, e mostrou que estações de trabalho, bem como grandes sistemas de compartilhamento de tempo, pode ser uma parte da Internet. Em 1976, Kleinrock publicou o primeiro livro sobre a ARPANET. Ela incluía uma ênfase na complexidade dos protocolos e nas dificuldades que eles introduzem. Este livro foi importante na divulgação da crença de redes de comutação de pacotes para uma grande comunidade.

O desenvolvimento generalizado de LANs, PCs e estações de trabalho na década de 1980 permitiu que a Internet nascente para florescer. Tecnologia Ethernet, desenvolvida por Bob Metcalfe em Xerox PARC em 1973, é agora provavelmente a tecnologia de rede dominante na Internet e os PCs e estações de trabalho dos computadores dominante. Esta mudança de poucas redes com um número modesto de tempo compartilhado hosts (o modelo original ARPANET) e muitas redes resultou em uma série de novos conceitos e mudanças na tecnologia subjacente. Primeiro, isso resultou na definição de três classes de rede (A, B e C) para acomodar o alcance das redes. A classe representada redes de grande escala nacional (pequeno número de redes com grande número de hosts), Classe B representar redes de escala regional e de classe C passou a representar redes locais (grande número de redes com relativamente poucos servidores).

Uma grande mudança ocorreu como resultado do aumento da escala da Internet e os assuntos gerenciais associados. Para tornar mais fácil para as pessoas usarem a rede, nomes foram atribuídos, de modo que não era necessário lembrar endereços numéricos. Originalmente, havia um número bastante limitado de hosts, assim que foi possível manter uma tabela única de todos os servidores e seus nomes e endereços. A mudança para ter um grande número de redes geridas autonomamente (por exemplo, LANs) significou o fim da tabela única de hosts já não era viável, e os Domain Name System (DNS) foi inventado por Paul Mockapetris da USC / ISI. O DNS permitiu um mecanismo escalável distribuída para a resolução de nomes de servidores hierárquicos (por exemplo, www.acm.org) em um endereço de Internet.

O aumento do tamanho da Internet também desafiou a capacidade dos roteadores. Originalmente, havia um único algorítmo distribuído para roteamento que foi implementado uniformemente por todos os roteadores na Internet. Como o número de redes na Internet explodiu, este projeto inicial não poderia se expandir, se necessário, assim que foi substituído por um modelo hierárquico de roteamento com um Interior Gateway Protocol (IGP) usado dentro de cada região da Internet e um Exterior Gateway Protocol (EGP) usado para ligar as regiões. Este desenho permitiu que diferentes regiões usassem diferentes IGPs, de forma que diferentes requerimentos de custo, rápida configuração, robustez e escala pudessem ser acomodados. Não só o algoritmo de roteamento, mas o tamanho das tabelas de endereçamento acentuaram a capacidade dos roteadores. Novas abordagens para agregação de endereço, em especial classes inter-domain routing (CIDR), foram recentemente introduzidas para controlar o tamanho das tabelas de roteamento.

Como a internet evoluiu, um dos maiores desafios foi como propagar as mudanças para o software, particularmente software hospedeiro. DARPA dava suporte à UC Berkeley para investigar modificações para o sistema operacional Unix, inclusive incorporando o TCP / IP desenvolvida na BBN. Apesar de Berkeley mais tarde reescrito o código mais adequado ao sistema Unix, a incorporação do TCP / IP no Unix BSD provou ser um elemento crítico na dispersão dos protocolos na comunidade de investigação. Grande parte da comunidade de pesquisa CS começou a usar Unix BSD para seu ambiente de computação do dia-a-dia. Olhando para trás, a estratégia de incorporar protocolos Internet em um sistema operacional suportado para a comunidade de pesquisa foi um dos elementos-chave na adoção generalizada da Internet.

http://library.thinkquest.org/05aug/00669/en/history/software/unix.gif


Um dos desafios mais interessantes foi a transição do protocolo de servidor da ARPANET de NCP para TCP / IP a partir de 1 de janeiro de 1983. Esta foi uma "transição imediata, requisitando todos os servidores em conversão simultânea ou ser deixada em conta para se comunicar via mecanismos-hoc. Esta transição foi cuidadosamente planejada pela comunidade por vários anos antes que realmente aconteceu e foi muito fácil (mas resultou em uma distribuição de botões de dizer "Eu sobrevivi ao TCP / IP de transição").

TCP / IP foi adotado como padrão de defesa três anos antes, em 1980. Isto permitiu a defesa de começar a compartilhar da base tecnológica DARPA Internet e levou diretamente para a eventual separação das comunidades militares e não militares. Em 1983, ARPANET estava sendo usada por um número significativo de defesa de I & D e organizações operacionais. A transição da ARPANET de NCP para TCP / IP permitido que ele seja dividido em MILNET suportar os requisitos operacionais, ea ARPANET, apoiando as necessidades de investigação.

Assim, em 1985, a Internet já estava bem estabelecida como uma tecnologia de apoio a uma ampla comunidade de pesquisadores e desenvolvedores e começava a ser usada por outras comunidades para comunicações diárias pelo computador. O correio eletrônico está sendo amplamente utilizados em várias comunidades, frequentemente com sistemas diferentes, mas a interconexão entre diferentes sistemas de correio foi demonstrando a utilidade de comunicação eletrônica entre as pessoas.
Transição para a infra-estrutura generalizada

Ao mesmo tempo que a tecnologia Internet estava sendo experimentalmente validada e largamente utilizada por um conjunto de investigadores de ciência da computação, outras redes e tecnologias de rede estavam sendo perseguidos. A utilidade das redes computadorizadas - especialmente o correio eletrônico - demonstrada por DARPA e pelo Departamento de Defesa sobre a ARPANET não foi perdida em outras comunidades e disciplinas, de modo que no meio da década de 1970 redes de computadores começaram a surgir sempre que os fundos poderiam ser encontrados para o efeito. O Departamento E.U. de Energia (DoE), instituído MFENet para seus pesquisadores em energia de fusão magnética, após o Alto DoE de Energia Físicos respondeu edifício HEPNET. NASA Space Físicos seguiu com SPAN, e Rick Adrion, David Farber, and Larry Landweber CSNET estabelecido para o (académica e industrial) comunidade Ciência da Computação com um subsídio inicial da E.U. National Science Foundation (NSF). AT & divulgação T's free-wheeling do sistema operacional Unix USENET, baseada em UNIX "built-in protocolos de comunicação UUCP e, em 1981, Ira Fuchs e Greydon Freeman projetaram a BITNET, que ligou os computadores acadêmicos num e-mail", como imagens de cartão "paradigma.

http://ponad.pl/media/logotypy/bitnet%20logo.jpghttp://personalpages.manchester.ac.uk/staff/m.dodge/cybergeography/atlas/world_usenet_1986_large.gif
Imagem de Bitnet e Usenet.


Com a exceção da BITNET e da USENET, estas primeiras redes (incluindo ARPANET) tinham sido construídos de propósito - ou seja, fossem destinados, e largamente restritas a, comunidades fechadas de acadêmicos, não havia pressão, portanto, pouco espaço para as redes individuais fossem compatíveis e Na verdade, elas não eram. Além disso, tecnologias alternativas estavam sendo procuradas pelo segmento comercial, incluindo XNS da Xerox, DECNet e SNA IBM. 8 Restou à inglesa JANET (1984) e E.U. NSFNET (1985) programas para explicitamente anunciar seus intentos de servirem à comunidade educacional, independentemente da disciplina. Na verdade, uma condição para uma universidade E.U. para receber financiamento do NSF para uma conexão de Internet foi de que "... a ligação deve ser disponibilizado para todos os usuários qualificados no campus".

Em 1985, Dennis Jennings, da Irlanda, passou um ano na NSF liderando o programa da NSFNET. Ele trabalhou com a comunidade para ajudar a NSF tomar uma decisão crítica - que o TCP / IP seria obrigatória para o programa da NSFNET. Quando Steve Wolff chegou à NSFNET em 1986, ele reconheceu a necessidade de uma infraestrutura de rede de apoio geral da comunidade acadêmica e de pesquisa, juntamente com a necessidade de desenvolver uma estratégia para o estabelecimento de tais infra-estruturas com base em última análise, independente do federal direta financiamento. Políticas e estratégias foram adotadas (ver abaixo) para atingir esse fim.

National Science Foundation


NSF também decidiu suportar Internet da DARPA já existente de infra-estrutura organizacional, hierarquicamente arranjada pelo (então) Internet Activities Board (IAB). A declaração pública desta opção foi a autoria conjunta de Internet do IAB de Engenharia e Arquitetura das Forças e pela rede da NSF Grupo Técnico Assessor do RFC 985 (Requirements for Internet Gateways), que formalmente assegurou a interoperabilidade entre DARPA e NSF do Internet.

Além da seleção de TCP / IP para o NSFNET, agências federais fizeram e implementaram várias outras decisões políticas que definiram a Internet de hoje.

* As agências federais dividiram o custo da infra-estrutura comum, como os circuitos transoceânicos. Eles também apoiaram os pontos de interconexão para o tráfego entre agências, o Federal Internet Exchanges (FIX-E e FIX-W) construídas para este fim serviram como modelos para o Network Access Points e "* IX" que são características de destaque de hoje arquitetura da Internet.
* Para coordenar esta participação, o Conselho Federal Networking 9 foi formado. A FNC também colaborou com outras organizações internacionais, como a RARE na Europa, através do Comité de Coordenação de Pesquisa Intercontinental, CCIRN, para coordenar o apoio da Internet da comunidade mundial de pesquisa.
* Esta partilha e cooperação entre as agências sobre questões relacionadas com a Internet tem uma longa história. Um acordo sem precedentes entre 1981 Farber, exercendo funções de CSNET ea NSF, e Kahn DARPA, permitiu à infra-estrutura de tráfego CSNET ARPANET partes em uma estatística e não-metered-assentamentos de base.
* Posteriormente, em um modo similar, a NSF encorajou regionais (inicialmente acadêmicas) da NSFNET redes para buscar clientes comerciais, não-acadêmico, ampliar as suas instalações para atendê-los e explorar as resultantes economias de escala para reduzir os custos de subscrição para todos .
* No backbone da NSFNET - o segmento de escala nacional da NSFNET - NSF fez cumprir uma "Política de Utilização Aceitável (AUP) que proibiu o uso para fins não Backbone" de apoio à Investigação e Ensino ". O previsível (e prevista) resultado de encorajamento de tráfego comercial a nível local e regional, negando o seu acesso aos transportes à escala nacional, foi estimular o surgimento e / ou crescimento de redes privadas e competitivas redes de longa distância, tais como PSI, UUNET, ANS CO + RE e (depois) os outros. Este processo de aumento privada financiada para usos comerciais foi goleada fora iniciado em 1988 em uma série de NSF iniciadas as conferências em Harvard's Kennedy School of Government sobre "A Comercialização e Privatização da Internet" - e sobre os "com-priv" lista sobre a própria rede.
* Em 1988, um comitê do Conselho Nacional de Pesquisa, presidido por Kleinrock e com Kahn e Clark como membros, produziu um relatório encomendado pela NSF entitulado "Rumo a uma Rede Nacional de Pesquisa". Este relatório influenciou o então Senador Al Gore e anunciou as redes de alta velocidade que os alicerces de rede para o futuro superestrada da informação.
* Em 1994, um relatório do Conselho Nacional de Pesquisa, novamente presidido por Kleinrock (e com Kahn e Clark como membros de novo), intitulado "Realizando o Futuro da Informação: Internet and Beyond" foi lançado. Este relatório, encomendado pela NSF, foi o documento no qual um modelo para a evolução da superestrada da informação foi articulada e que teve um efeito duradouro sobre a maneira de pensar sobre a sua evolução. Ele antecipou as questões cruciais dos direitos de propriedade intelectual, ética, preços, educação, arquitetura e regulamentação para a Internet.
* A política de privatização da NSF culminou em abril de 1995, com a defunding do backbone da NSFNET. Os fundos recuperados foram (competitivamente), redistribuídos para redes regionais para compra de conectividade Internet à escala nacional das redes já numerosos, privado de longo curso.

O backbone fez a transição de uma rede construída de roteadores fora da comunidade de investigação (o Fuzzball "roteadores de David Mills) para equipamentos comerciais. Na sua vida 8 1 / 2 anos, o backbone cresceu de seis nodes com links de 56 kbps a 21 nós com vários links 45 Mbps. Ele tinha visto na internet crescem a mais de 50.000 redes em todos os sete continentes e no espaço exterior, com aproximadamente 29.000 redes nos Estados Unidos.

http://www.yourdictionary.com/images/computer/BACKBONE.GIF
Tal foi o peso do ecumenismo o programa da NSFNET e do financiamento (US $ 200 milhões entre 1986 e 1995) - e qualidade dos protocolos próprios - que, em 1990, quando a ARPANET foi finalmente decommissioned10, TCP / IP tinha suplantado e marginalizado a maioria dos outros de grande protocolos área rede mundial de computadores, e IP estava bem em seu caminho para se tornar o serviço de suporte para o Global Information Infrastructure.
O papel da documentação

A chave para o rápido crescimento da Internet tem sido o acesso livre e gratuito aos documentos básicos, especialmente as especificações dos protocolos.

Os inícios da ARPANET e da Internet na comunidade de pesquisa promoveu a tradição acadêmica de publicação de idéias e resultados. No entanto, o ciclo normal da publicação acadêmica tradicional era formal e devagar demais para a dinâmica troca de idéias essenciais para a criação de redes.

Em 1969, um passo importante foi tomado por S. Crocker (então na UCLA), em que institui a Request for Comments (ou RFC) série de notas. Esses memorandos foram destinados a ser uma forma rápida de distribuição de compartilhar idéias com outros pesquisadores. Na primeira, os RFCs eram impressos em papel e distribuídos via correio tradicional. Como o File Transfer Protocol (FTP) entrou em uso, as RFCs foram preparados como arquivos online e acessados via FTP. Agora, é claro, os RFCs são facilmente acessados através da World Wide Web em dezenas de sites ao redor do mundo. SRI, no seu papel de Network Information Center, manteve os diretórios online. Jon Postel atuou como RFC Editor, bem como gerir a administração centralizada de número de protocolo, papéis que ele continuou a jogar até sua morte, 16 de outubro de 1998

O efeito dos RFCs foi criar um loop de retroalimentação positiva, com idéias e propostas apresentadas em um RFC gerando outro RFC com mais idéias, e assim por diante. Quando algum consenso (ou pelo menos, um conjunto coerente de idéias) era atingido, um documento de especificação seria preparado. Estas especificações seriam então usadas como base para implementações em várias equipes de pesquisa.


Definição de RFC

RFC é a denominação dada aos documentos que especificam padrões e serviços para Internet. As RFCs constituem uma série de documentos que descrevem os padrões para as tecnologias usadas na Internet. As RFCs são numeradas sequencialmente, na ordem cronológica em que são escritas. Quando um padrão é revisado, as alterações são escritas numa RFC com um novo número.

RFC é um acrónimo para o inglês Request for Comments, que significa "solicitação de comentários", e são estes documentos que definem o conjunto de protocolos TCP/IP. Geralmente são escritos por empresas da área de redes ou por engenheiros de sistemas.  Um índice contendo todas as RFC's pode ser encontrado em http://www.faqs.org/rfcs/rfc-index.html. Do inglês, o acrónimo também pode significar Request for Change, ou Requisição de Mudança.



Ao longo do tempo, os RFCs se tornaram mais focados nos padrões de protocolo (a "oficial" caderno de encargos), apesar de ainda existir RFCs informativos que descrevem abordagens alternativas, ou fornecer informações básicas sobre protocolos e engenharia. Os RFCs são agora vistos como documentos de registro "na engenharia da Internet e as normas comunitárias.

O acesso aberto aos RFCs (grátis, se você tiver qualquer tipo de conexão com a Internet) promove o crescimento da Internet porque permite que especificações reais sejam usadas como exemplos em classes universitárias e por empreendedores desenvolvendo novos sistemas.

E-mail tem sido um fator significativo em todas as áreas da Internet, e que é certamente verdadeiro para o desenvolvimento de especificações de protocolos, padrões técnicos e de engenharia da Internet. As RFCs mais antigas apresentaram um conjunto de idéias desenvolvidas pelos pesquisadores em uma posição para o resto da comunidade. Depois de e-mail entrou em uso, o padrão de autoria mudou - os RFCs eram apresentados por co-autores com uma visão comum, independentemente da sua localização.

Exemplo - RFC 1918, que define os Endereços de Intranet

10.0.0.0 a Uma rede de endereços classe A.
10.255.255.255

172.16.0.0 a 16 redes contíguas de endereços classe B.
172.31.255.255

192.168.0.0 256 redes contíguas de endereços classe C.
192.168.255.255
REGRA - A RFC 1918 recomenda que os roteadores em redes que não estiverem usando um espaço de endereço privado, especialmente aqueles provedores de serviço Internet, devem configurar seu roteadores para rejeitar a informação de roteamento sobre as redes privadas.

O uso de listas de discussão especializados tem sido muito utilizado no desenvolvimento de especificações do protocolo, e continua a ser uma ferramenta importante. O IETF tem agora mais de 75 grupos de trabalho, cada um trabalhando num aspecto diferente da engenharia da Internet. Cada um destes grupos tem uma lista de discussão para debater os documentos de um ou mais projectos em desenvolvimento. Quando se chegar a consenso sobre um projecto de documento que pode ser distribuído como um RFC.

Como o rápido crescimento da Internet é alimentado pela percepção de sua capacidade de promover a partilha de informação, devemos compreender que o primeiro papel  da rede no compartilhamento de informações foi a partilha de informações sobre seu próprio desenho e operação através dos documentos RFC. Este método único para a evolução de novas capacidades da rede continuará a ser crítico na evolução futura da Internet.

Alguns Links Úteis sobre RFC

Download da Lista completa (em formato texto) de recomendações RFC

Searching and Retrieving RFCs from the RFC Editor Site - RFC Database:

Alternative RFC Repositories. Repositórios alternativos de documentação RFC:


A Internet é tanto uma coleção de comunidades como uma coleção de tecnologias, e seu sucesso é largamente atribuído à satisfação das necessidades básicas da comunidade, bem como utilizando a comunidade de uma forma eficaz para empurrar a infra-estrutura para a frente. Este espírito de comunidade tem uma longa história, começando com a ARPANET. Os pesquisadores da antiga ARPANET trabalharam numa comunidade fechada para conseguirem fazer as demonstrações iniciais da tecnologia de comutação de pacotes descrita anteriormente. Da mesma forma, o Packet Satellite, Packet Radio e vários outros programas de computador DARPA pesquisa científica foram contratante multi-atividades cooperadas que usavam pesadamente qualquer mecanismo disponível para coordenar seus esforços, começando com o correio eletrônico e acrescentando compartilhamento de arquivos, acesso remoto, e, finalmente, World capacidades Wide Web. Cada um destes programas formou um grupo de trabalho, começando com a ARPANET Network Working Group. Devido ao papel único que jogou ARPANET como infra-estrutura de apoio a vários programas de pesquisa, como a Internet começou a evoluir, a rede Grupo de Trabalho evoluiu para Internet Working Group.

No final dos anos 1970, reconhecendo que o crescimento da Internet foi acompanhado por um crescimento no tamanho da comunidade de pesquisa interessada e, portanto, uma maior necessidade de mecanismos de coordenação, Vint Cerf, então gerente do Programa Internet da DARPA, formou vários grupos de coordenação - um Conselho de Cooperação Internacional (ICB), presidido por Peter Kirstein da UCL, para coordenar as atividades com alguns países europeus envolvidos no programa Packet Satellite investigação, uma pesquisa do Internet Group, que era um grupo, inclusive fornecendo um ambiente para troca de informação geral, e uma Internet Configuration Control Board (BICE), presidido por Clark. O ICCB era um órgão de convite para assessorar Cerf na gerência da florescente Internet.

Em 1983, quando Barry Leiner passou a gerenciar o programa de pesquisa da Internet na DARPA, ele e Clark reconheceram que o crescimento contínuo da comunidade Internet demandava uma reestruturação dos mecanismos de coordenação. O ICCB foi dissolvida e em seu lugar uma estrutura de Forças-Tarefa foi formada, cada um focado em uma área particular da tecnologia (por exemplo, roteadores, end-to-end protocolos, etc.) A Internet Activities Board (IAB) foi formado com os presidentes da Força Tarefa. É claro foi apenas uma coincidência que os presidentes das forças-tarefa foram as mesmas pessoas que os membros do antigo ICCB e Dave Clark continuou a agir como presidente.

Depois de algumas mudanças no IAB, Phill Gross se tornou o presidente da revitalizada Internet Engineering Task Force (IETF), no momento em apenas um dos IAB Task Forces. Como vimos acima, em 1985 houve um crescimento enorme no lado mais prático de engenharia / da Internet. Este crescimento resultou em uma explosão na participação nas reuniões do IETF, e Gross teve que criar infra-estrutura para o IETF na forma de grupos de trabalho.

Este crescimento foi complementado por uma grande expansão na comunidade. Já não era DARPA o único jogador importante no financiamento da Internet. Além NSFNet e os E.U. várias actividades internacionais e financiados pelo governo, o interesse no setor comercial estava começando a crescer. Também em 1985 Kahn e Leiner deixaram a DARPA e houve uma diminuição significativa na atividade de Internet na DARPA. Como resultado, o IAB perdeu seu patrocinador e progressivamente assumiu o papel de liderança.

O crescimento contínuo, resultando em nova sub-estruturação do IAB e do IETF. O IETF combinou Grupos de Trabalho em Áreas, e designou Diretores de Áreas. O Internet Engineering Steering Group (IESG) foi formado com Diretores de Área. A IAB reconheceu a crescente importância do IETF e reestruturou o processo de padrões para explicitamente reconhecer o IESG como o grupo principal de revisão das normas. O IAB também foi reestruturado de forma que o resto das forças-tarefa (além do IETF) fossem combinadas numa Força-Tarefa de Pesquisa Internet (IRTF), presidida por Postel, com as forças-tarefa renomeadas como Grupos de Pesquisa.

O crescimento do setor comercial trouxe uma crescente preocupação sobre as normas de processo em si. A partir do início dos anos 1980 e continua até hoje, a Internet cresceu além de suas raízes pesquisa principalmente para incluir tanto uma vasta comunidade de utilizadores e aumento da atividade comercial. Maior atenção foi dada para tornar o processo justo e aberto. Isso, combinado com uma reconhecida necessidade de apoio da comunidade da Internet, eventualmente levou à formação da Internet Society em 1991, sob os auspícios da Kahn Corporation for National Research Initiatives (CNRI) ea liderança de Cerf, então com CNRI.

Em 1992, outra reorganização ocorreu. Em 1992, o Internet Activities Board foi re-organizada e re-nomeou o funcionamento da Internet Architecture Board sob os auspícios da Sociedade da Internet. A mais "colegas" relação foi definida entre o novo IAB ei IESG, com o IETF eo IESG tendo uma maior responsabilidade para a aprovação das normas. Finalmente, uma relação cooperativa e mutuamente apoiadora foi formada entre o IAB, o IETF ea Internet Society, com a Internet Society tomando como objetivo a prestação de serviço e outras medidas que possam facilitar o trabalho do IETF.

O recente desenvolvimento e implantação generalizada da World Wide Web trouxe consigo uma nova comunidade, como muitas das pessoas que trabalham na WWW não ter pensado em si mesmos como são pesquisadores e desenvolvedores. Uma nova organização coordenadora foi formada, a World Wide Web Consortium (W3C). Inicialmente liderado pelo laboratório do MIT para a Ciência da Computação por Tim Berners-Lee (o inventor da WWW) e Al Vezza, W3C tomou a responsabilidade de evoluir com vários protocolos e padrões associados com a web.

Assim, há mais de duas décadas de atividade na Internet, temos visto uma evolução constante das estruturas organizacionais desenhadas para suportar e facilitar uma sempre crescente comunidade, trabalhando colaborativamente em assuntos ligados à Internet.

Inicio da comercialização da Tecnologia Internet.

A comercialização da Internet envolveu não somente o desenvolvimento da concorrência e o surgimento da propria Internet, e os serviços de rede privada, mas também o desenvolvimento de produtos comerciais implementando a tecnologia Internet. No início de 1980, dezenas de vendedores foram incorporando o TCP / IP em seus produtos porque viram compradores para a abordagem de redes. Infelizmente, eles não tiveram informação sobre como a tecnologia deveria funcionar e como os clientes planejavam usar essa tecnologia para sua propria rede. Muitos viram isto como um incômodo e demandava mais custos, que tinha que ser colado sobre as suas próprias soluções proprietárias de redes: SNA, DECNet, Netware, NetBios. O Departamento de Defesa americano tinha autorizado o uso do TCP / IP em muitas de suas compras mas tinha dado pouca orientação aos seus vendedores em relação a como construir produtos TCP/ IP útil.

Em 1985 Dan Lynch, reconhece essa falta de disponibilidade de informação e formação adequada,  em cooperação com o IAB realizaram um workshop de três dias, para os vendedores aprenderem como o TCP / IP funciona e também sobre o que ele ainda não podia fazer bem. Os palestrantes vieram em sua maioria da comunidade de pesquisa da DARPA, que tinha desenvolvido os protocolos e os usavam no dia-a-dia. Cerca de 250 pessoas  chegaram a ouvir a 50 inventores e pesquisadores. Os resultados foram surpresas em ambos os lados: os vendedores ficaram surpresos ao descobrir que os inventores eram tão abertos sobre a forma como as coisas funcionavam (e que ainda não funciona) e os inventores ficaram felizes em ouvir sobre novos problemas que não tinham considerado mas que estavam sendo descobertos pelos vendedores em campo. Assim, uma discussão em dois sentidos foi formada, que durou mais de uma década.

Após dois anos de conferências, tutoriais, encontros e workshops, um evento especial foi organizado, que convidou os fornecedores e produtos  TCP / IP tudo deu certo  o suficiente para se unirem em um quarto por três dias para mostrar o quão bem eles trabalharam juntos e também correu através da Internet. Em setembro de 1988, o primeiro Interop trade show nasceu. 50 empresas fizeram o corte. 5.000 engenheiros de corporações consideradas clientes potenciais vieram para ver se tudo funcionava como prometido. Ele fez. Por quê? Porque os fabricantes trabalharam duro para assegurar que os produtos de todos operariam com todos os outros produtos -, mesmo com aqueles de seus concorrentes. A feira Interop tem crescido imensamente desde então e hoje é realizado em 7 localidades ao redor do mundo a cada ano para uma platéia de mais de 250.000 pessoas que vêm para saber quais produtos de trabalho uns com os outros de uma forma perfeita, aprender sobre os mais recentes produtos, e discutir as mais recentes tecnologias.

Em paralelo aos esforços de comercialização que foram salientados pelas atividades de interoperabilidade, os fornecedores começaram a participar nas reuniões do IETF, realizados 3 ou 4 vezes por ano para discutir novas idéias para extensões do conjunto de protocolos TCP / IP. Começando com algumas centenas de pessoas na maior parte da academia e pago pelo governo, estas reuniões já muitas vezes ultrapassa um milhar de pessoas, a maioria da comunidade de fornecedores e pago pelos próprios participantes. O grupo auto-selecionado evolui o TCP / IP de forma mutuamente cooperativa. A razão é tão útil é que ele é composto de todos os interessados: pesquisadores, usuários finais e fornecedores.

A gestão da rede é um exemplo da interação entre a pesquisa e as comunidades comerciais. No início da Internet, a ênfase era definir e implementar protocolos que atingiam a interoperabilidade. Como a rede cresceu, ficou claro que procedimentos específicos usados para gerenciar a rede não funcionava direito devido a complexidade. A configuração manual de tabelas foi substituída pela distribuição de algorítmos automatizados e melhores instrumentos foram criados para isolar falhas. Em 1987 tornou-se claro que era necessário um protocolo que permitisse que os elementos da rede, como roteadores, remotamente gerenciados de maneira uniforme. Vários protocolos foram então propostos, incluindo Simple Network Management Protocol ou SNMP (concebidos, como o próprio nome sugere, para a simplicidade e derivado de uma proposta anterior chamada SGMP), HEMS (um design mais complexo) eo CMIP (da comunidade OSI). Uma série de encontros levou à decisão de que HEMS seria desconsiderado como candidato para a normalização, a fim de ajudar a resolver a contenda, mas que trabalham em ambos o SNMP eo CMIP prosseguiria, com a idéia de que o SNMP poderia ser uma mais perto solução de longo prazo eo CMIP uma abordagem de longo prazo. O mercado poderia escolher o que achasse mais adequado. SNMP é agora usado quase universalmente como gerência de rede.

Nos últimos anos, temos visto uma nova fase de comercialização. Fornecedores , esforços comerciais composto, principalmente, fornecendo os produtos básicos de rede e prestadores de serviços que oferece a conectividade e serviços básicos da Internet. A Internet tornou-se quase uma commodity "de serviço, e muito dos últimos foi sobre a utilização desta infra-estrutura global de informação para suporte de outros serviços comerciais. Isto tem sido tremendamente acelerado pela rápida e ampla adoção dos browsers e da World Wide Web, permitindo aos usuários acesso fácil a informações vinculadas em todo o globo. Os produtos estão disponíveis para facilitar o fornecimento de informações e de muitos dos mais recentes desenvolvimentos na tecnologia têm sido destinadas a proporcionar cada vez mais sofisticados serviços de informação em cima dos dados de comunicações de Internet básica.

História do Futuro

Em 24 de outubro de 1995, o FNC aprovou por unanimidade uma resolução definindo o termo Internet. Esta definição foi desenvolvida em consulta com membros da Internet e comunidades de direitos de propriedade intelectual. RESOLUÇÃO: O Conselho Federal Networking (FNC) concorda que o seguinte texto reflete a nossa definição do termo "Internet". "Internet" refere-se ao sistema de informação global que - (i) é logicamente ligados entre si por um espaço de endereço exclusivo baseado no protocolo Internet (IP) ou suas subsequentes extensões / follow-ons, (ii) é capaz de suportar comunicações usando o Transmission Control Protocol / Internet Protocol (TCP / IP suite) ou suas extensões posteriores / follow-ons, e / ou outros protocolos IP-compatível, e (iii) fornece, usa ou torna acessível, seja público ou privado, de alto nível serviços em camadas sobre as comunicações e infra-estruturas aqui descritas.

A Internet mudou muito nas duas décadas desde que entrou em existência. Foi concebido na época do time-sharing, mas sobreviveu à era dos computadores pessoais, cliente-servidor e computação peer-to-peer e os computadores da rede. Ele foi projetado antes LANs existia, mas que já acomodou nova tecnologia de rede, bem como o ATM mais recente e serviços de comutação de frame. Foi concebido como suporte de uma gama de funções de compartilhamento de arquivos e login remoto para o compartilhamento de recursos e colaboração, e gerou o correio electrónico e, mais recentemente, o World Wide Web. Mas o mais importante, ele começou como a criação de um pequeno grupo de pesquisadores dedicados, e cresceu para ser um sucesso comercial com bilhões de dólares de investimento anual.

Não se deve concluir que a Internet já terminou, que a Internet esta pronta. A Internet, apesar de uma rede de nome e de geografia, é uma criatura de computador, e não a rede tradicional de telefonia ou televisão e indústria. Será e deve continuar a mudar e evoluir na velocidade da indústria do computador, se quiser continuar a ser relevante. Isso está mudando agora de prestar esses serviços novos como o transporte em tempo real, a fim de apoiar, por exemplo, áudio e vídeo. A disponibilidade de rede difusa (ou seja, a Internet), juntamente com a computação acessível e poderosa e comunicações em formato portátil (ou seja, computadores portáteis, pagers de duas vias, PDAs, telefones celulares), está tornando possível um novo paradigma de computação.

Esta evolução nos trará novas aplicações - telefone e Internet, televisão via Internet. A Internet está evoluindo para permitir formas mais sofisticadas de tarifação e recuperação dos custos, uma condição dolorosa, talvez neste mundo comercial. Está mudando para acomodar mais uma geração de tecnologias de rede subjacente com diferentes características e necessidades, o acesso residencial de banda larga via satélite. Novos modos de acesso e novas formas de serviço gerarão novas aplicações, que por sua vez vai conduzir a evolução da própria rede.

A questão mais presente para o futuro da Internet não é como a tecnologia vai mudar, mas como o processo de mudança e evolução em si serão gerenciados. Com o sucesso da Internet tem vindo a proliferação das partes interessadas, agora com uma dimensão económica, bem como um investimento intelectual na rede. Vemos agora, no debate sobre o controle do espaço de nomes de domínio e forma de os endereços IP de próxima geração, uma luta para encontrar a próxima estrutura social que vai orientar a Internet no futuro. A forma da estrutura que será mais difícil de encontrar, dado o grande número de interessados. Ao mesmo tempo, a indústria se esforça para encontrar a justificação económica para o grande investimento necessário para o crescimento futuro, por exemplo, para atualizar o acesso residencial a uma tecnologia mais adequada. Se a Internet tropeça, não será porque nos falta a tecnologia, visão ou motivação. Será porque não podemos definir uma direção e marchar coletivamente para o futuro.


#Timeline
Linha do Tempo



UM POUCO MAIS DE HISTÓRIA DA INTERNET, HISTÓRIA DE ENIAC




O ENIAC foi concebido pelos engenheiros John Mauchly e John Presper Eckert e construído por uma equipe ad hoc integrando elementos do US Army e da Moore School. A causa do desenvolvimento do projecto ENIAC foi a necessidade do Ballistic Research Laboratory calcular e editar rapidamente tabelas balísticas. Esta necessidade tinha sido evidenciada durante a WW II – segunda Guerra Mundial 1939 – 1945 - pela elevada velocidade dos alvos aéreos, pelos diversos “palcos de operações” e pela utilização de pequenos calculadores analógicos acoplados às armas. Esses cálculos balísticos eram realizados com o recurso a calculadores electromecânicos, nomeadamente o Kelvin-Bush Digital Analyzer. No entanto uma multiplicação de dois números com dez algarismos demorava cerca de 10 a 15 segundos. A mesma operação executada num calculador da Bell Telephone - calculador electromecânico binário (Stibitz)- era realizada num segundo. O cálculo de uma trajectória balística envolvia a execução de cerca de 750 multiplicações, o que consumia cerca de 10 a 20 minutos de trabalho de uma Digital Analyzer. Uma tabela balística típica envolvia o cálculo de 2.000 a 4.000 trajectórias. Durante a WW II a Moore School colaborou, nesta matéria, com o Ballistic Research Laboratory formando pessoal e apoiando as operações. Dessa estreita colaboração nasceu, naturalmente, a escolha da Moore School para sede do projecto ENIAC.

O ENIAC era um calculador electrónico construído para uma finalidade bem definida, utilizando algoritmos bem conhecidos. Basicamente dispunha de uma memória, um conjunto de 30 painéis, cada um dos quais executava uma ou mais funções necessárias ao cálculo automático, acumuladores e um dispositivo denominado constant transmitter que se conectava a leitores e perfuradores de cartões IBM. As tabelas balísticas eram editadas numa Tabuladora IBM. Era uma máquina paralela executando as operações em codificação decimal.

Herman Goldstine era o oficial de ligação entre a Moore School e o Ballistic Research Laboratory.
Durante o verão de 1944, Herman Goldstine esperava, na estação de Aberdeen - USA -, um combóio que o transportasse para Philadelphia quando reparou que von Neumann caminhava na mesma plataforma dirigiu-se-lhe e apresentou-se. De imediato von Neumann encetou a conversa e pouco depois mostrou interesse em ver o ENIAC. Em 2 de Novembro de 1944 Goldstine e a esposa visitaram von Neumann em Philadelphia tendo-se hospedado na sua casa. Desse encontro nasceu entre ambos uma amizade que só terminou com a morte de von Neumann em 8 de Fevereiro de 1957. A primeira visita de von Neumann ao ENIAC realizou-se em 7 de Agosto de 1944. Nesse mesmo mês enviou a Goldstine um memorando com 5 pontos onde recomendava que um novo calculador electrónico deveria:

 

1. ter mais válvulas do que o quantitativo que estavam a utilizar no ENIAC;

2. ser capaz de tratar vários tipos de problemas, o que não era fácil de implementar no actual ENIAC;

3. ser capaz de armazenar, com grande velocidade grandes quantitativos de dados numéricos;

4. realizar a preparação para resolver um novo problema num curto espaço de tempo;

5. ser mais pequeno que o actual ENIAC.



A partir daquela data von Neumann passou a visitar regularmente a Moore School e a equipa que trabalhava na sua construção.

Em Março de 1945 von Neumann apresenta um primeiro relatório em que denomina o novo calculador electrónico pela sigla EDVAC - Electronic Discret Variable Computer - e em Julho do mesmo ano apresenta o seu segundo relatório, contendo 101 páginas, denominado First Draft of a Report on the EDVAC onde descreve a “arquitectura” do novo calculador. O ENIAC, sem que lhe tenham sido introduzidas quaisquer recomendações contidas nos relatórios de von Neumann, começou a funcionar em Novembro de 1945.

Entretanto Mauchly e Eckert começaram a construção do EDVAC tendo como base a promessa de um orçamento de US dollar $105,600.

Em Outubro de 1946 Mauchly e Eckert abandonam o projecto e fundam a sua própria empresa - Eckert - Mauchly Computer Corporation -. Na sua empresa constróiem um protótipo, segundo a Arquitectura von Neumann, que denominam BINAC - Binary Automatic Computer


A guerra produziu dois grandes obstáculos que foram resolvidos por máquinas digitais. Em com a necessidade dos E.U.A em adquirir arma de fogo, mesas de navegação e rastreamento e dispositivos de pontaria para armas anti-aviões, em 1944, resultou no desenvolvimento da primeira grande calculadora electromecânica automática, o Harvard Mark I construído pela IBM. Note que ele não tinha um programa embutido, o manual de instruções foram impulsionadas por uma fita de papel. A segunda necessidade foi para quebrar códigos alemão (e japonês) com rapidez suficiente para ser útil. Este trabalho foi realizado por cientistas britânicos de Bletchley, e que culminou com a construção do colosso que se tornou operacional em 1944. Este foi mais avançado do que o Harvard Mark I, mas o seu subsequente impacto foi limitado pelo fato de que sua existência era um segredo até 1970.

Mark 1   

Harvard Mark I                               Collossus 1944


A guerra tinha produzido um considerável avanço na tecnologia, mas, basicamente, estávamos ainda na fase de grandes e complexas máquinas de calcular. O desafio era produzir um dispositivo com uma memória interna de armazenamento, um salto que nos levaria de calculadoras aos computadores adequada. A guerra também criou um grupo de cientistas com experiência na computação digital, e trabalho no avanço da tecnologia avançou rapidamente em ambos os lados do Atlântico. Se estamos procurando o primeiro computador moderno, o crédito deve ir para a Universidade de Manchester, cujo protótipo, Baby, tornou-se operacional em Junho de 1948, logo seguido por uma escala completa do modelo operacional, Manchester Mark I. O próximo passo importante, a incorporação de uma memória de acesso aleatório veio três anos mais tarde com o Whirlwind construído no MIT.

 

Manchester Mark I (1949)                        Whirlwind (1951)



Até agora, os avanços do computador foi desenvolvido tanto para diversos ramos de governo ou como unidades protótipo nas universidades. Em 1951 Remington Rand entrou no mercado com o computador UNIVAC, em grande parte em um esforço para recuperar os custos superiores aos previstos no seu contrato com o governo E.U. que originalmente tinha encomendado o dispositivo para o censo. Um ano depois, começou a produzir ready-made de software (embora o termo não entraram em uso até que uma década mais tarde). IBM, que anteriormente tinha especializada em sistema de cartão, entrou no mercado com sua série de 700 em 1953. Oferta de 60 por cento de desconto para usos educacionais, a IBM rapidamente passou a dominar o mercado universitário. Os computadores foram agora se espalha rapidamente através dos negócios e as comunidades científicas, tornando-se cada vez mais rápido e de fácil utilização cada vez mais amigável. Eles também foram se tornando menores. Até o final da década de 1950, transistores estavam começando a derrubar os tubos de vácuo pesados e em 1958/59, o primeiro circuito "integrado" em um pedaço de silício produzido - cinco componentes em um pedaço 1 cm de comprimento. O 'chip' nasce e entrou em produção comercial em 1961.

   IBM 7090 (1961)

Em 1961 a IBM introduziu um 'Time Sharing System Compatible "em sua série 7090/94 que permitiu terminais separados em diferentes escritórios para acessar o mesmo hardware. O conceito de "acesso remoto" a um "host" do computador tornou-se realidade. E se você poderia ligar a um computador a partir de um terminal de trabalho, por que não a outra .... Por que não a todos?


Dados retirados de:





Comments