Olá, estudante! Esta lição continuará te ajudando a entender como o nosso mundo digital se formou. Depois de um “mergulho” na história, agora, conheceremos as conquistas, as invenções e as inovações realizadas há apenas 80 anos, aproximadamente. Você perceberá que, principalmente a partir dos anos de 1970, a evolução foi bastante rápida, sobretudo, quando a Internet começou a chegar mais fortemente às pessoas.
Talvez, muitos nomes que você leia sejam conhecidos e até te inspiram. Por isso, ao final desta lição, você poderá ter uma prova ainda mais próxima de que a área de computação foi e continuará sendo a mais transformadora de toda a história. Afinal, os computadores estão presentes em nosso dia a dia há algum tempo. A cada dia que passa, essa presença aumenta. O desenvolvimento da tecnologia da computação evolui rapidamente. Portanto, conhecer o histórico é importante para entender o modo como os computadores, que, antes, eram máquinas gigantes, tornaram-se equipamentos possíveis de serem segurados na palma das mãos.
A computação teve um avanço e um desenvolvimento muito grande nos últimos 70/80 anos. Esse avanço teve algumas causas interessantes, tais como a Segunda Guerra Mundial, a Guerra Fria e a Corrida Espacial. Isso é interessante, porque, à medida que os anos passam e as tecnologias avançam, há uma oferta maior de equipamentos, o que faz com que os computadores sejam mais populares.
Para se ter uma ideia, no início dos anos de 1980, um computador era comprado quase pelo preço de uma casa ou de um carro muito caro. Nas empresas, era apenas um computador que existia para realizar as operações. Hoje, nas empresas, cada pessoa tem um computador disponível para uso. Se ele não estiver disponível, não há como aquela pessoa desenvolver as atividades dela, na maioria das vezes. Considere uma grande loja de departamentos que recebe cerca de 500 pessoas por dia, de segunda à sexta-feira, e 1.500 pessoas aos finais de semana. Há apenas um caixa (computador) para passar a compra de todos os clientes. Atualmente, isso seria inviável, não é mesmo?
Assim, a computação provocou uma transformação na maneira como as pessoas trabalham. Isso implica na construção de sistemas que cada vez mais possam controlar os dados e gerar informações para as instituições por meio do uso das pessoas. Por isso, é importante entendermos a moderna geração de computadores e como ela foi construída ao longo do tempo.
Se você precisar citar alguns grandes nomes da computação ou as principais ferramentas ou tecnologias da computação, tenho certeza de que alguns nomes a seguir aparecerão em sua lista:
Steve Jobs
Bill Gates
Mark Zuckerberg
Jeff Bezos
Elon Musk
TikTok
YouTube
Além disso, temos uma série de filmes que contam como o nosso mundo digital foi formado ou relatam os eventos que impactaram a evolução da computação moderna:
O jogo da imitação
Estrelas além do tempo
Piratas do Vale do Silício
A rede social
Isso somente revela como a tecnologia tem sido importante em nosso cotidiano. Diante disso, quais seriam as oportunidades de atuação na área de computação nos próximos anos? Quais são as áreas com mais necessidade de profissionais? Que tipo de atuação se espera dos profissionais de computação?
As respostas a essas perguntas têm variado ao longo do tempo. Nos anos de 1980, esperava-se que o profissional de computação soubesse os aspectos mais técnicos, isto é, de computação. Nos anos de 1990, começou-se a pensar em um profissional que conseguisse levar a digitalização, o controle e a geração da informação a todos os departamentos de uma empresa. Nos anos 2000, o objetivo era ter um profissional que conseguisse ter o conhecimento de computação, ampliasse a computação para todos os âmbitos da empresa, inclusive, na montagem de uma estrutura computacional local, e pensasse sobre o negócio da empresa.
Atualmente, a maior demanda é fazer com que, por meio da computação, a empresa consiga fazer negócios. Agora, não importa mais onde está a estrutura computacional e/ou se é a equipe da empresa que faz e mantém o sistema que ela utiliza. O foco é explorar as tecnologias para facilitar a vida do cliente da empresa e a realização do negócio.
Por muitos anos, os computadores foram utilizados apenas como máquinas para o comércio, as empresas, o governo e os laboratórios de pesquisa. A partir dos anos de 1930, a expressão “máquina computacional” começou a ser usada como uma explicação para uma máquina que realiza o trabalho de um profissional de computador. O termo “computador” surge na próxima década, ou seja, 1940, em conjunto com o nome de Alan Turing, conhecido como o pai da Ciência da Computação. Foi ele que inventou a Máquina de Turing e o Teste de Turing.
Em 1936, Alan Turing e Alonzo Church formalizaram o conceito de algoritmo, definindo os limites daquilo que pode ser computado, e estabeleceram um modelo puramente mecânico para a computação. Isso foi usado para definir que qualquer cálculo pode ser realizado por um algoritmo executado em um computador, desde que haja tempo e armazenamento suficientes para tal.
As contribuições de Turing são muito importantes para a computação e para a história. Por exemplo, foram Turing e a equipe dele que conseguiram decifrar a codificação dos computadores alemães durante a Segunda Guerra Mundial. Isso foi decisivo para a vitória dos aliados e a derrota dos nazistas.
Mas e a Máquina de Turing? O que ela era? Ela era uma ideia teórica, ou seja, não era possível de ser construída. No entanto, é possível entender o conceito dela e aplicá-lo. De acordo com Guimarães e Lages (2005, p. 44), o funcionamento dela acontece da seguinte maneira:
Uma fita que é dividida em células, uma ao lado da outra.
Cada célula contém um símbolo de algum alfabeto finito.
O alfabeto contém um símbolo especial branco e um ou mais símbolos adicionais.
Assume-se que a fita é arbitrariamente extensível para a esquerda e para a direita, isto é, a máquina de Turing possui tanta fita quanto é necessário para a computação.
Assume-se também que células que ainda não foram escritas estão preenchidas com o símbolo branco.
Um cabeçote, que pode ler e escrever símbolos na fita e mover-se para a esquerda ou para a direita.
Um registrador de estados, que armazena o estado da máquina de Turing.
O número de estados diferentes é sempre finito.
Há um estado especial denominado estado inicial com o qual o registrador de estado é inicializado.
Uma tabela de ação (ou função de transição) que diz à máquina que símbolo escrever, como mover o cabeçote e qual será seu novo estado, dados o símbolo que ele acabou de ler na fita e o estado em que se encontra.
Se não houver entrada alguma na tabela para a combinação atual de símbolo e estado então a máquina para.
Esse modelo pode simular a computação de qualquer algoritmo executado em um computador moderno. Além disso, contribuiu com o Teste de Turing, entendido como o princípio da Inteligência Artificial. O teste funcionava da seguinte maneira:
Uma pessoa, em uma sala, faria uma interação por meio de um computador com outro computador. Ela, então, com base nessa interação, teria que descobrir se quem estava respondendo às perguntas era outra pessoa ou uma máquina.
Outro nome que devemos citar é o do matemático húngaro John Von Neumann, que viveu entre 1903 e 1957. Ele criou a ideia de um projeto lógico de um computador que é chamado de Arquitetura de von Neumann. Nesse projeto, as instruções são armazenadas em uma estrutura de memória. Isso era um conceito totalmente novo, uma vez que, até então, as máquinas operavam de acordo com o que era transmitido em tempo real, e não acessando um dispositivo com algo armazenado. A maioria dos computadores, hoje, segue o projeto proposto por Von Neumann.
O primeiro "computador pessoal" foi o Kenbak-1, lançado em 1971. Ele tinha 256 Bytes de memória.
Em 1975, surge o Altair 8800, um computador pessoal baseado na CPU Intel 8080.
Em 1976, Steve Jobs e Steve Wozniak iniciaram uma empresa que mudaria o rumo do comportamento do mundo e dos negócios: a Apple. Ambos criaram um projeto de computador pessoal chamado Apple I. Alguns meses depois, foi lançado o primeiro microcomputador como conhecemos hoje, o Apple II. O equipamento já vinha com teclado e era capaz de gerar gráficos coloridos.
Em 1980, a International Business Machines (IBM) criou um grupo de 12 engenheiros que construíram o IBM-PC (Personal Computer). Ela recorreu à Microsoft para que houvesse um sistema operacional. A Microsoft, por sua vez, ofereceu um Sistema Operacional para a IBM chamado DOS (Disk Operating System ou, em português, Sistema Operacional de Disco).
Depois disso, a Microsoft criou o PC-DOS por meio de uma adaptação do DOS. A definição das gerações dos computadores varia de acordo com o que se pensa no momento da categorização. Entretanto, podemos pensar nisso com base na evolução do hardware e do software:
Os computadores de primeira geração (1945–1959) usavam válvulas eletrônicas e, geralmente, realizavam apenas uma tarefa por vez.
A segunda geração (1959-1964) já apresenta os transístores e os circuitos impressos.
A terceira geração de computadores (1964–1970) já trouxe os circuitos integrados e os sistemas operacionais.
A quarta geração, de 1970 até 1981, trouxe melhorias nas tecnologias existentes, principalmente por meio de computadores com maior poder de processamento, confiabilidade e execução de multitarefas.
O termo “quinta geração” envolve Inteligência Artificial (IA), sistemas especialistas e linguagem natural.
Atualmente, fala-se muito sobre a conectividade. Todas as ferramentas e os serviços estão disponibilizados em um único equipamento. A computação passa a incluir telefones celulares, aparelhos de televisão, tablets e relógios. Além disso, não há mais a dependência de espaço físico do dispositivo, porque há serviços na nuvem que permitem acesso de qualquer parte do mundo, bastando conexão à Internet.
A grande mudança, nos últimos anos, tem sido o uso dos smartphones como principal dispositivo computacional. Eles se tornaram a principal ferramenta de trabalho para a maioria das pessoas e a principal ferramenta para o acesso à Internet e para o entretenimento. A convergência digital dos serviços para esse tipo de plataforma é outro aspecto que alterou bastante a forma de fazer negócio. Muitas empresas foram construídas com base em aplicativos para esse tipo de plataforma.
A convergência alterou profundamente a forma de fazer negócios e de se comunicar com as pessoas. No passado, os negócios tradicionais eram complicados e exigiam um alto investimento para se criar uma empresa. Suponha que você quisesse entrar no ramo de hospedagens. Você precisaria, primeiro, de um prédio com muitos quartos, comprar roupa de cama, TVs, camas, guarda-roupas, ar-condicionado etc. Em outras palavras, precisaria de um alto investimento, não é verdade?
Agora, pense na ideia de negócio do Airbnb. Caso você ainda não conheça, trata-se de uma plataforma on-line de aluguel de hospedagens. Dessa forma, permite que qualquer pessoa disponibilize ou reserve acomodações em todo o mundo. Tudo isso é feito por meio dos cadastros das pessoas que querem alugar uma casa, um quarto ou um cômodo. Assim, é possível que qualquer pessoa empreenda no ramo de hospedagem.
Pense, agora, em quem modelou esse negócio de hospedagem. Podemos transpor a mesma noção para a Netflix, a Uber e a Ifood. Elas, simplesmente, por meio da tecnologia, repensaram todo o modelo de negócio. As empresas, hoje, esperam isso dos funcionários: a promoção de boas ideias, com objetivo de alavancar, revolucionar e/ou transformar o negócio. Não é à toa que muitas delas têm criado departamentos de inovação com esse fim.
Algumas organizações, quando têm uma boa ideia no mercado, mesmo vindo de outras empresas ou do próprio departamento de inovação, optam por iniciar esse negócio como uma nova empresa, com uma estrutura própria, visando ao crescimento.
Ainda, há instituições que buscam oportunidades de mercado e, ao se depararem com essa possibilidade, acabam realizando uma parceria, para que o negócio seja desenvolvido com o apoio do conhecimento, da tecnologia ou da inovação de forma compartilhada.
A computação moderna contou com a colaboração de várias pessoas. Alguns grandes nomes são de pessoas ainda vivas e que contribuíram bastante para o mundo atual. O que é muito interessante é observar que alguns deles iniciaram a carreira como programadores e tiveram uma ideia diferenciada. Essa é uma possibilidade intrigante, pois constatamos que a programação auxilia bastante a ser mais criativo e a pensar de maneira mais lógica.
Em muitos países, várias escolas iniciaram o ensino de programação para as crianças ainda na Educação Infantil. A razão disso, provavelmente, é porque o mercado de trabalho para o desenvolvimento de tecnologias nunca esteve tão aquecido. Muitas empresas têm procurado até mesmo criar programas para capacitar as pessoas a trabalhar com o desenvolvimento, não importando se tiveram uma experiência anterior, ou não.
Assim, ao pensar nas possibilidades futuras de atuação, o desenvolvimento é uma área bastante interessante. Todavia, você não deve somente pensar em atuar como programador(a), mas também nas possibilidades de especialização em vários campos, como analista de sistemas, analista de banco de dados, gerência de TI e analista de infraestrutura. Há, também, a possibilidade de atuação junto às empresas de base tecnológica, como startups. Muitas delas têm uma grande ideia de negócio, mas a falta de profissionais para executar e criar um produto é muito grande. Ao pensar no grande número de pessoas que usam smartphones, é possível fomentar o desenvolvimento de aplicativos específicos para empresas ou que contenham uma ideia de negócio.
GUIMARÃES, A. M.; LAGES, N. A. Introdução à Ciência da Computação. Rio de Janeiro: LTC, 2005.