Página destinada ao estudo da Eletrônica, Eletricidade e suas aplicações.
Navege pelas opções ao lado e aproveite!
Redação do Site Inovação Tecnológica - 27/09/2024
Sensores naturais do diamante
Os melhores sensores disponíveis hoje para medir campos magnéticos - também conhecidos como magnetômetros - pertencem à classe dos "sensores quânticos", funcionando com base na reação de átomos individuais aos campos magnéticos que se deseja medir.
Sua parte ativa são defeitos atômicos naturais presentes no diamante, conhecidos como vacância de nitrogênio, ou centros de cor. Esses centros surgem quando dois átomos de carbono na rede cristalina do diamante são substituídos por um único átomo de nitrogênio, deixando uma "vaga" na rede cristalina.
Juntos, o átomo de nitrogênio e a vacância podem se comportar como uma entidade carregada negativamente com um spin próprio. Melhor do que isso, centros de vacância de nitrogênio são isolados do ambiente, o que significa que seu comportamento quântico é robusto e estável, o que os torna não apenas excelentes sensores, mas também qubits ideais para computadores quânticos.
E dá para usá-los para outras coisas, como medir praticamente qualquer coisa. Ao excitar um centro de cor repetidamente e coletar os fótons emitidos, é possível detectar seu estado de spin. E, como o estado de spin pode ser influenciado por variáveis externas, como campo magnético, campo elétrico, temperatura, força e pressão, os centros de vacância de nitrogênio do diamante podem ser usados como sensores em escala atômica, extremamente precisos.
Mas, no caso da detecção de campos magnéticos, há um problema: Os centros de cor só conseguem detectar campos magnéticos que estejam alinhados na mesma direção dos sensores. Assim, um magnetômetro prático precisa conter muitos sensores, colocados em diferentes ângulos de alinhamento, o que os torna difíceis de construir e usar e com uma precisão limitada à quantidade e posição dos sensores usados. Além disso, o fato de serem rígidos (o diamante é o material natural mais duro conhecido) significa que eles não podem se conformar às amostras que estão sendo estudadas.
Sensor magnético omnidirecional
A boa notícia é que acaba de surgir uma alternativa muito mais versátil, descoberta por Sam Scholten e colegas da Universidade RMIT, na Austrália.
Scholten descobriu um defeito cristalino, do mesmo tipo que o existente no diamante, também baseado em carbono, só que no material bidimensional nitreto de boro hexagonal (hBN).
Especificamente, o nitreto de boro hexagonal tem uma vantagem crucial: A equipe descobriu que o defeito baseado no carbono se comporta como um sistema de meio spin (S=1/2). Já o spin no defeito de boro é igual a um. E essa natureza dupla que permite detectar campos magnéticos em qualquer direção.
Isto significa que usar esse centro de cor como um sensor quântico permitirá detectar campos magnéticos em qualquer direção e com ainda maior versatilidade: Como o material tem apenas uma camada atômica de espessura, ele se amolda a qualquer superfície, é transparente e não adiciona praticamente nenhuma massa ao dispositivo.
"Ter duas espécies de spin diferentes e independentemente endereçáveis dentro do mesmo material em temperatura ambiente é único, nem mesmo o diamante tem essa capacidade," comentou o professor Priya Singh. "Isso é emocionante porque cada espécie de spin tem suas vantagens e limitações, e então com o hBN podemos combinar o melhor dos dois mundos. Isso é importante especialmente para a detecção quântica, onde o spin meio permite a magnetometria omnidirecional, sem ponto cego, enquanto o spin um fornece informações direcionais quando necessário e também é um bom sensor de temperatura."
Bibliografia:
Artigo: Multi-species optically addressable spin defects in a van der Waals material
Autores: Sam C. Scholten, Priya Singh, Alexander J. Healey, Islay O. Robertson, Galya Haim, Cheng Tan, David A. Broadway, Lan Wang, Hiroshi Abe, Takeshi Ohshima, Mehran Kianinia, Philipp Reineck, Igor Aharonovich, Jean-Philippe Tetienne
Revista: Nature Communications, Vol.: 15, Article number: 6727
DOI: 10.1038/s41467-024-51129-8
Redação do Site Inovação Tecnológica - 07/10/2024
Novo revés para o Big Bang
Astrônomos descobriram uma galáxia muito similar à Via Láctea, mas que está mais distante do que se acreditava ser possível - em astronomia, quanto mais distante um corpo celeste, mais antigo ele é.
Chamada REBELS-25, essa galáxia de disco parece tão ordenada quanto as galáxias atuais, ainda que a luz que recebemos hoje foi emitida por ela quando o Universo tinha apenas 700 milhões de anos.
É surpreendente porque, de acordo com a nossa compreensão atual da formação galáctica, essas primeiras galáxias do Universo primordial deveriam ser bastante caóticas - é mais uma observação reforçando a ideia de que nosso modelo padrão do Universo, baseado no Big Bang, pode não corresponder à realidade.
Para se formar, as galáxias que observamos no Universo atual passaram por múltiplas etapas de desenvolvimento, desde que nasceram como aglomerados caóticos, que se formaram inicialmente no Universo primordial. "De acordo com o que sabemos sobre a formação galáctica no Universo, esperávamos que a maioria das galáxias primitivas fossem pequenas e bagunçadas," disse a astrônoma Jacqueline Hodge, da Universidade de Leiden, nos Países Baixos. Essas galáxias primitivas fundem-se umas com as outras, evoluindo posteriormente para formas mais suaves em um ritmo muito lento.
As teorias atuais sugerem que, para que uma galáxia se apresente tão ordenada quanto a nossa Via Láctea - um disco em rotação com estruturas organizadas, como braços em espiral - ela deverá ter evoluído durante bilhões de anos. Contudo, a detecção de REBELS-25 contesta esta escala de tempo.
Organização precoce
A REBELS-25 torna-se agora a mais distante galáxia de disco com forte rotação já descoberta. Sua idade calculada - 700 milhões de anos - corresponde a meros 5% da sua idade atual (13,8 bilhões de anos) - o que faz com que a rotação ordenada da REBELS-25 seja inteiramente inesperada.
"Observar uma galáxia tão parecida com a nossa Via Láctea, fortemente dominada pela rotação, desafia a nossa compreensão da rapidez com que as galáxias do Universo primordial evoluem para as galáxias ordenadas que vemos no cosmos atual," reforçou Lucie Rowland, primeira autora da descoberta.
E esta é uma observação bem fundamentada: A REBELS-25 foi inicialmente detectada pela mesma equipe em observações anteriores usando o radiotelescópio ALMA, no deserto chileno do Atacama. Aqueles dados já mostravam indícios de rotação, mas a resolução não era suficientemente alta para se ter certeza disso. Para discernir corretamente a estrutura e o movimento da galáxia, a equipe realizou observações de seguimento, também com o ALMA, com uma resolução mais elevada, conseguindo assim confirmar a sua natureza recorde.
Surpreendentemente, os dados também sugerem características mais desenvolvidas, semelhantes às da Via Láctea, como uma barra central alongada e até braços em espiral, embora sejam necessárias mais observações para confirmar esses indícios. "Encontrar provas adicionais de estruturas mais evoluídas seria uma descoberta fantástica, já que estaríamos de fato na presença da galáxia mais distante com tais estruturas observada até hoje," concluiu Rowland.
Bibliografia:
Artigo: REBELS-25: Discovery of a dynamically cold disc galaxy at z = 7.31
Autores: Lucie E. Rowland, Jacqueline Hodge, Rychard Bouwens, Pavel E. Mancera Piña, Alexander Hygate, Hiddo Algera, Manuel Aravena, Rebecca Bowler, Elisabete da Cunha, Pratika Dayal, Andrea Ferrara, Thomas Herard-Demanche, Hanae Inami, Ivana van Leeuwen, Ilse de Looze, Pascal Oesch, Andrea Pallottini, Siân Phillips, Matus Rybak, Sander Schouws, Renske Smit, Laura Sommovigo, Mauro Stefanon, Paul van der Werf
Revista: Monthly Notices of the Royal Astronomical Society, Vol.: stae2217
DOI: 10.1093/mnras/stae2217
Redação do Site Inovação Tecnológica - 19/03/2024
Novo modelo cosmológico
Em meados do ano passado, o professor Rajendra Gupta, da Universidade de Ottawa, no Canadá, brindou o mundo científico com uma ideia revolucionária, justamente em um campo que anda carente de mudanças de paradigma.
Gupta estudou em detalhes o processo de desenvolvimento das galáxias e chegou à conclusão de que o Universo tem 26,7 bilhões de anos de idade, e não os 13,7 bilhões de anos estabelecidos pelo modelo padrão da cosmologia, conhecido como Lambda-CDM - λ é a constante cosmológica , hoje mais conhecida como "energia escura", e CDM é um modelo cujo nome é uma sigla em inglês para "matéria escura fria".
Isso vem bem a calhar depois que o telescópio espacial James Webb começou a mostrar galáxias totalmente formadas nos primórdios do Universo - ou, ao menos, nos primórdios do Universo quando se considera que ele tenha 13,7 bilhões de anos. Para alguns, os dados do Webb lançam dúvidas sobre o modelo do Big Bang e mostram que nossa visão do Universo está ultrapassada.
Agora, Gupta lançou dúvidas sobre outro elemento central da teoria cosmológica mais aceita até agora, a matéria escura - para o pesquisador, não existe matéria escura.
O que é matéria escura?
Na cosmologia, o termo matéria escura descreve tudo o que parece não interagir com a luz ou com os campos eletromagnéticos, mas que parece ter um efeito gravitacional. Não podemos vê-la, não sabemos do que é ela feita e nenhum experimento projeto para detectá-la jamais teve qualquer resultado positivo.
Mas a matéria escura é um artefato que ajuda o modelo cosmológico a explicar como se comportam as galáxias, os planetas e as estrelas. Com os fracassos observacionais, contudo, parte da comunidade científica começou a se questionar se é mais importante ficar do lado da teoria ou da realidade.
Gupta está defendendo tirar a matéria escura da equação.
Para isso, ele usou uma combinação das constantes de acoplamento covariantes (CCC: Covarying Coupling Constants) e das teorias de "luz cansada" (TL). O modelo CCC + TL combina duas ideias: Sobre como as forças da natureza diminuem ao longo do tempo cósmico e sobre a perda de energia da luz quando ela viaja por longas distâncias.
Dispensa da matéria escura
O modelo já foi testado e demonstrou corresponder a várias observações, tais como sobre a forma como as galáxias estão espalhadas e como a luz do Universo primitivo evoluiu.
"As descobertas do estudo confirmam que o nosso trabalho anterior sobre a idade do Universo ser de 26,7 bilhões de anos nos permitiu descobrir que o Universo não necessita de matéria escura para existir. Na cosmologia padrão, diz-se que a expansão acelerada do universo é causada pela energia escura, mas na verdade se deve ao enfraquecimento das forças da natureza à medida que ela se expande, e não à energia escura."
Agora, ao estudar a distribuição de galáxias com desvios para o vermelho baixos - "desvio para o vermelho" refere-se a quando a luz é deslocada em direção à parte vermelha do espectro conforme ela viaja - e o tamanho angular do horizonte sonoro em desvios para o vermelho elevados, o pesquisador baniu também a matéria escura.
"Existem vários artigos que questionam a existência da matéria escura, mas o meu é o primeiro, que eu saiba, que elimina a sua existência cosmológica, ao mesmo tempo que é consistente com observações cosmológicas chave que tivemos tempo de confirmar," disse Gupta.
Ao desafiar a necessidade de matéria escura no Universo e ao fornecer evidências para um novo modelo cosmológico, este estudo abre novos caminhos para explorar as propriedades fundamentais do Universo.
Bibliografia:
Artigo: Testing CCC+TL Cosmology with Observed Baryon Acoustic Oscillation Features
Autores: Rajendra P. Gupta
Revista: The Astrophysical Journal, Vol.: 964, Number 1
DOI: 10.3847/1538-4357/ad1bc6
By Cabe Atwell 10.29.2021
CasFET (Cascade Field Effect Transistor) could help engineers design more powerful CPUs that are smaller, use less power and require less applied voltages when switching on/off. (Source: Purdue University)
Purdue University researchers report an advance that could lead to next-generation transistors that are smaller, denser and offer lower voltages and power consumption.
One outcome could be faster CPUs that compute more operations using less power. Known as CasFET (Cascade Field-Effect Transistor), the advance addresses chip scaling challenges and the soaring costs of manufacturing bleeding-edge chip designs.
The challenge involves meeting the performance requirements of nano-transistors that require a sufficiently high “on” and lower “off” currents, along with minute differences when switching between them.
Those are among the issues that have slowed the downscaling of transistors, something noticed with Intel’s recent transition from 10- to 7-nm process technology.
CasFET is promoted as mitigating those issues, making it easier for manufacturers to produce densely-packed, low-power transistors. The technology features superlattice structures perpendicular to the transistor’s transport direction, allowing them to behave similar to quantum cascade lasers instead of traditional FET devices.
Purdue engineers have so far committed about 150 hours developing a simulation engine used to advance CasFET technology. “My team and I are developers of a massive nanotechnology and quantum transport simulation engine at Purdue that has found high acceptance among big tech companies,” said Tillmann Kubis, an assistant professor of electrical and computer engineering.
“We daily model all quantum transport aspects of transistors in subatomic resolution,” Kubis added. “That exposes us automatically to a lot of transistor technology and [the] latest challenges.”
Kubis also worked on modeling quantum cascade lasers as part of his doctoral studies. “Those lasers switch with external electric fields their transport nature from coherent/ballistic to stepwise and phonon-assisted tunneling. That switching effect is what we add to the ‘standard’ field-effect switching of FETs.
“That addition results in nano-transistors that are way more sensitive to gates than the state-of-the-art ones,” Kubis added. “This also applies to the gate all-around FETs. All those transistors rely on a single switching mechanism. Ours comes with two.”
Kubis said his team is currently designing prototype CasFET devices. “I am confident the new switching method will make an impact,” he added.
Redação do Site Inovação Tecnológica - 30/09/2021
Os transistores de neurofibras funcionam como neurônios e realizam sinapses, e até lembram seus parentes biológicos.
[Imagem: Korea Institute of Science and Technology(KIST)]
Neurotransístor
Pesquisadores coreanos criaram transistores orgânicos em forma de fibras, trazendo para mais perto da realidade um hardware projetado desde o berço para a computação neuromórfica (que imita o cérebro) e a inteligência artificial embutida em hardware.
E, além de demonstrar o funcionamento desses "transistores de neurofibras", Soo Jin Kim e seus colegas do Instituto Coreano de Ciência e Tecnologia (KIST) já os colocaram para funcionar em uma rede neural artificial totalmente funcional.
Enquanto os componentes eletrônicos neuromórficos criados até agora - memoristores e sinapses artificiais - funcionam ou como neurônios ou como sinapses, as neurofibras podem imitar o comportamento de ambos.
Com isto, basta conectar os transistores uns aos outros para criar uma rede neural artificial.
Transistores de neurofibras
Os neurônios biológicos têm ramos fibrosos que podem receber vários estímulos simultaneamente, e as transmissões de sinais são mediadas por migrações de íons, estimuladas por sinais elétricos.
A equipe primeiro criou uma sinapse artificial que, assim como os memoristores, consegue se lembrar dos sinais elétricos que a percorreram antes. A seguir, eles uniram diversos desses componentes para que eles atuem em conjunto, recebendo vários "estímulos" simultaneamente, como os neurônios, criando o que eles chamam de "transistores de neurofibras artificiais".
Esses transistores eletroquímicos orgânicos fibrosos consistem em um conjunto de fita dupla de microfibras como eletrodo, e um isolador de porta de gel iônico. Essa arquitetura permite implementar múltiplas junções sinápticas altamente sensíveis por mero contato físico entre os eletrodos das microfibras, semelhantes às conexões dendríticas de um neurônio biológico.
Os neurotransistores já foram testados com êxito em uma rede neural artificial.
[Imagem: Soo Jin Kim et al. - 10.1002/adma.202100475]
Rede neural artificial
Os pesquisadores então usaram os neurotransistores para criar um sistema de rede neural artificial compreendendo 100 sinapses e a utilizaram em experimentos de reconhecimento de fala, típicos da inteligência artificial.
A rede neural não apenas se manteve estável, como apresentou uma precisão no reconhecimento de 88,9% após a etapa de treinamento.
"O novo componente de neurofibra artificial é uma tecnologia inédita que pode ser usada para criar redes neurais artificiais altamente confiáveis em larga escala (~ 2 pJ/sinal) e altamente confiáveis, semelhantes às do cérebro. Nosso dispositivo de neurofibra artificial é flexível e pode ser usado em eletrônicos vestíveis habilitados para IA feitos de materiais semicondutores ou em robótica," disse o professor Jung Lim
Bibliografia:
Artigo: Dendritic Network Implementable Organic Neurofiber Transistors with Enhanced Memory Cyclic Endurance for Spatiotemporal Iterative Learning
Autores: Soo Jin Kim, Jae-Seung Jeong, Ho Won Jang, Hyunjung Yi, Hoichang Yang, Hyunsu Ju, Jung Ah Lim
Revista: Advanced Materials
DOI: 10.1002/adma.202100475
Publicado em 4/7/2019 às 12h.
Com informações da Universidade de Washington - 03/07/2019
É a primeira vez que mais de duas pessoas se unem em uma rede cérebro-a-cérebro, sendo que todas são capazes de receber e enviar informações às outras usando apenas o cérebro.[Imagem: Mark Stone/University of Washington]
Rede cérebro-a-cérebro
A comunicação telepática pode estar um passo mais próxima da realidade graças a uma nova demonstração de uma rede cérebro a cérebro.
Nessa "rede cerebral", ou BrainNet, três pessoas brincaram de um jogo tipo Tetris usando interfaces cérebro-a-cérebro.
Esta é a primeira demonstração de duas coisas: uma rede cérebro-a-cérebro de mais de duas pessoas, e uma pessoa sendo capaz de receber e enviar informações a outras pessoas usando apenas o cérebro.
BrainNet
Como no Tetris, o jogo usado no experimento mostra um bloco no topo da tela e uma linha que precisa ser completada na parte inferior. Duas pessoas, os Emissores, podiam ver tanto o bloco quanto a linha, mas não podiam controlar o jogo. A terceira pessoa, o Receptor, podia ver apenas o bloco, mas podia controlar o jogo, girando o bloco para completar a linha.
Cada Remetente decidia se o bloco precisava ser girado e então passava essa informação de seu cérebro, através da internet, para o cérebro do receptor. Em seguida, o Receptor processava essa informação e enviava um comando - para girar ou não girar o bloco - para o jogo diretamente de seu cérebro, completando e limpando a linha.
A equipe testou cinco grupos de participantes em 16 rodadas do jogo cada um. Para cada grupo, todos os três participantes estavam em salas diferentes e não podiam ver, ouvir ou falar um com o outro.
Os Emissores viam o jogo exibido na tela do computador. A tela também mostrava a palavra "Sim" de um lado e a palavra "Não" do outro lado. Abaixo da opção "Sim", um LED piscava 17 vezes por segundo. Abaixo da opção "Não", outro LED piscava 15 vezes por segundo.
"Uma vez que o Remetente toma a decisão sobre girar o bloco, ele envia 'Sim' ou 'Não' ao cérebro do receptor concentrando-se na luz correspondente," explicou Jiang.
Esquema de funcionamento da rede cérebro-a-cérebro.
Funcionamento da rede cérebro-a-cérebro
Os Remetentes usavam capacetes com sensores de eletroencefalografia que captavam a atividade elétrica em seus cérebros. Os diferentes padrões piscantes das luzes indicadoras de "Sim" ou "Não" acionam tipos únicos de atividade no cérebro, que os capacetes captavam. Assim, quando os Remetentes observavam a luz para a seleção correspondente, o capacete captava esses sinais e o computador fornecia feedback em tempo real exibindo um cursor na tela, que se movia na direção da escolha desejada. As seleções foram traduzidas em uma resposta "Sim" ou "Não" para ser enviada pela internet para o Receptor.
"Para entregar a mensagem ao Receptor, usamos um cabo que termina com uma varinha, parecida com uma pequena raquete, atrás da cabeça do Receptor. Esta bobina estimula a parte do cérebro que traduz os sinais dos olhos. Nós essencialmente 'enganamos' os neurônios na parte de trás do cérebro para espalhar a mensagem de que eles haviam recebido sinais dos olhos. Então os participantes têm a sensação de que arcos brilhantes ou objetos aparecem de repente na frente de seus olhos," contou o pesquisador Andrea Stocco, que vem trabalhando em jogos baseados apenas no cérebro há algum tempo.
Se a resposta for "Sim, gire o bloco", o Receptor vê um clarão luminoso. Se a resposta for "Não", ele não via nada. O Receptor recebia a entrada de ambos os Remetentes antes de tomar uma decisão sobre a rotação do bloco. Como o Receptor também usava um capacete de eletroencefalografia, ele usava o mesmo método que os Remetentes para selecionar "Sim" ou "Não" para comandar o bloco.
O jogo ainda é muito simples, mas é hora de começar a discutir as implicações da tecnologia, diz a equipe.
Os Remetentes tinham a oportunidade de rever a decisão do Receptor e enviar correções caso discordassem do movimento. Então, uma vez que o Receptor enviava uma segunda decisão, todos viam na tela se o movimento havia tido sucesso. Em média, cada grupo eliminou a linha com sucesso em 81% do tempo, ou em 13 dos 16 testes.
Questões éticas
A equipe espera que esses resultados abram caminho para futuras interfaces cérebro-a-cérebro, permitindo que as pessoas colaborem para resolver problemas difíceis que um cérebro apenas não conseguir resolver, eventualmente chegando a uma "internet dos pensamentos".
Os pesquisadores também acreditam que este seja um momento apropriado para começar uma conversa mais ampla sobre a ética desse tipo de pesquisa de "melhoria do cérebro", eventualmente desenvolvendo protocolos para garantir que a privacidade das pessoas seja respeitada à medida que a tecnologia melhora.
"Mas, por enquanto, isso é apenas um passo de bebê. Nosso equipamento ainda é caro e muito volumoso e a tarefa é um jogo. Estamos nos dias do 'Kitty Hawk' [o primeiro avião dos irmãos Wright] das tecnologias de interface cerebral: estamos apenas saindo do chão," disse o professor Rajesh Rao, coordenador da equipe.
Bibliografia:
BrainNet: A Multi-Person Brain-to-Brain Interface for Direct Collaboration Between Brains
Linxing Jiang, Andrea Stocco, Darby M. Losey, Justin A. Abernethy, Chantel S. Prat, Rajesh P. N. Rao
Nature Scientific Reports
Vol.: 9, Article number: 6115
DOI: 10.1038/s41598-019-41895-7
Com informações da Cordis - 06/06/2018
Geneticamente falando, os polvos são muito mais complexos do que os humanos.
[Imagem: CC0 Creative Commons/Pixabay]
Polvos e seu DNA alienígena
Por esta nem os mais pitorescos apresentadores de programas de discos voadores esperavam.
Cientistas afirmam que os polvos são na verdade alienígenas, e foram trazidos à Terra por meteoros.
E não foram dois ou três cientistas que assinaram o artigo que defende essa ideia: são 33 deles, de 23 universidades e centros de pesquisas localizados em 12 países.
É claro que grandes ideias exigem grandes demonstrações - e, admita, a proposta de que ovos de polvo congelados chegaram na Terra a bordo de um meteoro 540 milhões de anos atrás parece ser uma ideia das grandes.
Polvos extraterrestres
A equipe ainda não tem nenhum indício real da origem extraterrestre dos polvos e seus parentes. Ou seja, nenhum ovo de polvo - e nem qualquer outra coisa que se assemelhe a uma forma de vida - foi encontrado em um meteoro. Mas os cientistas acreditam que já há elementos suficientes para, pelo menos, sustentar sua hipótese.
"A evidência do papel dos vírus extraterrestres em afetar a evolução terrestre foi recentemente plausivelmente implicada no sequenciamento do gene e do transcriptoma dos cefalópodes. O genoma do Octopus mostra um incrível nível de complexidade, com 33.000 genes codificadores de proteínas mais do que está presente no Homo sapiens," justifica a equipe.
Cefalópode é a classe de moluscos marinhos da qual fazem parte os polvos, as lulas, os náutilos e os chocos. Por sua vez, o Homo sapiens é tipicamente considerado a cereja do bolo da evolução na Terra, em relação ao qual todas as "outras evoluções" são comparadas.
"Os genes transformadores que levaram do consensual ancestral Nautilus - do simples choco à lula e ao polvo - não são facilmente encontrados em qualquer forma de vida preexistente - [Logo,] é plausível sugerir que eles parecem ser emprestados de um 'futuro' muito distante em termos de evolução terrestre, ou, mais realisticamente, do cosmo em geral," escrevem Edward Steele e seus colegas.
Eles levantam então a possibilidade de que os polvos atuais sejam descendentes de criaturas que chegaram à Terra congeladas a bordo de um cometa.
Se explicar a vida na Terra é difícil, detectar vida extraterrestre pode ser mais difícil ainda. Mas parece que pelo menos os vírus estão por toda parte - provavelmente também no espaço.
[Imagem: Edith C. Fayolle et al. - 10.1038/s41550-017-0237-7]
Mas por que o polvo em particular? "Seu cérebro grande e sistema nervoso sofisticado, olhos semelhantes a uma câmera, corpos flexíveis, camuflagem instantânea por meio da capacidade de mudar de cor e forma são apenas algumas das características impressionantes que aparecem repentinamente na cena evolucionária," justifica a equipe, que então propõe: Essa evolução repentina ocorreu graças a "ovos de lulas e/ou polvos criopreservados" que caíram no oceano em cometas "há várias centenas de milhões de anos".
Os pesquisadores também aventam outra explicação: Um vírus extraterrestre teria infectado uma população de lulas primitivas, fazendo com que elas evoluíssem rapidamente para os polvos que conhecemos hoje.
Especulações válidas
É certo que esta não foi a primeira e nem será a última vez que a comunidade científica ressuscita a teoria de que a vida chegou aqui vindo de mundos distantes e deu origem a algumas ou a todas as formas de vida na Terra.
Mas, quando mais de trinta cientistas de universidades e institutos ao redor do mundo criam coragem para defender tais alegações, é importante se perguntar se não vale mesmo a pena apostar em especulações e hipóteses tão heterodoxas.
Afinal, se, sob alguns aspectos, já nos livramos há tempos da ideia de que a Terra seria o centro do mundo, sob outros - quanto à vida em especial - talvez não estejamos tão distantes das ideias terra-cêntricas da época medieval quanto gostaríamos.
Bibliografia:
Artigo: Cause of Cambrian Explosion - Terrestrial or Cosmic?
Autores: Edward J. Steele, Shirwan Al-Mufti, Kenneth A. Augustyn, Rohana Chandrajith, John P. Coghlan, S. G. Coulson, Sudipto Ghosh, Mark Gillman, Reginald M.Gorczynski, Brig Klyce, Godfrey Louisi, Kithsiri Mahanama, Keith R. Oliver, Julio Padron, Jiangwen Qu, John A. Schuster, W. E. Smith, Duane P.Snyder, Julian A. Steele, Brent J. Stewart, Robert Temple, Gensuke Tokoro, Christopher A. Tout, Alexander Unzicker, Milton Wainwright, Jamie Wallis, Daryl H. Wallis, Max K. Wallis, John Wetherall, D. T. Wickramasinghe, J. T. Wickramasinghe, N. Chandra Wickramasinghe, Yongsheng Liu
Revista: Progress in Biophysics and Molecular Biology
Vol.: 136, August 2018, Pages 3-23
DOI: 10.1016/j.pbiomolbio.2018.03.004
Publicado em 8/12/2017 às 16h.
Aconteceu na última quinta-feira 7/12 às 9h a defesa de tese do doutorando Diogo Roberto Raposo de Freitas, no DES-UFPE. Título: "Plataforma para Análise do Sinal de EEG Aplicado ao ERD/ERS no Reconhecimento em Tempo Real da Imaginação do Movimento". Após arguição da banca examinadora o candidato foi considerado aprovado! Segue vídeo resumo (crédito: Euller Lima).
Publicado em 01/10/2017 às 16h.
Técnicos, engenheiros e profissionais da área de tecnologia são partes importantes da força de trabalho de um país. Eles ofertam sua mão de obra qualificada, baseada no conhecimento adquirido em sua especialidade, para o mercado, que por sua vez produz bens e serviços para a sociedade. Dentro desse contexto, é imprescindível que o mecanismo que move a economia seja compreendido por estes profissionais.
O milionário Ray Dalio, filantropo e fundador da Bridgewater Associates, nos explica de forma didática esse processo, com a visão de quem o conhece por dentro. O vídeo é um pouco longo mas vale a pena assistir. Devemos abrir nossas mentes e entender como o "sistema" opera.
Publicado em 15/12/2014 às 17h.
Série interessante produzida pela BBC em três episódios e recomendada a todos os estudantes da eletricidade! É preciso se cadastrar no site da TV Escola. A seguir os links:
A HISTÓRIA DA ELETRICIDADE > A FAÍSCA
A HISTÓRIA DA ELETRICIDADE > A ERA DA INVENÇÃO
A HISTÓRIA DA ELETRICIDADE > REVELAÇÕES E REVOLUÇÕES
1/03/2014 às 21:09 \ Cultura, Educação Coluna Rodrigo Constantino
"Em minha conduta como docente priorizo a transmissão do conhecimento técnico-científico, que entendo ser meu dever enquanto formador de profissionais engenheiros, raramente desviando-me do foco técnico-científico já citado, para tratar de questões político-filosóficas. Grande parte das pessoas, inclusive dentro do meio acadêmico, procuram dar a estas últimas um viés puramente ideológico, doutrinário e desprovido de razão, fazendo de seus dogmas filosóficos e políticos meras seitas religiosas, pretensamente pautadas na razão e levando a um falso cientificismo. Eu, por outro lado, entendo que sempre que possível devemos submeter nossos dogmas e ideias à luz da razão e da ciência.
O método científico é a mais preciosa ferramenta já desenvolvida pelo intelecto humano. Ele é superior a todas as outras formas de conhecimento já gerados pela humanidade, porque é provido de lógica e livre da possibilidade de sofismas ou falsos silogismos. Segundo Karl Popper, a hipótese científica deve ser dotada de uma propriedade fundamental: A refutabilidade. Nenhuma hipótese que não possa de algum modo, ser testada, seja pela lógica matemática ou pela experiência, e desse modo validada ou refutada, é científica. A Engenharia está assentada sobre os alicerces das ciências exatas e naturais, e portanto, só pode conviver com as hipóteses ditas científicas. É portanto, dever do Engenheiro, portar-se de forma a investigar e analisar os fatos sob o viés técnico-científico.
Nenhum cientista, categoria a qual pertencem os engenheiros, deve ser fundamentalista, seguindo dogmas que não encontram amparo na lógica científica e na experiência. Suas teses e formulações devem ser passíveis de teste. Não devemos nos esquecer ainda de manter uma conduta ética e moral em todas as nossas atividades.
No entanto, viceja no Brasil um relativismo moral e ético de tal natureza que já não são mais possíveis as comparações. É público e notório que a opinião politicamente correta acerca das culturas preconiza não haver na humanidade culturas superiores ou inferiores, apenas diferentes, condicionadas às épocas e aos meios em que foram geradas. Nada pode ser mais mentiroso! Existem culturas superiores sim! Desde os primórdios da humanidade, o homem busca comodidade, conforto e proteção para amenizar as agruras da vida na natureza selvagem e se precaver das intempéries. Já dizia Platão que “a necessidade é a mãe da invenção”. E o homem moderno tem infinitas necessidades, não havendo nada de errado com isso. Qual é o pecado em querer evoluir, ter maior conforto e possibilidade de prevenção contra forças da natureza, as quais, cada vez mais, estamos controlando? Nesse sentido é inegável a superioridade da cultura ocidental moderna, solidamente forjada no método científico, sobre todas as outras, umas focadas apenas em aspectos religiosos ou tribais, outras em puro conhecimento empírico e na ausência de método.
[...] O desenvolvimento da internet, da telefonia celular e smart-phones tem produzido uma verdadeira revolução na forma como nos relacionamos com pessoas e empresas, criando um mundo totalmente impensável até mesmo na ficção científica de duas décadas atrás.
No entanto, é senso comum no Brasil dizer que somos explorados pelos países desenvolvidos, porque eles compram nossas commodities, como níquel, ferro, nióbio, petróleo e grãos, a preço de quase nada e nos devolvem produtos industrializados, de alto valor agregado do ponto de vista tecnológico, a preço de ouro! E deleitamo-nos a falar mal dos americanos e dos países desenvolvidos em geral! Bebendo Coca-Cola, comendo um Big Mac, enquanto digitamos uma mensagem qualquer no celular, é claro! E hoje não vivemos mais sem todas as bugigangas tecnológicas que na maior parte das vezes foram popularizadas por eles! E como elas facilitam nossas vidas! Mas há que ser dito! A troca que fazemos com os países desenvolvidos é muito justa! É graças àqueles que investiram em ciência e conhecimento que a qualidade de vida no mundo inteiro melhorou e vem melhorando gradativamente. É graças à cultura ocidental que tem como pedra fundamental hoje o método científico. De nada adianta ser fonte de todos os recursos naturais disponíveis e imagináveis do universo se não dispomos do conhecimento científico e tecnológico para fazer uso deles. E fomos nós mesmos que fizemos a escolha pela mediocridade, quando decidimos que educação e ciência não são importantes. Fizemos as escolhas erradas no passado e continuamos fazendo-as no presente.
[...] Nossos grandes cientistas nunca foram levados a sério. Disse o poeta Thomas Gray: “Onde a ignorância é felicidade, ser sábio é loucura!” Parece uma frase feita sob medida para o Brasil.Não investimos no futuro, o que sempre demanda sacrifícios. E ao invés de olharmos para o futuro, voltamos no tempo, tentamos reescrever a história criando comissões sem sentido como a tal Comissão da Verdade, para aplacar a sanha revanchista de falsos democratas de 1964, e aqui não vai nenhum elogio ao nefasto golpe. Qual o preço a pagar pelas futuras gerações por essa negligência?
Nós tivemos aqui pioneiros com Landell de Moura, César Lattes, Santos Dummont, Carlos Chagas. Mas em praticamente todas as áreas representativas da economia, ciência e cultura mundial, nós não estamos na vanguarda. A ciência não é levada a sério. Quem prosperou por essas bandas foi Charles Miller. Preferimos a criatividade dos que vivem da bola e usam chuteiras. Afinal somos o país do futebol. Confundimos o famoso jeitinho e a gambiarra, frutos da falta de planejamento, com criatividade. Há até estudos acadêmicos, acreditem, enaltecendo a gambiarra! Em nome da nossa cultura apenas diferente e da doutrinação ideológica, nossos alunos não são incentivados a ler Sócrates, Platão, Monteiro Lobato ou ouvir Mozart e Bethoveen. Beatles é música de estrangeiro, temos que valorizar o funk e artistas sem sal e sem conteúdo como Caetano Veloso e outros tais, endeusados pela mídia ufanista. Nossos estudantes lêem Marx em lugar de Adam Smith, conhecem Neymar, Michel Teló, Gilberto Gil e José Sarney mas não sabem quem foram Newton, Bohr, Feynman, Faraday, Beethoven, Shakespeare, Lennon e McCartney. Alguns dogmas propagados pelos vanguardistas da educação, muitos dos quais nunca ministraram uma única aula, nos incutem a falsa ideia de que criatividade e imaginação são mais importantes do que o conhecimento. Pois eu afirmo: só há espaço para criatividade e imaginação quando dominamos plenamente uma área de conhecimento. Não há gênio sem imensa carga de trabalho e transpiração. Mas nossas escolas se tornaram locais de discussões puramente conceituais. Avaliar o aluno quanto ao domínio das técnicas essenciais de leitura, escrita e cálculos matemáticos parece ser mais constrangedor do que deixá-lo analfabeto funcional, pois uma reprovação vai ferir seus sentimentos! É indigno, na visão de alguns, ter que meter a mão na massa, fazer cálculos, treinar, enfim, seguir a cartilha conservadora que tanto deu certo na questão da educação. Nossos alunos não são ensinados, são doutrinados.
Enquanto a educação definha com a falta de infraestrutura mínima, construímos estádios. Isso sim é importante, afinal somos o país do futebol e como nos ensinou o gênio Ronaldo, copa do mundo não se faz com escolas e hospitais, e sim com estádios! Quem precisa mesmo de leitos em hospitais e de investimento em saúde preventiva, saneamento básico, infraestrutura de estradas, portos e aeroportos? Pois eu vos digo: Vergonha não é perder a Copa em casa. Vergonha é ver que pessoas morrem na porta do hospital sem que se mova uma palha, enquanto o nosso dinheiro vai sendo jogado no esgoto em coisas supérfluas, quando não é desviado por corruptos. Vergonha é ter índices de homicídios maiores do que países em guerra civil. Até quando?
Deixo aqui uma lista de perguntas: Até quando a educação fundamental estará abandonada, formando ano a ano uma massa de analfabetos funcionais? Não será possível construir boas escolas, com padrão Fifa? Até quando teremos que ouvir de políticos promessas mirabolantes para resolver os mais simples problemas do dia-dia, sem nenhuma fundamentação técnica de viabilidade, apenas para garantir os votos da eleição? Quem não ouviu que teríamos metrô em praticamente todas as cidades de grande porte, mesmo sem precisar, que teríamos trem-bala e aeroportos de primeiro mundo? Até quanto vamos ter que discutir tragédias com data e hora marcada para acontecer, como a falta de água nos períodos de estiagem, os deslizamentos de terra e os alagamentos? Até quando a nossa indignação com algum fato vai durar somente até o telejornal do dia seguinte, diante de outro evento mais trágico ainda? Até quando vamos aturar esses políticos cujo único projeto é a perpetuação no poder e o enriquecimento dos seus grupos?
Eu confesso que quero viver em um lugar mais cartesiano e com maior planejamento, onde a gambiarra seja deixada de lado. Para isso, tenho a certeza de que a Universidade Federal do Paraná fez o máximo para torná-los excelentes Engenheiros Eletricistas. Ainda há esperanças! Está com vocês agora parte da responsabilidade de transformar esse país. A tarefa é árdua mas possível e aqui vão alguns conselhos.
Sejam corretos e façam a diferença para alguém. Amem o próximo verdadeiramente, cujo corolário é “não fazer aos outros o que não queres que façam contigo”. Ensinem a seus filhos que honestidade, retidão de caráter e boas maneiras não são virtudes e sim, obrigação. Tampouco se julguem investidos de virtudes morais superiores que os tornem tiranos perante familiares, amigos e demais pessoas.
Saibam que é preciso trabalhar muito, e para ser criativo é necessário sólido conhecimento. Por isso não deixem de aprender e se aperfeiçoar. Sejam tolerantes com as diferenças, porém firmes em suas ações e opiniões. Não se pode balançar ao sabor do vento e não é possível agradar a todos.
Defendam com rigor o método científico, e não se deixem enganar pela pseudo-ciência. Sempre amparados no método científico, quando suas ideias forem confrontadas, respondam com argumentos lógicos ou mudem de teoria, mas não usem da calúnia e a desqualificação pessoal para vencer o debate.
Não se deixem cegar pela falta de lógica e pelas paixões político-partidárias, clubísticas e religiosas. Combatam todo tipo de fundamentalismo e totalitarismo, porque ninguém é dono de uma verdade única e imutável. Prezem pela liberdade e pela igualdade de condições para as pessoas, sabendo que existem limites para ambas.
Sejam humildes. Saibam valorizar suas conquistas e o valor da meritocracia, sempre dando o devido reconhecimento a quem lhes foi importante na caminhada, desde as pessoas que garantem a limpeza do seu local de trabalho até aqueles que estão acima de vocês em hierarquia e conhecimento. Sejam sensíveis aos que o cercam e, sempre que possível, mudem para melhor suas atitudes e comportamento. Permitam-se momentos de lazer, diversão e confraternização, sem excessos. E acima de tudo, sejam felizes.
Que Deus nos abençoe e tenhamos todos uma boa noite."
Dr. César Augusto Dartora
Redação do Site Inovação Tecnológica - 03/02/2014
Só a nacele da nova superturbina, onde fica instalado o gerador, tem 8 metros de largura x 20 metros de comprimento, uma área equivalente a dois apartamentos de três quartos - sem contar os 8 metros de altura.[Imagem: Vestas]
Maior gerador eólico do mundo
A empresa dinamarquesa Vestas acaba de anunciar a colocação no mercado daquela que será a maior turbina eólica do mundo.
Com um nome bem descritivo, a V164-8 tem um diâmetro total de 164 metros, para gerar 8 megawatts de eletricidade - ela captura o vento de uma área de 21.124 m2.
O protótipo, instalado no Centro de Testes de Grandes Turbinas, em Oesterild, na Dinamarca, já está gerando energia.
A detentora anterior do título de maior turbina eólica do mundo tem 154 metros de diâmetro.
Só a nacele da nova superturbina, o corpo principal onde fica instalado o gerador, tem 8 metros de altura x 8 metros de largura x 20 metros de comprimento, e pesa 390 toneladas.
As lâminas da V164-8 têm 80 metros de comprimento, cada uma pesando 35 toneladas - o encaixe central do rotor, onde são presas as lâminas, responde pelos quatro metros adicionais, chegando aos 164 metros de diâmetro.
As turbinas eólicas vêm crescendo dramaticamente ao longo das últimas décadas - há 30 anos, uma turbina eólica típica tinha um rotor de 10 metros (cada pá media 5 metros de comprimento) e eram capazes de gerar 30 kW.
O grande apelo do tamanho é a redução dos custos de instalação e a possibilidade de melhores contratos para o fornecimento de uma quantidade maior de energia - 8 MW é suficiente para abastecer quase 10.000 residências.
Com informações da Agência Brasil - 23/04/2013
O Ministério da Ciência, Tecnologia e Inovação pretende criar uma rede de integração nacional dos pólos de conhecimento de diversos setores que hoje atuam estanques, especialmente nos laboratórios universitários.
A estratégia é desenvolver mecanismos de cooperação com a iniciativa privada, para que as empresas utilizem os recursos de pesquisa e conhecimento do setor público.
O desafio pelo ministro Marco Antonio Raupp em audiência pública no Senado, estimando que o projeto deverá estar pronto em 2015.
Segundo o ministro, a rede de integração viabilizará o acesso de pesquisadores de todas as regiões aos trabalhos já desenvolvidos isoladamente.
O objetivo do ministério é incentivar a implementação de parcerias público-privadas (PPPs), especialmente em setores como desenvolvimento tecnológico, biotecnologia e nanotecnologia.
A contrapartida é que parte dos recursos deve sair das empresas, que também ficariam responsáveis pela qualificação profissional.
Os projetos de desenvolvimento apresentados pelos empresários serão analisados por um grupo de trabalho interministerial com a participação de representantes da iniciativa privada.
"Hoje em dia, existe um sentimento nos laboratórios de que eles [pesquisadores] trabalham para ninguém. É importante que as empresas busquem parcerias com essas fontes públicas", disse Marco Antonio Raupp.
De acordo com o ministro, as empresas parceiras terão juros subsidiados e subvenções econômicas, inclusive a fundo perdido. A principal fonte de financiamento será o Banco Nacional de Desenvolvimento Econômico e Social (BNDES).
Publicado em 29/04/2013, às 07h00
Inglês ruim oferecido nas escolas influencia na formação dos alunos
Os profissionais brasileiros têm um dos piores níveis de inglês do mundo. É o que mostra uma pesquisa da GlobalEnglish, especializada em softwares e soluções de inglês para negócios. De acordo com o terceiro e mais recente levantamento, num ranking de 78 países, ocupamos a 70ª posição.
De 1 a 10, obtivemos nota 3,27. Apesar de ser maior que os 2,95 registrados em 2012, na América Latina ficamos atrás de locais como Venezuela (3,39), Peru (3,88), Bolívia (3,92), Argentina (4,92) e Uruguai (5,03). Também perdemos para os emergentes Rússia (3,95), China (5,03) e Índia (6,32).
Na opinião do diretor da GlobalEnglish no Brasil, José Ricardo Noronha, o nível muito baixo de inglês pode afetar a nossa capacidade de atração de investimentos e de produção dentro das empresas, além de influenciar a capacidade de companhias nacionais e multinacionais de aproveitar grandes talentos.
“São efeitos adversos para quem quer investir. Aumentar o nível de inglês é um componente muito importante no desenvolvimento pessoal e profissional”, diz ele.
O resultado, lembra Noronha, está intimamente ligado ao baixo investimento que o Brasil faz na área educacional, inclusive na educação corporativa.
Para ele, ainda temos um gap (lacuna) muito grande para nos inserimos num mundo em que a educação é tida como mola propulsora do desenvolvimento. “Por incrível que pareça, o inglês ainda é tido como um diferencial no Brasil”, observa.
A GlobalEnglish também mostra que, ao redor do globo, apenas 7% dos profissionais possuem um nível avançado de inglês. Trinta por centro estão entre o nível alto e intermediário e outros 30% foram identificados como iniciantes, percentual este acima dos 38% captados em 2011.
O levantamento foi realizado em dezembro de 2012 com mais de 137 mil funcionários de diversas empresas.
Turbinas eólicas marítimas terão supercondutor
Projeto da União Europeia desenvolve um supercondutor que irá aumentar a capacidade das turbinas eólicas. Isso deve facilitar o cumprimento das metas da revolução energética alemã.
A revolução energética anunciada pela Alemanha tem como meta mudar completamente a forma de gerar energia no país nos próximos 40 anos. A ideia é diminuir a dependência de fontes poluentes, aumentando a participação de energia limpa. O carro-chefe é a eólica, e para o crescimento desse setor cientistas desenvolvem turbinas com maior capacidade de geração de energia. Trata-se de um fato importante não só para os objetivos do país, mas para o restante do planeta, já que o sucesso alemão nos próximos anos será fundamental para a adoção de metas similares por outros países.
Em 2011, a Alemanha anunciou o abandono da energia nuclear e o fechamento de suas 17 usinas até 2022. Esse foi o início da revolução que o país pretende fazer no setor energético, que também visa a reduzir a produção com base em petróleo e carvão mineral. O propósito é que as fontes renováveis – vento, sol e biomassa – respondam por 80% da matriz energética até 2050.
Atualmente, cerca de 20% da energia produzida na Alemanha vêm de fontes limpas, sendo que 10% são de parques eólicos. A capacidade instalada é de 31.307,60 MW, mas os planos são de chegar a 45.000 MW até 2020 e a 85.000 em 2050. Para atingir essas metas, o país conta com o desenvolvimento de tecnologias que possam baratear o sistema eólico e aumentar a capacidade de geração de energia das turbinas.
Turbinas eólicas
As turbinas eólicas são aerogeradores que ao girarem as hélices do sistema transformam a força dos ventos em energia elétrica. Esses equipamentos podem ser instalados praticamente em qualquer região, mas o potencial de energia gerada depende da intensidade e direção do vento. Para ter um rendimento adequado, os geradores devem captar o vento em condições especiais: velocidade de 7 a 8 m/s e a uma altura de 50m. Esse cenário ocorre apenas em 13% da superfície terrestre, e a proporção pode variar de acordo com o continente, chegando a 32% na Europa Ocidental, segundo Organização Meteorológica Mundial.
As turbinas comerciais para geração de energia elétrica começaram a ser instaladas na Europa em 1976, sendo a primeira na Dinamarca. Naquela época, o equipamento tinha um potencial de 10 kW a 50 kW. Hoje em dia, a capacidade pode chegar a 3 MW, mas um projeto da União Europeia pretende desenvolver uma tecnologia capaz de gerar 10 MW por catavento.
Supercondutor
O projeto Suprapower visa a desenvolver a tecnologia dos aerogeradores em alto-mar (offshore). A pesquisa se concentra na criação de um supercondutor capaz de suportar uma carga maior de energia. Hoje, o material usado como condutor é o fio de cobre, mas suas características limitam a quantidade de corrente elétrica que o atravessa.
Especialistas buscam um material que possa substituir o fio de cobre, mas o grande desafio é a temperatura. Isso porque o condutor deverá ser resfriado a -253 °C enquanto está em funcionamento, para que assim não tenha resistência à passagem de corrente elétrica. As pesquisas da equipe europeia apontam como provável solução a utilização do diboreto de magnésio (MgB2).
O projeto vai além de um supercondutor mais eficiente e confiável, pois é necessário tornar viável a produção e comercialização em larga escala. Em linhas gerais, a meta é reduzir a massa, o tamanho e o custo das turbinas. Além disso, o equipamento deve exigir menos manutenção e ter um ciclo de vida maior.
O custo, a durabilidade e, principalmente, a capacidade de gerar energia são fundamentais para o aumento da participação de energia eólica no mundo. Só na Alemanha, há mais de 23 mil turbinas em funcionamento, e o projeto europeu deve viabilizar novas aquisições ou substituições. Até 2030, o país deverá investir 5 bilhões de euros no setor de turbinas offshore.
O Brasil ainda está distante da realidade europeia e tem uma capacidade instalada de 2.500 MW, quantidade suficiente para abastecer quatro milhões de residências. Isso representa 2% do total da energia elétrica produzida no país, de acordo com a Associação Brasileira de Energia Eólica. No entanto, o Centro de Pesquisas de Energia Elétrica (Cepel) aponta que a capacidade estimada é de 143.000 MW, o que faz da energia eólica uma opção importante, também para o Brasil.
Em 40 anos, a potência das turbinas passou de 10 kW a 3 MW
Data 09.03.2013
Autoria Frank Hörnke
Edição Francis França
http://dw.de/p/17tlP
Por Marcos Santana | wPós – 22/03/2013 16:11:00
Um estudo da ONG "Todos Pela Educação" mostrou que só 10% dos jovens brasileiros que concluem o ensino médio sabem matemática. Para muitos, a disciplina nunca foi a matéria preferida. O levantamento revela ainda que o desempenho dos estudantes piorou, já que em 2009 o percentual era de 11%. Em português, o índice permaneceu o mesmo: 29% dos alunos aprenderam o que deveriam ao terminar o ensino médio.
Toda essa disparidade entre português e matemática afeta na escolha do curso superior. Cursos como Engenharia estão com menor procura do que cursos das áreas de humanas. Para a responsável pelo estudo, Priscila Cruz, diretora executiva do "Todos Pela Educação", não dá para a gente imaginar uma sociedade que inova, uma sociedade que se desenvolve na inovação, nas novas tecnologias sem ter uma base muito bem consolidada na matemática, nas ciências. O Brasil é uma das maiores economias do mundo e um dos piores países em educação, então não dá para a gente manter essa distância do jeito que está?, afirma.
A procura por profissionais de engenharia aumenta gradativamente. Segundo estudo, até 2015, o Brasil vai precisar de 300 mil engenheiros, mas o país não consegue formar a quantidade de profissionais necessários para a área. De acordo com a Federação Nacional dos Engenheiros, os estudantes não estão terminando o curso e os que terminam não buscam uma especialização.
Segundo a Federação, o Brasil forma cerca de 38 mil engenheiros por ano, mas precisa de quase o dobro disso para dar conta da demanda. Mesmo com salário inicial na média de R$ 5,5 mil, o mercado ainda sente falta de profissionais, principalmente, profissionais qualificados.
Edição do dia 13/08/2012 - http://g1.globo.com/jornal-nacional/noticia/2012/08/dificuldade-de-encontrar-mao-de-obra-qualificada-afeta-economia-brasileira.html
13/08/2012 21h05 - Atualizado em 13/08/2012 21h06
JOSÉ ROBERTO BURNIER E MARCO ANTÔNIO GONÇALVES
São Paulo, SP
A dificuldade de encontrar quem tenha preparação adequada pra preencher vagas afeta muitos setores da economia brasileira. É o apagão de mão de obra qualificada.
Pode não ter sido na velocidade da locomotiva chinesa. Mas é fato: a economia brasileira teve, na última década, o maior crescimento desde os anos 70. As empresas investiram, aumentaram a produção e, claro, precisaram de mais trabalhadores.
Entre 2001 e 2010, o país criou quase 18 milhões de empregos com carteira assinada, um aumento de 68%.
O que parecia um caminho para um ciclo virtuoso deu de cara com barreiras que muitos não previram, como as crises no exterior, outras escancaradas, como a precária infraestrutura do país e uma, que havia tempo estava embaixo do tapete: a falta de mão de obra qualificada. Mas o que é isso?
Mão de obra qualificada é o trabalhador que tem as qualidades mínimas exigidas para exercer a função para a qual ele está sendo contratado. Desde a mais simples até a mais sofisticada.
Ao investigar a origem do problema, o Jornal Nacional se deparou com uma velha conhecida: a precariedade da educação brasileira.
“No Brasil formou-se um desencontro. Um enorme desencontro entre a escola e o trabalho. Porque o trabalho se expandiu, as tecnologias evoluíram e a escola de um modo geral não conseguiu acompanhar. Ficou atrasada. Está no descompasso. Que é um descompasso que afeta muito o crescimento do país”, disse professor Relações do Trabalho - USP José Pastore.
Dos 192 milhões de brasileiros, 93 milhões estão aptos a trabalhar. O descompasso a que o professor se refere está entre o que essas pessoas oferecem e o que o mercado de trabalho precisa.
De acordo com a Organização Internacional do Trabalho, cerca de 90% dos novos empregos no Brasil com carteira assinada exigem pelo menos o ensino médio completo, o antigo colegial. Só que quase metade dos trabalhadores não completou nem o ensino fundamental, da primeira à oitava série. E 16% enquadravam-se na condição de analfabetos funcionais, aqueles que, embora consigam ler, não são capazes de interpretar textos ou fazer as operações matemáticas mais simples.
Na fila do emprego o descompasso entre a escola e o trabalho fica ainda mais evidente. No centro de Manaus, uma fila se forma desde as 4h, todos os dias, ao redor do Sine, Sistema Nacional de Empregos, do Ministério do Trabalho. Todas as pessoas estão lá atrás de emprego. E das nove mil vagas oferecidas pelo Sine Manaus no primeiro semestre deste ano, cinco mil não foram preenchidas ainda, por causa da baixa escolaridade e da baixa qualificação profissional dos candidatos.
“Até para trabalhar mesmo como auxiliar de serviços gerais, hoje em dia está exigindo tudo. Segundo grau completo, curso também”, ressaltou Marinês de Souza Correa desempregada.
Em todo o país, segundo o Ministério, de quase 1,5 milhão oferecidas no primeiro semestre, pouco mais de 20% foram preenchidas.
“Muitas vezes, o trabalhador não tem o acesso à qualificação. E às vezes a questão da educação, ensino médio, fundamental, não é de uma qualidade que ele possa chegar pro processo seletivo e passar no processo seletivo. Então dificulta para o trabalhador”, destacou o diretor do Sine Tiago Medeiros.
O problema aparece mesmo entre quem já terminou o ensino médio. Os recrutadores tiveram que incluir até ditado no testes por causa dos erros em textos de funcionários nas empresas. Um teste foi feito por um aluno do terceiro ano de economia. De 30 palavras ditadas ele errou 28.
“Eles chegam de forma inadequada na universidade porque não teve uma educação básica. E vão reproduzir as mesmas práticas quando chegarem no mercado de trabalho. Aliás, já estão reproduzindo porque já estão pleiteando vagas para esse mercado”, afirmou a recrutadora Yolanda Brandão.
“É comum você encontrar um caixa que não sabe fazer conta, a não ser apertando o botão da maquina registradora. É comum encontrara alguém num call center que não sabe responder a terceira pergunta”, disse a professor da FGV-SP Luiz Carlos Cabrera.
Tamires Fontes do Nascimento que disputa uma vaga de estagiária estudou em escola pública. Como o ensino não foi bom, ela decidiu fazer cursinho para enfrentar o vestibular. O que era pra ser uma recuperação das matérias virou um choque.
“Cerca de 80% do material, do conhecimento que eu obtive durante o cursinho pré-vestibular, 80% era tudo coisa nova, tudo coisa que eu não aprendi na escola. No ensino fundamental, no ensino médio”, contou Tamires.
Trabalhador mal qualificado leva mais tempo para desempenhar as suas tarefas. A empresa gasta mais tempo e dinheiro para produzir. O produto fica mais caro e o Brasil vai ficando pra trás na concorrência com outros países.
Apesar de ser hoje a sexta maior economia do mundo, o Brasil está na rabeira quando o assunto é produtividade. Estamos na posição 46 numa lista que tem 59 países. Quando se analisa somente a educação, o buraco fica mais fundo. Somos o 54º.
“O mundo do trabalho não quer apenas canudo, apenas diploma. A escola de hoje ensina, na melhor das hipóteses, a passar no exame. Não ensina a pensar. E o trabalho moderno exige o pensamento. Nós vivemos numa sociedade do conhecimento em que se demanda muito mais neurônio do que músculo”, completou José Pastore.
Redação do Site Inovação Tecnológica - 26/06/2012
Em comparação com os LEDs comuns, fabricados sobre silício, a luz emitida pelo LED sobre cobre melhorou 122%. [Imagem: Chen et al./AIP]
Efeito de confinamento quântico
Pesquisadores chineses conseguiram pela primeira vez substituir o silício pelo cobre na fabricação de LEDs.
Tufu Chen e seus colegas da Universidade Sun Yat-sen conseguiram transferir o semicondutor nitreto de gálio (GaN), crescido inicialmente sobre uma pastilha de silício, para uma camada de cobre.
E não foi apenas uma questão de "replantio".
O substrato de cobre permitiu que os cristais de nitreto de gálio liberassem estresses internos gerados quando eles são cultivados sobre o silício.
Esse "relaxamento" permitiu a minimização do chamado "efeito de confinamento quântico", um problema que reduz a eficiência dos LEDs.
O "relaxamento" dos cristais permitiu a minimização do chamado "efeito de confinamento quântico", um problema que reduz a eficiência dos LEDs. [Imagem: Chen et al./AIP]
LED fenomenal
Em comparação com os LEDs comuns, fabricados sobre silício, a luz emitida pelo LED sobre cobre melhorou 122%.
Segundo os pesquisadores, esse ganho, considerado "fenomenal", deveu-se a uma série de fatores, gerados pela mudança do silício para o cobre:
remoção do substrato absorvente;
inserção de um metal refletor entre a estrutura do LED e o substrato;
eliminação do "sombreamento" causado pelo eletrodo;
rugosidade da superfície exposta, que melhorou a orientação do cristal sobre o substrato.
Bibliografia:
Crack-free InGaN multiple quantum wells light-emitting diodes structures transferred from Si (111) substrate onto electroplating copper submount with embedded electrodes
Tufu Chen, Yunqian Wang, Peng Xiang, Ruihon Luo, Minggang Liu, Weimin Yang, Yuan Ren, Zhiyuan He, Yibin Yang, Weijie Chen, Xiaorong Zhang, Zhisheng Wu, Yang Liu, Bijun Zhang
Applied Physics Letters
Vol.: 100, 241112
DOI: 10.1063/1.4729414
Jornal Nacional 23/01/2012 - Um bom professor tem um impacto na vida de um aluno que vai bem além das notas, da fronteira da sala de aula e pode mudar o futuro de uma criança. É o que mostrou um longo estudo coordenado por pesquisadores de duas importantes universidades dos EUA. Veja a reportagem completa nos links abaixo.
Por Carlos E. Morimoto (http://www.hardware.com.br/artigos/transistores3d-intel/)
Apesar de todos os avanços, o projeto básico do transistor continua o mesmo desde a década de 60, uma estrutura plana, composta de basicamente três componentes: o emissor, coletor e a base, ou gate, que controla o fluxo de elétrons entre os dois pólos. Embora extremamente avançados, os transistores atuais continuam atuando como meras chaves digitais, com apenas dois estados, "1" e "0". Colocando alguns bilhões deles nos lugares certos, juntamente com algumas células de memória SRAM e outros componentes, temos um processador moderno:
Uma fina camada abaixo do gate, chamada de inversion layer, é responsável por todo fluxo de elétrons, se comportando como um minúsculo fio entre os dois pólos de uma tomada. Na época em que os transistores mediam 180 nm ou mais, isso não era um problema, mas conforme eles foram encolhendo, o inversion layer foi se tornando cada vez mais fino e estreito, tornando-se menos eficiente. Com isso, cada vez mais energia flui entre o emissor e o coletor mesmo enquanto o transístor está desligado (o gate leakage) e menor é a diferença de tensão entre os dois estados.
Em vez de termos 1.0V (ou o equivalente à tensão nominal do processador) enquanto o transistor está ligado e 0V enquanto ele está desligado, temos tensões muito próximas nos dois estados, algo mais perto de 1.0V com ele ligado e 0.7V ou 0.8V com ele desligado, o que não apenas resulta em erros de processamento (obrigando os fabricantes a incluírem mais funções de checagem e redundância), quanto desperdiça muita energia, um problema que foi se acentuando com a introdução de cada novo processo de fabricação.
Tradicionalmente, este problema era atacado de duas formas: com a redução do gate leakage (através de tecnologias como o "high-k dielectric" e o "metal gate electrode", HK/MG, que a Intel introduziu a partir dos 45nm) ou com o simples aumento na tensão, o que força a passagem de mais elétrons através do inversion layer, amenizando o problema da diferença das tensões, mas em compensação aumentando dramaticamente o gate leakage e o consumo elétrico. Como resultado, temos processadores que são capazes de operar com tensões muito baixas (baixo consumo) e processadores que são capazes de operar a frequências muito altas (desempenho), mas não as duas coisas ao mesmo tempo.
Com a chegada dos 22 nm essa questão se tornou ainda mais crítica, o que levou a Intel a apresentar uma solução alternativa para o problema: aumentar a área do inversion layer através da construção de uma estrutura tridimensional:
Esta é uma solução engenhosa, que representa uma mudança fundamental no projeto do transistor, resultando em uma área de contato muito maior e um melhor controle sobre o fluxo de elétrons. Como existem agora três pontos em que existe contato entre a inversion layer e o gate, os transistores baseados na nova tecnologia são chamados de "tri-gate", muito embora a função lógica continue sendo a mesma, com um único gate fazendo contato em três faces. A Intel resolveu pegar carona na onda em torno do 3D para chamar o interesse do grande público, mas esta é apenas uma cartada de marketing.
Para criar essa "protuberância" no gate os engenheiros foram forçados a introduzir várias etapas adicionais no já tedioso processo de aplicação de máscaras de litografia e banhos químicos empregado na fabricação (os detalhes estão sendo naturalmente guardados a sete chaves), mas o resultado final é realmente interessante. Aqui temos uma foto de divulgação da Intel que mostra transistores construídos usando a técnica convencional, a 32 nm, e os transistores tri-gate de 22 nm, que apresentam uma densidade muito maior:
Com uma área de contato tão maior, a diferença de tensão entre os estados "1" e "0" do transístor tornam-se muito maiores e o delay entre as mudanças de estado tornam-se menores. Isso permite que o transistor possa operar de forma confiável utilizando uma tensão mais baixa (menor consumo), ou que o processador opere a frequências mais altas mantendo uma tensão mediana e um consumo aceitável. Com isso, a Intel ganha uma vantagem técnica importante, que pode ser usada tanto para criar versões de baixo consumo do Atom (melhorando sua posição em relação aos chips ARM nos smartphones) quanto versões de alto desempenho de seus Core i5 e i7, fortalecendo sua posição no mercado high-end e mid-range.
Embora o processo de fabricação seja mais caro, por exigir o emprego de passos adicionais na produção, o ganho de eficiência permite espremer mais transistores no mesmo espaço, o que reduz a área do wafer ocupada por cada chip. Como o wafer é o componente mais caro, uma coisa acaba ajudando a compensar a outra. Segundo a Intel o aumento final no custo de produção é apenas 3%. O preço de venda por sua vez depende mais dos preços praticados pela concorrência, por isso não estão necessariamente relacionados.
Segundo a Intel, os novos transistores são capazes de chavear até 37% mais rápido que transistores regulares de 32 nm operando a 0.6V, ou até 18% mais rápido operando a 1.0V. O Atom, bem como os chips ULV se encaixam na primeira categoria, operando com tensões muito baixas, enquanto os chips para desktops se encaixam na segunda. Se os números da Intel realmente se materializarem na prática, poderemos ter chips móveis consumindo até 50% menos energia e chips para desktop operando com clocks até 18% mais altos, resultando em chips capazes de operar acima dos 5.0 GHz.
A tecnologia fará sua estreia com o lançamento do Ivy Bridge (esperado para o final de 2011) e será utilizada também em versões mais econômicas do Atom, destinadas a tablets e smartphones. Naturalmente, ainda precisaremos esperar até que os processadores cheguem ao mercado para avaliar os ganhos reais, mas não resta dúvidas de que este é um avanço importante.
O uso dos transistores tri-gate não é exatamente uma ideia nova. Ela foi originalmente proposta em 2002 por um engenheiro da Intel e tem sido discutida nos círculos técnicos desde então, com alguns convencidos da importância e viabilidade da tecnologia e outros descartando seu uso por considerá-la muito problemática. Praticamente todos os grandes fabricantes já realizaram testes com a tecnologia, mas a Intel acabou sendo a primeira a colocá-la em produção, em uma aposta que pode resultar em uma enorme vantagem competitiva (caso tudo dê certo) ou em atrasos e problemas caso surjam problemas durante a produção em grande escala dos chips. Outros fabricantes têm apostado no uso do SOI (Silicon on Insulator), uma tecnologia bem menos ambiciosa, mas em compensação já bem testada, que consiste no uso de uma fina camada isolante sob os transístores para reduzir o gate leakage.
É bem verdade que o tri-gate coloca uma pressão adicional sobre a AMD, que já estava sendo pressionada com o Sandy Bridge, mas não chega a representar uma ameaça existencial para a empresa, já que a AMD continua firme no mercado de GPUs, cuja importância só aumenta. Mesmo que a Intel eventualmente conseguisse dominar completamente o mercado de processadores, a AMD ainda continuaria bem viva vendendo suas GPUs e APUs.
Qualquer comprador interessado em um PC de alto desempenho vai querer também uma boa GPU, o que automaticamente o obriga a ir comprar com a AMD ou a nVidia. Com o Fusion a AMD conseguiu também uma posição confortável no mercado de netbooks e PCs de baixo-custo, onde a combinação do processador com uma GPU relativamente poderosa é bastante atrativa, independentemente de qualquer diferença no consumo elétrico.
Concluindo, os transistores tri-gate e a migração para a técnica de 22 nm são apenas mais um capítulo no avanço dos processadores. A Intel pretende manter o ritmo de introdução de uma nova técnica de produção a cada dois anos, aprontando a técnica de produção de 14 nm para 2013 e a de 10 nm para 2015.
Dez anos atrás, especulava-se que os 32 nm seriam o limite final para os chips de silício, mas a sequência de novas tecnologias esticaram este limite até os 10 nm, que podem finalmente ser o limite final. Quando ele for finalmente atingido, entraremos em uma nova fase, onde os ganhos introduzidos por novas técnicas de fabricação passarão a ser menores a cada geração e os fabricantes serão obrigados a investirem na otimização das arquiteturas.
Redação do Site Inovação Tecnológica - 07/03/2011
O principal elemento que embasa a conclusão do pesquisador é a ausência de nitrogênio, o que descartaria a contaminação do meteorito depois que ele caiu na Terra.[Imagem: Richard B. Hoover/Journal of Cosmology]
O Dr. Richard B. Hoover, um renomado e premiado astrofísico que trabalha no Centro Espacial Marshall, da NASA, publicou um artigo alegando ter encontrado indícios de vida em um meteorito.
Fósseis de ETs?
O artigo foi publicado na sexta-feira em um periódico científico pouco conhecido, chamado Journal of Cosmology.
Juntamente com o artigo, o periódico publicou um comunicado sobre o aspecto controverso da descoberta e os cuidados tomados antes de sua publicação:
Dada a natureza controversa desta descoberta, nós convidamos 100 especialistas e enviamos um convite geral para mais de 5.000 cientistas da academia para revisar o artigo e apresentarem suas análises críticas. Nossa intenção é publicar os comentários, tanto favoráveis quanto desfavoráveis, juntamente com o artigo do Dr. Hoover.
A publicação dos comentários está prevista para acontecer entre hoje, dia 7, e o dia 10 de Março.
Até o momento, a NASA não se pronunciou oficialmente, ao contrário do que sempre faz, mesmo no caso de descobertas não tão significativas.
A agência espacial parece não haver se refeito ainda de uma alegação anterior do mesmo tipo, quando o anúncio da descoberta de sinais de vida em um meteorito marciano foi feito em cadeia nacional pelo então presidente do país, Bill Clinton. A "descoberta" então anunciada continua controversa.
Tampouco houve tempo para que cientistas sérios e ponderados se pronunciassem, o que recomenda que se aguarde a publicação dos comentários anteriores à publicação, prometidos pela revista.
Fósseis em meteoritos
A conclusão do Dr. Hoover veio da análise de dois meteoritos - Ivuna CI1 e Orgueil CI1 - catalogados como condritos carbônicos, um tipo muito raro de meteorito, perfazendo não mais do que 5% dos condritos.
Os meteoritos foram seccionados em ambiente estéril para evitar contaminação e observados com um microscópio de rastreamento eletrônico por emissão de campo (FESEM).
As imagens revelam estruturas intrigantes, interpretadas pelo pesquisador como fósseis de vida bacteriana - além das formações típicas, o principal elemento que embasa sua conclusão é a ausência de nitrogênio, o que descartaria a contaminação do meteorito depois que ele caiu na Terra.
Se for comprovada a descoberta, este pode ser um dos achados mais importantes da ciência em todos os tempos: a comprovação definitiva de que a vida não é exclusividade da Terra, o que terminaria de vez a era do geocentrismo, um trabalho iniciado por Galileu há mais de quatro séculos.
Veja na bibliografia abaixo o link para o artigo publicado pelo Dr. Hoover.
Bibliografia:
Fossils of Cyanobacteria in CI1 Carbonaceous Meteorites: Implications to Life on Comets, Europa, and Enceladus
Richard B. Hoover
March, 2011
Vol.: 2011, Vol 13
http://journalofcosmology.com/Life100.html
Redação do Site Inovação Tecnológica
02/05/2008
Cientistas da HP anunciaram que um novo componente eletrônico, construído por eles em 2005, é na verdade um memristor, o quarto componente eletrônico básico, teorizado pelo cientista Leon Chua, em 1971.
Até agora os cientistas da HP chamavam seu componente de crossbar latch - veja a descrição completa de sua estrutura e funcionamento em Cientistas criam novo componente que poderá substituir o transistor. Eles deram outro passo importante em sua pesquisa em 2007 (veja Descoberta avança três gerações na construção de chips).
Memristor
Leon Chua, professor da Universidade de Berkeley, afirmou que o memristor - uma junção livre que ele fez dos termos memória e resistor - seria o quarto componente eletrônico fundamental - ao lado do resistor, do capacitor e do indutor - e que ele teria propriedades que não poderiam ser duplicadas por nenhuma combinação desses três outros componentes.
A propriedade mais importante desse novo componente passou a ser conhecida como "memresistência", o que na prática significa que o memristor é uma memória resistiva, que não perde os dados quando a energia é desligada.
Os memristores são nanofios com 50 nanômetros de largura, o que compreende cerca de 150 átomos. Os nanofios são formados por duas camadas de dióxido de titânio conectados a condutores. Quando uma corrente elétrica é aplicada a um deles, a resistência dos outros se altera. É esta alteração que pode ser registrada como um bit, a unidade básica de informação.
Memresistência
Agora, os cientistas conseguiram desenvolver um modelo matemático que comprova que o seu protótipo em nanoescala é na verdade o memristor teorizado por Chua. Eles descreveram matematicamente os princípios físicos do novo componente e construíram protótipos que, segundo eles, demonstram todas as características operacionais necessárias para provar que o memristor é real.
A memresistência enquanto fenômeno isolado já foi observada em diversos experimentos ao longo dos últimos 50 anos, mas a prova definitiva de sua existência - a explicação teórica seguida da demonstração prática - não tinha sido encontrada porque, segundo os pesquisadores, a memresistência é mais fácil de ser detectada em componentes construídos em nanoescala.
O elemento-chave para a memresistência é que os átomos do componente precisam mudar de posição quando a tensão elétrica é aplicada, e isso acontece muito mais facilmente em nanoescala.
Sem perda de dados
Se os memresistores construídos pelos cientistas da HP puderem ser fabricados em escala industrial, mantendo todas as características observados nos protótipos de laboratório, poderá estar aberto o caminho para o desenvolvimento de computadores que não perdem dados quando desligados da tomada, em uma solução mais eficiente do que as oferecidas pelas memórias magnéticas.
Bibliografia:
The missing memristor found
Dmitri B. Strukov, Gregory S. Snider, Duncan R. Stewart, R. Stanley Williams
Nature Physics
1 May 2008
Vol.: 453, 80-83
DOI: 10.1038/nature06932
Página em constante construção!