É a era da computação por silício chegando ao fim?

A computação tradicional, com seus circuitos cada vez mais microscópicos, gravados em silício, em breve alcançarão uma barreira final: a lei de Moore; que determina que a quantidade de poder computacional a se espremer em um mesmo espaço, se multiplica a cada 18 meses, e que segue a um colapso devido ao superaquecimento, causado por cargas elétricas que percorrem circuitos cada vez mais lotados. “Em cerca de dez anos ou mais, veremos o colapso da Lei de Moore. Na verdade, já, já vemos uma desaceleração da Lei de Moore”, diz o físico de renome mundial, Michio Kaku. “O poder do computador simplesmente não pode manter a sua rápida ascensão exponencial usando a tecnologia de silício padrão.” Em concordância a Kaku, o membro do grupo de arquitetura da Intel Kirk Skaugen, na Conferência Internacional de Supercomputação 2011 (Junho passado), mencionou que a Lei de Moore é um dos objetos de estudos que levam a empresa aumentar a escala de desempenho de seus hardwares até 2018. Citando o uso da tecnologia Tri-Gate da Intel (também conhecidos como processadores “3D”) como a solução, que Skaugen anunciou significar “a Lei de Moore não trata mais de um ponto final”. Apesar dos avanços recentes da Intel com processadores tri-gate, Kaku afirma em uma entrevista em vídeo, que a empresa está evitando o o adiamento do inevitável: o colapso devido a problemas de aquecimento e fugas da lei. “Então, há um limite máximo definido pelas leis da dinâmica térmica e definir pelas leis da mecânica quântica como o quanto o poder de computação que pode fazer com silício”, diz Kaku, observando que “Essa é a razão pela qual a idade do silício acabará chegou ao fim “, e argumentando que a Lei de Moore pode” achatar completamente “até 2022.” Kaku ver várias alternativas para o fim da Lei de Moore: computadores, computadores de DNA de proteínas, computadores óticos, computadores quânticos e computadores moleculares. “Se eu fosse colocar dinheiro na mesa, eu diria que nos próximos dez anos, como a Lei de Moore desacelera, vamos ajustá-lo. Nós vamos ajustá-lo com tridimensionais batatas fritas, batatas fritas talvez ópticos, ajustá-lo com a tecnologia conhecida empurrando os limites, espremendo o que podemos. Cedo ou tarde, mesmo tridimensionais chips, mesmo o processamento paralelo, será esgotado e nós vamos ter que ir para a era pós-silício “, diz Kaku. Kaku conclui que quando a Lei de Moore finalmente entra em colapso até o final da próxima década, vamos “simplesmente ajustá-lo um pouco com chip, como computadores em três dimensões. Talvez tenhamos que ir para computadores moleculares e talvez no final do século 21 os computadores quânticos. ” Nós vamos colocar nossas apostas em computação quântica. “Os computadores quânticos podem ser eficazes para tornar fisicamente possível cada ambiente quantum, mesmo quando um grande número de universos estão interagindo. A computação quântica é uma forma qualitativamente nova da natureza aproveitamento”, segundo David Deutch, um físico israelense-britânica na Universidade de Oxford que foi pioneiro o campo da computação quântica e é um defensor da interpretação de muitos mundos da mecânica quântica. Os computadores quânticos, diz Deutch, têm o potencial para resolver problemas que levariam um computador clássico mais do que a idade do universo. O astrofísico Paul Davies na Arizona State University propõe que a informação não, a matemática, é o alicerce sobre o qual a realidade física, as leis da natureza, é construída. Enquanto isso, no MIT, o cientista de computação Seth Lloyd, desenvolve Davies premissa, tratando os eventos quânticos como “bits quânticos, ou qubits”, como o caminho pelo qual o universo “registra-se.” Lloyd propõe que a informação é um valor quantificável físico, tanto quanto em massa ou movimento que qualquer sistema físico – um rio, você, o universo – é um computador quântico. Lloyd calculou que “um computador feito de toda a energia em todo o universo conhecido (ou seja, dentro do visível” horizonte “de quarenta e dois bilhões de anos-luz) pode armazenar cerca de 1092 bits de informação e pode executar cálculos 10105 / segundo. ” O próprio universo é um computador quântico, diz Lloyd, e fez um computações incompreensível 10122/sec desde o Big Bang (por que parte do universo dentro do “horizonte”). No Ano Milhão: Ciência na borda mais distante do Conhecimento cientistas, levando e up-and-coming e escritores de ciências lançam suas mentes um milhão de anos no futuro a imaginar o destino da galáxia humana e / ou extraterrestre. Primeiro tentou por HG Wells em seu ensaio 1893 “O Homem do Ano Milhão” é uma exploração em um futuro distante apenas concebível, onde os autores enfrentar possibilidades que enfrentam as futuras gerações de Homo Sapiens. Como a galáxia olhar se fosse redesenhado para o consumo de energia otimizado e inteligência maximizada? O que é um universo desprovido de estrelas? Lloyd propôs que um buraco negro poderia servir como um computador quântico e banco de armazenamento de dados. Em buracos negros, diz ele, Hawking radiação, o que escapa do buraco negro, involuntariamente carrega informações sobre o material dentro do buraco negro. Isso ocorre porque a matéria que cai dentro do buraco negro se envolve com a radiação deixando sua vizinhança, e essa radiação captura informações em quase toda a matéria que cai no buraco negro. “Poderíamos ser capazes de descobrir uma maneira essencialmente programar o buraco negro, colocando na coleção direito da matéria”, sugere ele. Há um buraco negro supermassivo no centro da nossa galáxia, talvez o remanescente de uma antiga quasar. Poderia buraco supermassivo da Via Láctea preto (na imagem acima) se tornar o mainframe e sistema de compartilhamento de arquivo central, para os hackers de galáxias do Ano Milhão? Um enxame de dez mil ou mais pequenos buracos negros podem ser orbitando-a. Eles podem ser capazes de funcionar como nós de computação distribuída e de uma rede de armazenamento? Perto do AD 1.000.000 Ano de uma rede de arquivos entre as estrelas e entre as galáxias poderia desenvolver uma enciclopédia Universica, armazenar informação crítica sobre o universo em vários locais redundantes em esses e muitos outros buracos negros. A computação quântica por Lloyd do MIT soa como ficção científica, como satélites, fotos da lua, eo microprocessador original uma vez que eram. Mas a idade de computação em nem mesmo no fim do começo. Para ultrapassar a muralha de silicone, temos que descobrir como manipular as regras cérebro-flexão do mundo quântico – uma Alice in Wonderland mundo das partículas subatômicas que podem estar em dois lugares ao mesmo tempo. Sempre que um computador clássico obedece às leis bem conhecidos da física clássica, um computador quântico é um dispositivo que aproveita fenômeno físico exclusivo para a mecânica quântica (especialmente interferência quântica) para realizar um modo radicalmente novo de processamento de informações. A unidade fundamental de informação em computação quântica (chamado um bit quântico, ou qubit), não é binário, mas sim mais quaternário na natureza, que difere radicalmente das leis da clássica physics.A qubit pode existir não só em um estado correspondente à lógica estado 0 ou 1 como um pouco clássica, mas também em estados correspondentes a uma mistura ou sobreposição destes estados clássicos. Em outras palavras, um qubit pode existir como um zero, um, ou ambos, simultaneamente, como 0 e 1, com um coeficiente numérico que representa a probabilidade para cada estado. Isto pode parecer contra-intuitivo, pois fenômeno diário são regidos pela física clássica newtoniana, e não da mecânica quântica – que assume em nível atômico. A razão pela qual isso é excitante é que ele é derivado do paralelismo quântico maciça alcançado através da superposição, é o equivalente de realizar a mesma operação em um super computador clássico co m ~ 10150 processadores separados, o que é impossível. A idéia de um dispositivo computacional baseado em mecânica quântica foi explorado pela primeira vez na década de 1970 e início dos anos 1980 pelos físicos e cientistas da computação, tais como Charles H. Bennett, da IBM Thomas J. da Watson Research Center, Paul A. Benioff do Argonne National Laboratory, em Illinois , David Deutsch de Oxford, e do falecido Richard P. Feynman, ganhador do Nobel do Instituto de Tecnologia da Califórnia foram ponderando os limites fundamentais da computação. Eles entenderam que se a tecnologia continuou a cumprir a Lei de Moore, então o tamanho continuamente encolhendo de circuitos embalado em chips de silício acabaria por chegar a um ponto onde os elementos individuais não seria maior do que uns poucos átomos. Aqui surgiu um problema porque em escala atômica as leis físicas que regem o comportamento e as propriedades do circuito são inerentemente mecânica quântica na natureza, e não clássica. Isso, então, levantou a questão de saber se um novo tipo de computador pode ser concebido com base nos princípios da física quântica. Feynman foi um dos primeiros a tentar dar uma resposta a esta questão através da produção de um modelo abstrato em 1982, que mostrou como um sistema quântico poderia ser usado para fazer cálculos. Ele também explicou como tal máquina seria capaz de agir como um simulador para a física quântica. Em outras palavras, um físico teria a capacidade de realizar experiências em física quântica dentro de um computador quântico. Em 1985, Deutsch percebeu que a afirmação de Feynman poderia eventualmente levar a um computador de propósito geral quântica e publicou um papel fundamental teórica mostrando que qualquer processo físico, em princípio, poderia ser modelado perfeitamente por um computador quântico. Assim, um computador quântico poderia ter capacidades muito além de qualquer computador tradicional clássico. Depois de Deutsch publicado este artigo, a pesquisa começou a encontrar aplicações interessantes para uma máquina desse tipo. A descoberta ocorreu em 1994, quando circulou Shor uma pré-publicação de um artigo em que ele estabeleceu um método para usar os computadores quânticos para quebrar um problema importante na teoria dos números, ou seja, fatoração. Ele mostrou como um conjunto de operações matemáticas, projetado especificamente para um computador quântico, poderia ser organizada para permitir que uma máquina de tal fatorar números enormes de forma extremamente rápida, muito mais rápido do que é possível em computadores convencionais. Com o avanço de Shor, a computação quântica transformada de uma mera curiosidade acadêmica diretamente para um interesse nacional e mundial. Hardware Quantum, por outro lado, continua a ser um campo emergente, mas o trabalho feito até agora sugere que ela só vai ser um momento assunto antes que tenhamos dispositivos grandes o suficiente para testar Shor e outros algoritmos quânticos. Além da criação real de um computador quântico, os nossos principais limitações são a imaginação dos engenheiros de software. Este será o grande desafio dos garotos do Google whiz de amanhã: levar a computação e redes de poder que é efetivamente infinita e criar interfaces que são simples o suficiente para meros seres humanos para compreender. Recentes avanços pioneiros Stuart Wolff, da Universidade de Virginia, nos permitam aproveitar a eletricidade fora da equação, e se livrar do problema de superaquecimento que é subcotação a lei de Moore. Electrões individuais têm sido feitas para ajustar a sua rotação. Circuitos subatômica está ao nosso alcance. O Galaxy diário via geek.com e http://techland.time.com Outras fontes: Informação e da natureza da Realidade, Paul Davies e Niels Henrik Gregersen (2011) http://www.qubit.org/people/david/David.htmlhttp://blogs.zdnet.com/BTL/?p=6050 http://www.cs.caltech.edu/ ~ westside / quantum-intro.html Ver Vídeo de hoje Hot News Tecnologia da IDG-editores da PC World, MacWorld, e Computerworld – canto superior direito da página Para iniciar o vídeo clique na seta de início. Nossos agradecimentos pelo seu apoio! Ela nos permite trazer-lhe as notícias diárias sobre as descobertas, pessoas e eventos em mudança de nosso planeta e nosso conhecimento do Universo.]]>