As opiniões expressas neste artigo e seus comentários não representam a opinião do Portal Militar, das Forças Armadas e Auxiliares, ou de qualquer
outro órgão governamental, mas tão somente a opinião do usuário. Os comentários são moderados pelo usuário.
 
Denuncie | Colaboradores: Todos | Mais novos ] - [ Textos: Novas | Últimas ]

O autor decide se visitantes podem comentar.
 
Postada em 10-07-2014. Acessado 702 vezes.
Título da Postagem:Administrando a criação do Computador óptico em bytes cromáticos
Titular:Lewton Burity Verri
Nome de usuário:Lewton
Última alteração em 10-07-2014 @ 04:56 pm
[ Avise alguém sobre este texto ]
Tags: computação, fotônica, cromática, velocidade da luz, física quântica, Feynman

 Administrando a criação do Computador óptico em bytes cromáticos

 
Um dos recursos da comunicação e operação computacional é a de utilização de códigos contrativos de informações, para agilizar o processamento de dados. Por um lado os códigos, também, são usados nos trâmites das comunicações humanas, tais como o conhecido código de barras, códigos para criptografia e códigos binários – da linguagem operacional dos computadores atuais – que se traduz na moderna linguagem digital.
 
Além da computação em processamento eletrônico, por meio dos chips, em base digital dos computadores tradicionais há a percepção de usar as leis da física – mecânica – quântica com a base conceitual de usar os átomos e a energia dos elétrons, estimulados por luz – radiação ou raios incidentes (laser) ou eletricidade, que ao migrarem de uma órbita baixa para uma órbita alta eles recebem uma energia – quanta (fóton) - equivalente a esse esforço e ao cair novamente na órbita mais baixa libera essa energia como fóton. Ele recebe a energia da radiação da luz e o devolve emitindo o fóton, como energia, para a luz novamente – radiação ou raios.
 
Os avanços da tecnologia de computação têm vislumbrado a concepção dos computadores quânticos, que operariam na ordem da dimensão dos átomos e dos quanta – grãos da luz, que carregam uma quantidade de energia finita - como a energia liberada/absorvida por elétrons chamada de fótons, quando esses elétrons, dos átomos, são estimulados a subir de órbita. 
 
Há a tipificação de 2 processos como grupos familiares e de elementos atômicos e subatômicos, para criar os “estados de informações”, os quais caracterizariam um conteúdo sujeito a processamento de dados, como o requerido na linguagem digital em bit de 0 ou 1 (Lene Verstergaard Hau – Harvard – MA – USA – 2008):  
 
(a) Átomos fixos cujos spins (giros em torno de si mesmo – direcionais) nucleares apontam em direções diferentes e que interagem rapidamente uns com outros;
 
(b) Fótons que se deslocam rapidamente de um lugar a outro, mas que não se interagem uns com outros – deveriam tornar-se estacionários para habilitar às leis da computação quântica. 
 
Mas, por hora, existem grandes problemas a serem solucionados para que tais “máquinas” sejam capazes de efetuar cálculos e recuperar dados, armazenados em formatos adequados, pois há “instabilidade” no comportamento dos elétrons e dos átomos, sob estimulação da luz (laser) e da eletricidade (diferença de tensão).
 
O computador quântico opera em fase experimental, tendo perspectivas de longo prazo para tornar-se comercial e para usos estratégicos. 
 
Há uma extravagância científica já que esses computadores são diminutos, numa escala ainda muito difícil de manipulação e controle, de suas propriedades e efeitos, passíveis de uso em computação de dados. 
 
Questões para criar algoritmos para processar dados de entrada, para processamento confiável e medida dos resultados, que não produzam absurdos, ainda estão sem soluções científicas.
 
Eles poderão elaborar cálculos em altíssima velocidade, exponencialmente em relação ao seu tamanho, mas temos a questão da portabilidade, da necessidade de garantia da sua confiabilidade e na margem da falha zero. Além da efetivação de novos conceitos de hardwares, softwares e outros equipamentos periféricos, tais como: monitores, sensores, instrumentações, impressoras, caixas de som, conectores, condutores e etc.
 
Cremos que, antes da fase do tal computador revolucionário, tenhamos que nos dedicar ao desenvolvimento de um tipo de computador, cuja concepção já está se consolidando no campo real de percepção da engenharia – o computador óptico com processamento cromático em “bytes” de 8 cores. 
 
Tudo está ficando extremamente rápido e complexo, e os computadores vêm dobrando sua capacidade de processamento a cada dois anos pela lei de Moore (Gordon Moore – co-fundador da Intel). Qual poderá ser o limite desse avanço sob a estrutura dos atuais chips e dos arcabouços computacionais, baseados nos chips - transistores? 
 
A velocidade dos computadores de bordo atualmente, ou móveis e portáveis, condicionada aos modernos processadores, atinge cerca de 3 GHz ou 3.000.000.000 de instruções por segundo, monitorando sensores, instrumentações, efetuando atuações programadas, coletando, calculando e transmitindo dados. E, os computadores, estão sendo construídos com “amálgamas” de vários processadores, com operação otimizada, para ganhos de velocidade, de capacidade de cálculos, de atuação programada e de armazenamento de dados, estão sob a ação do calor de aquecimento de seu funcionamento, precisando de refrigeração – ar condicionado ou ventilação forçada.
 
O limite da computação hoje reside no chip da IBM – Dual Core de 64 bits – com velocidade de 5Ghz ou 5.000.000.000 de instruções por segundo, com 1 Terabyte de memória: 1012, denominado de POWER6.
 
O POWER6, o novo processador da IBM, foi criado para equipar máquinas poderosíssimas, resfriadas a água, designadas para gerir corporações e solucionar problemas científicos. Versões mais simples da mesma família, porém, já estão sendo usadas em aparelhos mais baratos — ao alcance do consumidor —, como o Nintendo Wii, o Microsoft Xbox 360 e o Sony Playstation 3. 
 
A “compactação” de tamanhas capacidades de processamentos, em chips, na toada da lei de Moore, dobrando a cada 2 anos, nos deixa na expectativa de que dentro de alguns anos a redução, terá sido tal, que vai ficar mais crítico, e dramático, o processo de “compactação”, em que a atual tecnologia terá que “acomodar” quase um bit num dado átomo. A fabricação de computadores irá entrar em colapso.  
 
Temos a impressão que o limite dessas capacidades operacionais irão se aproximar do conceito da velocidade da luz, admitindo-se a já determinada constante de 300.000 km por segundo no vácuo.  Na água a velocidade da luz “cai” para 25% desse valor, ou seja, 75.000 km por segundo. Então, essa velocidade no vácuo do espaço cósmico é 300.000.000 metros por segundo ou 300 megametros por segundo. E na água será de 75.000.000 metros por segundo ou 75 megametros por segundo.    
 
Um avião de caça a jato que voe a uma velocidade de 2.600 km, por hora, tem computadores de bordo que são capazes de manter a funcionalidade, e a operacionalidade, da nave na faixa de 720 metros por segundo, ou 0,00072 megametros por segundo (cerca de 417.000 vezes “mais lento” do que a velocidade da luz no vácuo e cerca de 104.170 vezes “mais lento” do que a velocidade da luz na água).
 
Um satélite em dada órbita a uma velocidade de 26.000 km, por hora, também, tem computadores de bordo que são capazes de manter a funcionalidade, e a operacionalidade, da nave na faixa de 7.200 metros por segundo, ou 0,0072 megametros por segundo (cerca de 41.700 vezes “mais lento” do que a velocidade da luz no vácuo e cerca de 10.417 vezes “mais lento” do que a velocidade da luz na água).
 
A existência desses processadores de 3 GHz e de 5 GHz já nos coloca “sob o controle otimizado de qualquer processo funcional e operacional”, mesmo que na ordem de 25% da velocidade da luz – na água.
 
A alta velocidade de computação “concentrada”, num só processador, hoje nos habilita a utilizá-lo, caso fosse tecnologicamente possível, numa nave espacial terrestre que se deslocasse no espaço a 25% da velocidade da luz – 75.000 km por segundo? Em Quadruo Core ou em Hexa Core? Seriam capazes de manter a funcionalidade, e a operacionalidade, da nave? Quantos milhões de instruções por segundo seriam necessários para controlar essa nave? Ou bilhões de instruções por segundo? Qual configuração os novos Core terão, e quais as necessidades de suporte para sustentação de sua operacionalidade?
 
Cogitamos que se deveria propor o referencial limite, de desenvolvimento da computação, usando o paradigma da nave espacial sub-luz, com capacidade operacional e propulsão para atingir 25% da velocidade da luz (na água).
 
Essa nave seria a caixa preta da tecnologia da computação, onde estariam presentes vários problemas, de soluções, com progressão de tempo exponencial (ou os problemas NP e NP completos – Nondeterministic Polynomial time – tempo polinomial não determinístico) e os problemas Pspace (que os computadores convencionais não são capazes de resolver em curto tempo) (1), na urgência da navegação espacial, entre regiões siderais. Irão requerer memórias Hexabyte - 1018 bytes? 
 
Os computadores convencionais são bons para resolverem problemas com média complexidade para baixa, trabalhando em progressão de tempo polinomial, que exigem os atuais recursos da computação, “fechando resultados” em curto tempo e requerendo memórias na faixa do Gigabyte (109 bytes) ao Terabyte (1012 bytes). São bons para problemas P (Deterministic Polynomial Time - tempo polinomial determinístico) e para alguns NP (2). (1), (2) Scott Aaronson – MIT – Boston – USA – 2008.   
 
Sob o “ponto de vista da engenharia”, uma 3ª via de desenvolvimento de computadores, deveria ser proposta para aumentar as nossas chances de fabricar computadores mais velozes, numa outra plataforma tecnológica, usando a luz como elemento marcador de “estados de informações”, com maiores possibilidades de combinações de elementos.
 
Como os computadores atuais, e já tradicionais, começaram com a concepção básica de um dado “estado de informação” – em 0 ou 1 – em linguagem binária, no entorno dela foi-se desenvolvendo o que temos hoje de configurações:
 
1) Processador, 
2) Sistema Operacional, 
3) Memórias RAM e ROM, 
4) Unidades de Armazenamento de dados, rígidas, de massa e de óptica, 
5) Interfaces de vídeo, de rede, de fax/modem, 
6) Acessórios como teclado, mouse e caixas de som, 
7) Gabinetes e designs, 
8) Floppy com leitor de cartão e 
9) Softwares.
 
Mas, uma nova linguagem referente a “estados de informação” pode ser formulada para a criação de novas configurações em nova plataforma tecnológica – O CÓDIGO CROMÁTICO OU O CODECROME.  
 
A princípio o computador óptico poderá ser de tamanhos impraticáveis para a mobilidade e portabilidade, mas assim é que começaram os computadores tradicionais, desde o famoso ENIAC de 1943, nos EUA, à válvula e ocupando alguns andares no prédio de sua instalação. 
 
Operando à base do espectro da luz branca e suas 7 cores difratadas, cada cor tem um “estado de informação”, tanto fotônico quanto elétrico (e energético). 
 
O sistema de computação óptica poderá adquirir a capacidade para processamentos a extremas velocidades, com baixo dispêndio de energia e manutenção, caminhando com o tempo para sua miniaturização, sem muitas necessidades de sofisticados recursos de refrigeração.  Além de poder aproveitar regras e conceitos da atual computação eletrônica e digital, bem como do status da tecnologia presente em muitas empresas e fábricas (e matérias primas).
 
Como referência histórica foi o físico, e prêmio Nobel americano, Richard Feynman quem propôs pela primeira vez a idéia de computação quântica, e que se dedicou à teoria da cromodinâmica quântica – não tendo nada a ver com cores – e que tinha semelhanças com a eletrodinâmica quântica. Feynman desenvolveu estudos sobre as cores de luz que os elétrons emitem e absorvem, em seu comportamento e em suas órbitas em torno do núcleo atômico, comunicando aos átomos suas propriedades químicas espectrais (Leonard Mlodinow, físico israelense – autor de “O arco íris de Feynman” – escrito em 2003 - PhD do CALTECH- USA). 
 
Na ocasião, em que Feynman iniciou esses estudos, a física denominava esse campo de eletrodinâmica quântica, que depois, renovando e aprofundando conceitos, criou a cromodinâmica quântica, que se dedicou ao estudo das interações e do comportamento preciso das partículas atômicas: prótons, nêutrons e demais partículas ligadas.   
 
Abraços,
 
Lewton



Bookmark and Share
Outas colaborações de Lewton
Veja Mais
Perfil de Lewton
Perfil do Usuário
Junte-se a nós!
Junte-se a nós!