Inteligência artificial, Computação Quântica, Robótica e Blockchain. Qual a realidade destas tecnologias em tempos atuais e futuros?

1
587
DOI: 10.32749/nucleodoconhecimento.com.br/administracao/inteligencia-artificial
ARTIGO EM PDF

ARTIGO ORIGINAL

CHAGAS, Edgar Thiago de Oliveira [1]

CHAGAS, Edgar Thiago de Oliveira. Inteligência artificial, Computação Quântica, Robótica e Blockchain. Qual a realidade destas tecnologias em tempos atuais e futuros?. Revista Científica Multidisciplinar Núcleo do Conhecimento. Ano 04, Ed. 06, Vol. 09, pp. 72-95. Junho de 2019. ISSN: 2448-0959

RESUMO

Em áreas como a da inteligência artificial é necessário o uso de outros tipos de computadores e arquiteturas. Por exemplo, em algoritmos de reconhecimento de imagem ou processamento de fala, a execução sequencial e o armazenamento da arquitetura de von Neumann (muito eficaz para outras aplicações) se torna uma limitação que limita o desempenho desses sistemas. Nessa premissa, o presente trabalho buscou analisar a Inteligência artificial, a computação quântica, a robótica e o blockchain, para, assim, refletir sobre a realidade destas tecnologias em tempos atuais e futuros.

Palavras-chave: Inteligência artificial, Computação Quântica, Robótica, Blockchain.

1. INTRODUÇÃO

Este artigo visa refletir sobre os conceitos relacionados com a computação clássica e com a computação quântica. Dessa forma, o trabalho propõe-se a analisar os computadores atuais bem como as suas limitações e percepções acerca do futuro. Os conceitos básicos da arquitetura von Neumann e da computação quântica serão introduzidos para tal análise. O objetivo é discutir sobre o significado desses conceitos voltados à ciência da computação. Nesse sentido, a pesquisa descreve a história do desenvolvimento de microprocessadores a partir de uma visão geral sobre a computação quântica. A ênfase centra-se na distinção entre as principais características da computação tradicional e da computação quântica. Por fim, propõe-se a reflexão sobre as principais dificuldades técnicas encontradas na construção de computadores quânticos assim como em algumas pesquisas deste campo.

2. COMPUTAÇÃO CLÁSSICA

Hoje, os computadores executam uma variedade de atividades que exigem tempo considerável de processamento e execução. A busca pela redução do tempo de execução dessas atividades levou os pesquisadores a desenvolver máquinas cada vez mais rapidamente. No entanto, chegará um momento em que os limites físicos impedirão a criação de dispositivos mais rápidos. Neste contexto, as leis da física impõem um limite para a miniaturização de circuitos. Dessa forma, no futuro, os transistores serão tão pequenos que os componentes de silício serão quase de tamanho molecular. Em distâncias microscópicas, as leis da mecânica quântica surtem efeito, fazendo com que os elétrons pulem de um ponto a outro sem atravessar o espaço entre eles, causando muitos problemas.

Os computadores atuais baseiam-se na arquitetura de Von Neumann. Foi um matemático húngaro de origem judaica, porém naturalizado como americano. Von Neumann contribuiu para com o desenvolvimento da teoria das articulações, da análise funcional, da teoria ergódica, da mecânica quântica, da ciência da computação, da economia, da teoria dos jogos, da análise numérica, da hidrodinâmica de explosões, das estatísticas e de outras várias áreas da matemática. Ele é considerado um dos matemáticos mais importantes do século XX. Um computador baseado na arquitetura de von Neumann distingue, claramente, os elementos de processamento e armazenamento de informações, isto é, possui um processador e uma memória separada por um barramento de comunicação. No computador de von Neumann, dois aspectos surgiram: a organização da memória e o tratamento.

Computadores modernos têm os mesmos padrões, pois são baseados na arquitetura de Von Neumann. Essa solução divide o hardware do computador em três componentes principais: memória, CPU e dispositivos de entrada e saída. A memória armazena instruções e dados do programa; a CPU é responsável por extrair instruções e dados da memória, executá-los e, em seguida, armazenar os valores obtidos na memória e os dispositivos de entrada (como teclado, mouse e microfone) e dispositivos de saída (como monitor, alto-falantes e impressora) permitem a interação do usuário, exibindo, para tanto, dados e instruções relacionados ao processamento de resultados. Palavras armazenadas na memória podem conter instruções e dados. Por sua vez, o processamento é sequencial e pode incluir desvios condicionais ou incondicionais.

A presença de contadores de programa (incrementados por cada instrução) e da memória principal (incluindo programas executáveis ​​e seus arquivos de dados) reflete essas características. Estas são duas das características mais importantes da arquitetura von Neumann, pois eles não só definem o computador em si, mas também todo o conteúdo associado a partir de algoritmos complexos para a resolução de alguns dos problemas de eficiência. Para ilustrar ainda mais a importância dessas características da arquitetura de Von Neumann, considere o seguinte exemplo. Quando um programador desenvolve software, ele escreve um algoritmo (um conjunto de instruções) para resolver o problema.

A maneira como a maioria dos programadores desenha e implementa essa solução é sequencial, não apenas porque as pessoas pensam em ordem, mas porque os computadores construídos e usados ​​cinquenta anos atrás trabalham em sequência. A programação (estrutural, lógica ou funcional) e o processamento sequencial são consequências diretas da arquitetura de Von Neumann. Mesmo novos paradigmas de programação, como a orientação a objetos, ainda estão limitados a esses conceitos. Apesar de algumas limitações, essa maneira de organizar computadores é muito eficaz para a maioria das atividades realizadas por computadores modernos. Pode não haver melhor maneira de fazer cálculos matemáticos, editar texto, armazenar dados ou acessar a Internet, pois os computadores von Neumann são a melhor máquina para essas tarefas.

No entanto, para áreas específicas de desenvolvimento, como a criptografia, uma nova ferramenta de computador pode ser necessária bem como uma nova estratégia para lidar com problemas e, assim, encontrar soluções. Os programas de criptografia, atualmente, funcionam efetivamente porque não são adequados para decomposição em grande quantidade, possuindo, assim, mais do que algumas centenas e mais do que a capacidade das máquinas mais modernas. A dificuldade de decompor uma grande quantidade não pode ser atribuída apenas aos materiais. Isso pode ser causado por aspectos relacionados ao software e ao hardware.

Não se pode dizer que a tarefa da máquina atual de realizar essa natureza é ineficiente porque o computador atual não tem energia ou velocidade de processamento suficientes. O problema pode ser a falta de conhecimento (ou criatividade) no projeto dos algoritmos necessários. Portanto, os processadores atuais podem até ser suficientes para resolver o problema da decomposição massiva, entretanto, os seres humanos não entendem como implementar o algoritmo. Por outro lado, a falta de tal algoritmo pode ser o resultado de uma falta de um computador suficientemente poderoso. A verdade é que a pesquisa não é decisiva, visto que se desconhece a origem do problema relacionado ao hardware, ao software ou à ambos.

2.1 AUTOMAÇÃO, O CAMINHO PARA O MUNDO MODERNO

No sistema capitalista a globalização impera nos mercados de trabalho do mundo, dessa forma, a automação funciona como a base para as empresas continuarem competitivas. Esta já é a realidade das indústrias, pois a tecnologia tornou-se um elemento essencial. O tema proposto relaciona-se, também, com os empregos gerados em face da automação sendo esta inversamente proporcional. A automação é o investimento necessário para as empresas de grande, médio e pequeno porte. As máquinas obsoletas atrapalham a produção e acabam sendo um fator preponderante para a retirada de muitas empresas do mercado. Nesse contexto, os computadores são responsáveis por agilizar os serviços burocráticos bem como por transmitir informações precisas e rápidas para as empresas assim como os robôs também agilizam o mercado.

É evidente que a tecnologia diminuiu o número de empregos, porém tornou os consumidores mais exigentes bem como aumentou a agilidade e a competitividade no comércio. Com isso, as despesas das empresas diminuíram e os lucros aumentaram. O vinculo empregatício gera ônus para as empresas com os impostos pagos sob funcionários, sendo as máquinas investimentos de alto custo, mas que cessam ou diminuem as despesas com esses e trazem, rapidamente, o retorno do capital investido. Os trabalhadores devem estar, sempre, reciclando-se e se aperfeiçoando por meio de cursos e treinamentos, pois o mercado de trabalho está, cada vez mais, competitivo, assim os que não se reciclam acabam ficando a margem da evolução.

É crescente, nos países capitalistas, a preocupação com a evolução que ocorre nos âmbitos da biologia, da microeletrônica, dentre outros. Destarte, a preocupação atinge a corrida modernista, pois há uma rápida superação das máquinas; mas também tem como objeto os trabalhadores que perdem o trabalho. É frequente, nas empresas, a volta de funcionários antigos aos bancos escolares. Isso demonstra que as empresas estão contando com mão de obra qualificada e, com isso, ganham dinamismo e qualidade para competir.

2.2 AUTOMAÇÃO INDUSTRIAL

A história da automação industrial teve seu ensejo com a produção das linhas de montagem de caráter automobilístico. Um dos exemplos mais expressivos é Henry Ford. Este ganhou espaço no mercado na década de 1920. Desde esse período, o avanço tecnológico tem ganhado força nas mais diversas áreas interligadas à automação, havendo, assim, um aumento significativo na qualidade e na quantidade da produção, priorizando-se, principalmente, a redução de custos. Nesse contexto, o avanço da automação, de forma geral, está ligado à evolução da microeletrônica, que ganhou mais força e espaço nos últimos anos. Um exemplo desse processo se trata da criação dos CLPs (Controlador Lógico Programável).

Tal ferramenta surgiu na década de 1960, tendo como objetivo a substituição dos painéis de cabina, visto que esses possuíam características mais negativas do que positivas, principalmente porque ocupavam um espaço físico bastante expressivo. Assim, a partir do momento em que era necessário realizar alterações na programação lógica dos processos realizados por interconexões elétricas com lógica fixa, exigia-se interrupções no processo produtivo em detrimento da necessidade de se reconectar os elementos de controle do painel. Tal prática levava muito tempo, havendo, assim, uma enorme perda na produção bem como havia um consumo elevado de energia.

Nesse contexto, no ano de 1968, na divisão hidramática da “General Motors Corporation”, foi realizado um experimento voltado ao controle de lógica. Objetivava-se que a programação de recursos ligados ao software estivesse ligada ao uso de dispositivos periféricos, sendo capaz, para tanto, de realizar operações de entrada e saída a partir de um microcomputador com capacidade de programação. Tal experimento reduziu, expressivamente, os custos de automação da época. Dessa forma, com a criação dos microprocessadores, deixou-se de ser necessária a utilização de computadores de grande porte. Assim, a PLC (nome dado ao experimento), tornou-se uma unidade isolada, recebendo, para tanto, alguns recursos.

São eles a interface de programação e operação de forma facilitada ao usuário; instruções de aritmética bem como de manipulação de dados; recursos de comunicação a partir de redes de PLC e novas possibilidades de configuração específica para cada finalidade a partir de módulos intercambiáveis. Nesse sentido, a partir de uma visão mais integrada do chão de fábrica com o ambiente corporativo, todas as decisões de caráter organizacional relacionadas ao sistema de produção passaram a ser tomadas por intermédio dos conceitos votados à qualidade, baseando-se, para tanto, em dados concretos e atuais, originados de diferentes unidades de controle. Dessa forma, os fabricantes de CLPs precisam compreender a inequação básica: software e hardware para a produção de sistemas SCADA bem como para outros sistemas especializados.

Assim, os softwares SCADA tomam forma a partir de diferentes tamanhos e sistemas operacionais assim como possuem diversas funcionalidades. Para se apresentarem como ferramentas mais completas, somam-se com a SLP para competir. Entretanto, na área da instrumentação, tal revolução se deu mais lentamente, pois era necessário dotar os instrumentos de mais inteligência bem como fazê-los se comunicar em rede, ou seja, para que o padrão 4-20 mA pudesse transmitir sinais analógicos, deveria ceder seu lugar à transmissão digital. Tal princípio foi desenvolvido a partir de um protocolo que se aproveitava da própria cablagem já existente, assim, fazia transitar sinais digitais sobre os sinais analógicos 4-20 mA. Este protocolo (HART) não foi mais que um paliativo, embora permaneça até hoje em sua interinidade.

Tal fenômeno representa, também, uma forma de reação ao avanço e existência de novas tecnologias, pois, depois, surgiram uma vasta quantidade de padrões e protocolos que tentavam se mostrar como únicos e melhores. Em um contexto atual, os CLPs são utilizados, sobretudo, para a implementação de painéis sequenciais de intertravamento, para o controle de malhas, para os sistemas de controle de células de manufatura, dentre outros. São encontrados, ainda, em processos relacionados com o empacotamento, com o engarrafamento, com o enlatamento, com o transporte e manuseio de materiais, com a usinagem, com a geração de energia, em sistemas de controle predial de ar condicionado, em sistemas de segurança, na montagem automatizada, em linhas de pintura e em sistemas de tratamento de água em indústrias de alimentos, bebidas, automotivas, químicas, têxteis , de plásticos, papel e celulose, farmacêutica, siderúrgica e metalúrgica.

3. HISTÓRICO

Em 1965, Gordon Moore, co-fundador da Intel, uma das principais fabricantes de microprocessadores, fez uma previsão que se tornou famosa sendo conhecida como Lei de Moore. Segundo ele, o número de transistores de um microprocessador dobraria em intervalos de tempo aproximadamente constantes, entre um e três anos. Isto significa um avanço exponencial na evolução do processamento das máquinas. Nesse contexto, verificou-se que a lei foi válida desde então até os dias atuais, período no qual foi observado que o poder de processamento duplicou, aproximadamente, a cada 18 meses.

3.1 A PROMESSA DOS PROCESSADORES QUÂNTICOS

Processadores quânticos parecem ser o futuro da computação. A arquitetura atual, incluindo o uso de transistores para construir processadores, inevitavelmente atingirá seus limites dentro de alguns anos. Então será preciso a elaboração de uma arquitetura mais eficiente. Por que não substituir o transistor por um átomo? Os processadores quânticos têm o potencial de serem eficientes e, em segundos, os processadores atuais não podem sequer ser concluídos em milhões de anos.

3.2. O PORQUÊ DOS PROCESSADORES QUÂNTICOS

Na verdade, o designer de microprocessadores fez um trabalho significativo. Nas últimas três décadas, desde o advento da Intel 4004, a velocidade de processamento do primeiro microprocessador do mundo cresceu expressivamente. Para se ter uma ideia, o i8088 é o processador usado no XT lançado em 79, este possui uma capacidade de processamento estimada de apenas 0,25 megaflops, ou apenas 250.000 operações por segundo. O Pentium 100 processou 200 megaflops e 200 milhões de operações, enquanto o Athlon de 1,1 GHz processa quase 10 gigaflops, 40.000 vezes mais rápido que o 8088.

O problema é que todos os processadores atuais têm uma limitação comum: consistem em transistores. A solução para produzir chips mais rápidos é a redução do tamanho dos transistores que os produzem. Os primeiros transistores apareceram na década de 1960, são, aproximadamente, do tamanho de uma cabeça de fósforo, enquanto os transistores de corrente são apenas 0,18 microns (1 micron = 0,001 mm). No entanto, tem-se aproximado dos limites físicos da matéria, assim, para seguir em frente, terá que substituir os transistores para estruturas mais eficientes. Dessa forma, o futuro dos processadores parece depender dos processadores quânticos.

3.3. A LEI DE MOORE

Um dos conceitos mais conhecidos da computação é abordado pela chamada Lei de Moore. Em meados de 1965, Gordon E. Moore, então presidente da Intel, previu que o número de transistores de chips aumentaria em 60%, pelo mesmo custo, a cada 18 meses. De acordo com as previsões de Moore, a velocidade dos computadores dobraria a cada ano e meio. Esta lei foi mantida desde a publicação do primeiro PC1 em 1981. O primeiro microprocessador fabricado pela Intel Corporation foi o 4004. Ele tinha uma CPU de 4 bits, com “apenas” 2300 transistores. Sua velocidade de operação era de 400 KHz (kilohertz, não megahertz). A tecnologia de fabricação atingiu uma densidade de 10 microns. Feito em 1971, foi o primeiro microprocessador em um único chip, bem como o primeiro disponível no mercado. Originalmente projetado para ser um componente de calculadoras, o 4004 foi usado de várias maneiras.

Atualmente, o processador mais avançado da Intel é o Core i7 – 3960X, com seis núcleos reais e doze segmentos de 3.3 GHz, até 3.9 GHz, graças à tecnologia Turbo Boost. Este processador tem 2,27 bilhões de transistores de 22 nanômetros cada, mil vezes menor que o diâmetro de um fio de cabelo; o chip é silício. No entanto, em algum momento no futuro – até mesmo os especialistas não sabem exatamente quando – a fronteira do silício será alcançada e a tecnologia não será capaz de avançar. Portanto, os fabricantes de chips terão que migrar para outro material. Este dia ainda está longe, mas os pesquisadores já estão explorando alternativas. O grafeno recebe muita atenção como um potencial sucessor do silício, mas a OPEL Technologies acredita que o futuro está em um composto chamado arsenieto de gálio, também chamado de fórmula molecular GaAs.

Mesmo que essa nova tecnologia atinja seus limites e outra tecnologia seja bem-sucedida, ela, eventualmente, alcançará o limite atômico. Nesse nível, é fisicamente impossível fazer menos coisas. Isso requer a realização de uma análise detalhada porque leva a uma das conclusões mais importantes sobre cálculos numéricos. Desde o advento do primeiro computador digital, não houve grandes mudanças. O que aconteceu nos últimos 60 anos foi o desenvolvimento da tecnologia. Computadores menores e mais rápidos chegaram. A válvula se move para o transistor e, finalmente, move-se para o microchip. Na verdade, este é um exemplo relacionado com a evolução da velocidade. No entanto, a verdade é que um computador mais potente nunca foi instalado.

Nesse contexto, todos os computadores atuais são XT (XT é um dos primeiros computadores pessoais da IBM, equipado com o nome do chip 8086, o IBM PC original é acompanhado por uma versão barata do 8088, 8086). A TI desenvolveu-se em termos de velocidade, mas não em termos de poder de computação. Inevitavelmente, a tecnologia digital alcançará seus limites mais cedo ou mais tarde. Do ponto de vista físico, é impossível aumentar a velocidade do processador. Isso exigirá a alteração do próprio computador ou a descoberta de novas tecnologias. Para este fim, é necessário modificar a arquitetura do Von Neumann. As alterações arquitetônicas envolvem a reorganização dos componentes do computador para melhorar a funcionalidade do dispositivo.

Desta forma, algumas das limitações implicadas pela arquitetura de von Neumann serão removidas. Várias soluções de computação não convencionais estão sendo estudadas hoje. Algumas até envolvem o uso de moléculas de DNA (ácido desoxirribonucleico). Entre as várias alternativas aos computadores digitais em estudo, os mais interessantes e promissores são os computadores quânticos. A próxima seção deste artigo discute o desenvolvimento do conhecimento quântico nesta área do conhecimento humano, assim, serão descritos os conceitos básicos relacionados com a geração, evolução, escopo, perspectivas futuras e desafios inerentes à computação de caráter quântico.

4. COMPUTAÇÃO QUÂNTICA

Os computadores quânticos, basicamente, operam a partir de regras relacionadas com a incerteza quântica. Quando atinge o nível de uma única partícula, nada é absoluto (o elétron pode ser girado de uma maneira ou de outra, mas uma mistura de spins também pode estar presente). Em computadores quânticos, a unidade básica de informação é de bits quânticos (qubits). Qubits podem ter valores de 0 ou 1 bem como bits regulares (números binários). A diferença é que os qubits podem ter valores 0 e 1 ao mesmo tempo. É nessa propriedade particular que existe todo o poder computacional dos computadores quânticos.

Figura 1: Computação Quântica

Fonte: Inforchannel

A computação quântica explora as vantagens da superposição coerente de estados quânticos para alcançar o paralelismo quântico: simultaneamente, alcançar a mesma operação em diferentes valores de qubits. Isso é possível apenas por causa da diferença fundamental entre qubits (qubits são conhecidos) e clássicos: enquanto bits clássicos podem estar apenas no estado 0 ou 1, os qubits podem ser sobrepostos nesses estados 0 e 1. Quando há dois qubits, o qubits podem existir como uma combinação de todos os dois dígitos possíveis. Adicionando um terceiro qubit, todos os três números de bits possíveis podem ser combinados. O sistema cresceu exponencialmente. Assim, uma coleção de qubits pode representar uma linha de números e os computadores quânticos, ao mesmo tempo, podem processar todas as entradas de dados simultaneamente.

O conceito de computação quântica não é tão complexo pois a unidade básica de medição é o computador clássico. Este pode assumir os valores 0 ou 1 bit. É essa particularidade que torna as estruturas quânticas tão poderosas. O predecessor descrito é spin quântico, mas um autômato também é proposto para mover a estrutura quântica. A unidade básica deste tipo de computador é composta de quatro células quânticas de pontos quânticos, dessa forma, cada unidade, possui dois elétrons que procuram permanecer estacionários. Ou seja, no estado que consome menos energia, a fórmula de Coulomb indica que a força repulsiva é inversamente proporcional à distância do mecanismo de repulsão, de modo que quanto mais próximo da força maior a probabilidade de repelir. Portanto, eles tendem a ocupar pontos quânticos em ambas as extremidades da célula, o que equivale a girar em um computador com rotação quântica. No entanto, esta técnica requer uma temperatura operacional muito baixa: 70 mg.

O quantum celular é usado para criar uma estrutura formada por um quantum a partir de 5 células: três células de entrada, uma célula “manipulação” e uma de saída. Essa estrutura é chamada de entrada de árvore. A operação da estrutura do filamento de forma básica é a seguinte: a repulsão de elétrons mantém, pelo menos, a polarização, de modo que as células tratadas são induzidas a assumir o estado da maioria das unidades de entrada. Finalmente, a unidade de saída copia o resultado para que a polarização da unidade não afete o cálculo da unidade de processamento.

Mas existem, ainda, alguns problemas, não em termos de arquitetura, mas no processo de construção de computadores quânticos, porque uma das razões para o erro é o próprio ambiente: o impacto no ambiente pode causar alterações nos qubits, o que pode causar inconsistências no sistema, inválido. Outra dificuldade é que a física quântica aponta que é necessário medir ou observar a superposição dos estados de falha comportamental de um sistema quântico. Ou seja, se você ler os dados enquanto estiver executando o programa em um computador quântico, todo o processamento será perdido.

4.1. O ALGORITMO DE SHOR

O desenvolvimento da computação quântica teve início na década de 1950, quando foram consideradas as leis da física e da mecânica quântica aplicadas à ciência da computação. Em 1981, uma reunião foi realizada em Massachusetts, no Institute of Technology: o MIT discutiu essa questão. Nesse encontro, o físico Richard Feynman propôs o uso de sistemas quânticos em computadores, defendendo que esses têm mais poder de processamento do que os computadores comuns. Em 1985, David Deutsch, da Universidade de Oxford, descreveu o primeiro computador quântico. É uma máquina de Turing quântica que pode simular outro computador quântico. Não houve progresso significativo na pesquisa sobre o assunto, assim, quase uma década depois, Peter Shaw, um pesquisador da AT & T, realizou um estudo em 1994 para desenvolver um algoritmo para fatorar muito mais rápido do que os computadores tradicionais.

O algoritmo usa as propriedades de um computador quântico para realizar a decomposição de inteiros grandes (aproximadamente 10 200 números) em tempo polinomial. Este algoritmo, chamado de algoritmo Shor, é publicado no artigo “Algoritmos de Computação Quântica: Decomposição de Logaritmos Discretos”. O algoritmo utiliza a propriedade de superposição quântica para reduzir a complexidade do problema do tempo de solução do exponencial para o polinomial por meio de uma função quântica específica. A compreensão das funções quânticas usadas no algoritmo Shor requer uma interpretação matemática bastante extensa e complexa, que está além do escopo deste artigo.

A aplicação direta do algoritmo Shor é aplicável ao campo da criptografia. A segurança dos sistemas criptográficos de chave pública depende da dificuldade de decompor números muito grandes. A segurança do sistema de criptografia é comprometida pela implementação real de um computador capaz de realizar esses cálculos rapidamente. A Agência Espacial dos EUA (NASA) e o Google estão investindo em computação quântica para o futuro da computação e estão se preparando para usar as máquinas mais recentes da D-Wave.

4.2 O COMPUTADOR QUÂNTICO DA D-WAVE

A nova versão do D-Wave, computador quântico irá ajudar na busca NASA para o mundo extraterrestre antes do final de 2013 atua, principalmente, para melhorar o serviço. D-Wave Two computador – um 512-bit computadores – em breve será colocado em uso no novo Laboratório de Inteligência Artificial Quantum criado pela NASA, Google e USRA (Space University Research Association). O diretor de engenharia Harmut Neven Google postou uma nota no blog da empresa descrevendo os objetivos da organização. Ele acredita que a computação quântica pode ajudar a resolver problemas da área da ciência da computação em algumas, sobretudo no campo da inteligência artificial. A inteligência artificial é construída a partir dos melhores modelos do mundo para fazer previsões mais precisas.

Para curar a doença, é necessário estabelecer um modelo de doenças mais eficaz bem como a fim de desenvolver uma política ambiental mais eficaz, é necessário desenvolver melhores modelos climáticos globais. Para construir um serviço de pesquisa mais útil, você precisa entender melhor as questões e conteúdos disponíveis na Internet, a fim de obter a melhor resposta. Neven, de acordo com o comunicado, relata que o novo laboratório irá transformar essas ideias de teoria em prática. Dessa forma, o trabalho de instalação da máquina D-Wave começou na NASA, no Ames Research Center, campo de Moffett, na Califórnia. De sede do Google em Mountain View, ficando a poucos minutos.

Esta parceria representa o mais recente avanço da D-Wave. O D-Wave é uma reivindicação, para tanto, foi construído e vendido primeiro computador quântico comercial do mundo pela empresa canadense. Muitos laboratórios acadêmicos estão trabalhando para construir apenas um pequeno número qubit computador quântico, os pesquisadores envolvidos com o D-Wave, estão trabalhando para que a máquina possa deixar menos dúvidas. Alguns anos atrás, muitos especialistas de computação quântica conhecidos eram céticos em relação a IEEE Spectrum. Na verdade, o D-Wave conseguiu conquistar alguns ex-comentaristas. A empresa permite que o D-Wave acesse pesquisadores independentes. Em pelo menos dois casos, essa abertura levou a implicações para as alegações de computação quântica e desempenho corporativo. A D-Wave ganhou maior credibilidade quando comercializou pela primeira vez a Lockheed Martin em 2011.

De acordo com o representante do Google, o novo Quantum Artificial Intelligence Lab submeteu o novo D-Wave Two a testes rigorosos antes de a máquina ser aprovada. Em particular, um teste requer que o computador resolva alguns problemas de otimização, pelo menos 10.000 vezes mais rápido que o computador clássico. Em outro caso, a máquina D-Wave obteve a maior pontuação na edição padrão do jogo SAT. Por anos, o Google usou hardware D-Wave para resolver problemas de aprendizado de máquina. A empresa desenvolveu um algoritmo de aprendizado de máquina compacto e eficiente para reconhecimento de padrões – útil para dispositivos com limitação de energia, como smartphones ou tablets. Outra máquina semelhante mostrou-se muito adequada quando, por exemplo, uma alta porcentagem de imagens em álbuns on-line foi classificada incorretamente para resolver a “poluição” dos dados.

A Nasa, enquanto isso, espera que a tecnologia possa ajudar a acelerar a busca por planetas distantes ao redor do sistema solar bem como apoiar futuros centros de controle de missão espacial, humana ou robótica. Os pesquisadores da NASA e do Google não vão monopolizar o uso da nova máquina de laboratório D-Wave Twono. A USRA pretende fornecer o sistema para a comunidade de pesquisa acadêmica americana – uma decisão que ajudará o D-Wave a superar os céticos. A notícia foi feita pela companhia aérea Lockheed Martin. Assim, por US $ 1 bilhão, no início de 2013, anunciou a compra da D-wave dois pouco depois, representando a atualizando-se, posteriormente, para a máquina D-Wave One.

4.3 TESTE: COMPUTADOR DIGITAL X COMPUTADOR QUÂNTICO

Pela primeira vez, um computador quântico foi posto para competir com um PC comum – e o computador quântico venceu a disputa com folga. O termo computação quântica é sempre associado a ideia de “no futuro”, “quando se tornarem realidade”, “se puderem ser construídos” e coisas do tipo. Essa percepção começou a ser mudada em 2007, quando a empresa canadense D-Wave, apresentou um computador que ela afirmava fazer cálculos com base na mecânica quântica. O ceticismo entre os pesquisadores e estudiosos do tema foi grande. Porém, em 2011, a comunidade científica teve acesso ao equipamento e pôde atestar que o processador quântico da D-Wave é realmente quântico. Agora, Catherine McGeoch, da Universidade Amherst, nos Estados Unidos, foi contratada pela D-Wave para fazer um comparativo entre o D-Wave que utiliza “computação quântica adiabática” e um PC comum. Segundo a pesquisadora, este é o primeiro estudo a fazer uma comparação direta entre as duas plataformas de computação: Segundo ela: “esta não é a última palavra, mas sim um começo na tentativa de descobrir o que pode ou não fazer o processador quântico”.

O processador quântico, formado por 439 qubits de bobinas de nióbio, foi 3.600 vezes mais rápido do que o PC comum na execução de cálculos envolvendo um problema de otimização combinatorial, que consiste em minimizar a solução de uma equação escolhendo os valores de determinadas variáveis. Cálculos dessa natureza são muito usados nos algoritmos que fazem reconhecimento de imagens, visão de máquina e inteligência artificial. O computador quântico da D-Wave encontrou a melhor solução em meio segundo, aproximadamente, enquanto o computador clássico mais eficiente precisou de meia hora para chegar ao mesmo resultado.

A pesquisadora reconhece que não se tratou de um jogo totalmente limpo, já que os computadores genéricos, em regra, não se saem tão bem contra processadores dedicados a resolver um tipo específico de problema. Por isso, segundo ela, o próximo passo do comparativo será fazer a disputa entre o processador quântico adiabático e um processador clássico desenvolvido para esse tipo de cálculo – como, por exemplo, uma GPU usada em placas gráficas. A pesquisadora destacou o caráter especializado do computador quântico, apontando que é excelente para a realização de cálculos. Afirma que este tipo de computador não se destina a navegar na internet, mas resolve este tipo específico, mas importante, de problema muito rápido.

4.4 TECNOLOGIAS

Dados os caminhos para possíveis aplicativos para processamento de informações quânticas, como você pode executá-los em sistemas físicos reais? Em uma escala de alguns qubits, existem muitas propostas de trabalho para dispositivos de processamento de informações quânticas. Talvez a maneira mais fácil de os alcançar seja a partir de técnicas ópticas, isto é, a partir da radiação eletromagnética. Dispositivos simples, como espelhos e divisores de feixe, podem ser usados ​​para realizar manipulações elementais em fótons. No entanto, os pesquisadores descobriram que é muito difícil produzir fótons separados sucessivamente. Por essa razão, optaram por usar esquemas que produzem fótons individuais “de tempos em tempos”, aleatoriamente.

Os experimentos de criptografia quântica, codificação superdensa e teletransporte quântico foram realizados utilizando técnicas ópticas. Uma vantagem dessas técnicas é que os fótons tendem a ser portadores muito estáveis ​​de informações da mecânica quântica. Uma desvantagem é que os fótons não interagem diretamente entre si. A interação deve ser mediada por outro elemento, como a partir de um átomo, visto que introduz complicações adicionais que causam ruído ao experimento. Uma interação eficaz entre os dois fotões ocorre como se segue: o número de fótons interage com o átomo, o qual, por sua vez, interage com o segundo fotão, causando interação completa entre os dois fotões.

Um esquema alternativo é baseado em métodos que capturam diferentes tipos de átomos: existe a armadilha de íons, na qual um pequeno número de átomos carregados fica preso em um espaço confinado; e armadilhas iônicas neutras são usadas para capturar átomos sem carga neste espaço confinado. Os esquemas de processamento de informação quântica baseados em armadilhas de átomos usam átomos para armazenar qubits. A radiação eletromagnética também aparece nesses esquemas (mas de maneira diferente daquela relatada na abordagem “óptica” do processamento de informações quânticas). Nestes esquemas, os fótons são usados ​​para manipular informações armazenadas em átomos. Portas quânticas únicas podem ser realizadas aplicando-se pulsos apropriados de radiação eletromagnética a átomos individuais.

Os átomos vizinhos podem interagir entre si por meio, por exemplo, de forças dipolares que permitem a execução de portas quânticas. Além disso, é possível modificar a natureza exata da interação entre os átomos vizinhos, aplicando pulsos apropriados de radiação eletromagnética aos átomos, o que permite ao experimentador determinar as portas executadas no sistema. Finalmente, a medição quântica pode ser realizada nesses sistemas usando a técnica de salto quântico, que implementa com precisão as medições com base na computação usada na computação quântica. Outra classe de sistemas de processamento de informação quântica é baseada na ressonância magnética nuclear, conhecida sob as iniciais do termo inglês NMR. Esses esquemas armazenam informações quânticas nos spins nucleares de moléculas atômicas e manipulam essas informações com a ajuda da radiação eletromagnética.

O processamento de informações quânticas por RMN enfrenta três dificuldades particulares que tornam essa tecnologia diferente de outros sistemas de processamento de informações quânticas. Primeiro, as moléculas são preparadas deixando-as em equilíbrio à temperatura ambiente, o que é muito maior do que as energias do spin de rotação que os spins se tornam quase completamente orientados aleatoriamente. Este fato torna o estado inicial particularmente “ruidoso” do que o desejável para processar informação quântica. Um segundo problema é que a classe de medições que pode ser usada na RMN não inclui todas as medidas necessárias para realizar o processamento da informação quântica. No entanto, em muitos casos de processamento de informação quântica, a classe de medições permitidas em RMN é suficiente.

Em terceiro lugar, uma vez que as moléculas não podem ser tratadas individualmente em RMN, é natural imaginar como os qubits individuais podem ser tratados adequadamente. Entretanto, núcleos diferentes na molécula podem ter propriedades diversas que permitem que eles sejam abordados individualmente – ou pelo menos para serem processados ​​em uma escala suficientemente granular para permitir as operações essenciais da computação quântica. O centro de pesquisa da IBM Almaden já produziu excelentes resultados: uma máquina quântica de sete átomos e NRM foram construídos com sucesso e executaram corretamente o algoritmo Shor, com o fator 15. Este computador usou cinco átomos de flúor e dois átomos de carbono.

4.5 PROBLEMAS

A principal dificuldade encontrada na construção de computadores quânticos é a alta incidência de erros. Uma das razões para definir o erro em si é que a influência do suporte no computador quântico pode levar a uma variante do qubit. Ao desativar todos os cálculos, esses erros podem causar inconsistências no sistema. Assim, outra dificuldade é o significado da mecânica quântica, o princípio que torna os computadores quânticos tão interessantes. A física quântica afirma que medir ou observar um sistema quântico pode destruir a superposição de estados. Isso significa que, se o seu programa estiver lendo dados durante a execução em um computador quântico, todo o processamento será perdido.

A maior dificuldade é a capacidade de corrigir erros sem realmente medir o sistema. Isso é conseguido pela consistência de fase. Essa tecnologia pode corrigir erros sem danificar o sistema. Para fazer isso, a ressonância magnética é usada para replicar um único bit de informação quântica fontrônica de uma molécula de tricloroetileno trinuclear. Basicamente, essa técnica usa observações indiretas para realizar inconsistências e manter a consistência do sistema. Dadas todas essas dificuldades, a importância da experiência da IBM é óbvia: os cientistas podem superar todos esses contratempos e colocá-los em prática a partir do algoritmo Shore em computadores quânticos.

5. BLOCKCHAIN

A blockchain, ou “cadeia de blocos”, é uma espécie de banco de dados descentralizado contido em softwares específicos que trabalham, principalmente, para a verificação da autenticidade de bitcoins e transações, onde são registradas todas as atividades realizadas com as moedas Bitcoin, de maneira que nela seja possível verificar a integridade da moeda e previnir a falsificação. Basicamente, quando uma transação é efetuada, as informações geradas nela são adicionadas a blockchain, funcionando como um registro. Quando uma transação precisa ser verificada, os clientes responsáveis pela verificação varrem o conteúdo das transações relacionadas ao Bitcoin envolvido, para que além da falsificação, seja previnido o “gasto-duplo” de uma mesma moeda.

Os servidores timestamp servem para garantir que uma determinada informação existe ou existiu em um tempo válido, para assegurar que, posteriormente, as operações que dependam da mesma sejam autênticas. O problema com essa verificação nos bitcoins é que não existe um servidor centralizado que possa fazer essas verificações e garantir aos clientes a integridade da informação, sendo assim, para que tal verificação seja feita, foi adotada a técnica de proof-of-work. É uma técnica que valida uma determinada quantidade de informação, podendo requerer muito tempo de processamento para ser validada, dependendo da sua complexibilidade.

O Bitcoin usa essa técnica para validar a geração de novos blocos, baseado no sistema de hashcash. Sendo assim, para que um bloco seja gerado com sucesso, um pedaço de seu código é publicado na rede, para que outros blocos o validem e aceitem, tornando-se, assim, um bloco válido.

6. TIPOS DE PROCESSADORES

Por causa da chamada estrutura de vácuo de nitrogênio, os diamantes foram influenciados por várias equipes de cientistas que construíram processadores quânticos. Agora, uma equipe de pesquisa internacional provou que não é apenas possível construir um diamante quântico de computador, mas também protegê-lo dos resultados. Nesse contexto, a consistência é um tipo de ruído ou interferência que perturba a relação sutil entre os qubits. Quando entra, as partículas estão no ponto A e no ponto B ao mesmo tempo, de repente começa no ponto A ou apenas no ponto B. Assim, outra equipe criou um processador quântico de estado sólido usando materiais semicondutores. Como os sistemas baseados em gás e líquido representam a grande maioria dos experimentos com computadores quânticos atualmente, os sólidos do processador quântico têm a vantagem de poder crescer em números quânticos sem complicações substanciais.

O diamante quântico é tão simples quanto possível: tem dois qubits. Apesar do carbono completo, todos os diamantes contêm impurezas, ou seja, átomos que são “perdidos” em sua estrutura atômica. São essas impurezas que despertaram interesse em cientistas que pensam a área da computação quântica. O primeiro é o núcleo de nitrogênio, enquanto o segundo é um único elétron “errante” próximo, devido a outro defeito na estrutura do diamante – de fato, o bit é o giro de cada um. A eletrônica funciona melhor como bits do que os núcleos porque eles podem realizar cálculos mais rapidamente. Por outro lado, são vítimas de coerência mais frequente.

6.1 APLICAÇÕES

A partir da energia do processador, este tratamento seria muito útil para a investigação científica, assim, será, naturalmente, lançado nestes supercomputadores a aplicação comercial de realidade virtual e da inteligência artificial, pois se transformará em uma moda deste século. O jogo pode realmente ser o suficiente para conter alguns personagens que interagem com o jogado. Poderá falar e agir com base nas ações do jogador, como um RPG quase em tempo real. Um único computador quântico pode controlar centenas desses caracteres em tempo real. O reconhecimento de sons e gestos é trivial. Não há dúvida de que houve um expressivo progresso em variados campos que pensam a inteligência artificial.

Com o avanço das pesquisas, haverá um código de criptografia seguro para o uso de algoritmos inteligentes para grandes pesquisas de banco de dados bem como para a realização do rastreamento de inteligência artificial quase imediatamente, e, ainda, para a transferência de dados de forma veloz. O uso da fibra ótica e de terabytes de alta densidade por segundo e roteadores de mecânica quântica podem processar essas informações. Transformar a Internet em um mundo virtual é suficiente, pois em um mundo virtual as pessoas podem se integrar com os avatares e se relacionar com a fala, os gestos e até com o toque, como no mundo real. Essa será a evolução das discussões em andamento. A questão mais importante é quando. Ninguém sabe realmente o quão rápido esta pesquisa é. Pode levar cem anos para ver o aplicativo em funcionamento ou apenas vinte ou trinta anos.

6.2 COMO FUNCIONAM

O primeiro computador quântico se tornou realidade, por exemplo, a IBM lançou, este ano, seu primeiro chip quântico na 12ª sessão da Universidade de Palo Alto. Ainda é um projeto muito básico com apenas cinco qubits, apenas 215 Hz bem como requer muitos equipamentos para funcionar, entretanto, foi mostrado que é um processador quântico que é atualmente possível. A primeira questão deste experimento, é como manter esta molécula estável. A solução atualmente em uso é armazená-lo em uma solução de resfriamento de alta temperatura próxima ao zero absoluto. No entanto, este sistema é muito caro. Para ser comercialmente viável, eles devem superar essa limitação criando processadores quânticos que podem operar à temperatura ambiente.

O segundo problema é como manipular os átomos que compõem o processador. Um átomo pode mudar de estado a uma taxa alarmante, mas um átomo não pode adivinhar o estado que deseja tomar. Para manipular átomos, dvee-se usar partículas menores. A solução descoberta pelos projetistas da IBM é usar radiação em um sistema semelhante à ressonância magnética, mas com mais precisão. Este sistema tem dois problemas, o primeiro é o fato de ser muito caro: um dispositivo, como uma folha, não é menor que US $ 5 milhões. O segundo problema é que a técnica é muito lenta, o que comprova o fato de que o protótipo da roda IBM é de apenas 215 Hz, milhões de vezes mais rápido que qualquer processador atual, que já está na caixa gigahertz. Outro obstáculo que a Quantum tem que superar é a viabilidade comercial.

6.3 NOVAS ESPERANÇAS

Como reiterado, os processadores quânticos experimentais desenvolvidos até agora são lentos, visto que possuem tecnologias emergentes normais bem como exigem equipamentos complexos e caros. Não é tão fácil empacotar como processadores Intel ou AMD e trabalhar à temperatura ambiente, suportado por um cooler simples. O protótipo quântico atual usa o dispositivo NMR para manipular o estado dos átomos e moléculas para permanecer estável a temperaturas próximas do zero absoluto. Embora ajude os cientistas a estudarem a mecânica quântica, tais sistemas nunca são economicamente viáveis. Hoje, o desenvolvimento de processadores quânticos está ganhando força. O primeiro experimento buscou provar que é uma manipulação eletrônica muito problemática porque os elétrons, devido à sua baixa qualidade e exposição, são muito sensíveis a qualquer influência externa.

Em seguida, manipulam o núcleo, o que simplifica bastante o processo, porque o núcleo é mais alto e a ideia é relativamente isolada do ambiente externo através da barreira de elétrons ao seu redor. Mas isso é apenas parte da solução. De qualquer forma, ainda precisa desenvolver uma técnica para manipular o núcleo. O primeiro grupo usa ressonância magnética, um protótipo técnico muito caro, mas já existem pessoas que estão desenvolvendo uma maneira mais fácil de fazer isso. Cientistas do Laboratório Nacional de Los Alamos, nos Estados Unidos, publicaram experimentos usando óptica para manipular prótons. A ideia desta nova tecnologia é que os prótons podem ser usados ​​na forma de formas de onda (que interagem com os átomos que compõem o sistema quântico) e podem ser transportados através de um sistema óptico.

Com essa nova tecnologia, os prótons têm a função de manipular os átomos que compõem o processador quântico. Por ser uma partícula, um próton pode ser “lançado” contra um qubit, alterando seu movimento e impacto. Da mesma forma, os prótons podem ser emitidos para pular para os qubits. Desta forma, a trajetória do próton é alterada. A grande varanda pode ser usada para recuperar esse próton usando um fotodetector que detecta prótons na forma de onda, não partículas. Calculando a trajetória do próton, os dados registrados nos bits podem ser recuperados.

Um problema encontrado durante o experimento foi que havia muitos erros no sistema. Para isso, os pesquisadores estão trabalhando em algoritmos de correção de erros que tornarão o sistema confiável. Depois de todo esse trabalho, o computador quântico provavelmente se tornará mais viável do que o esperado. Quinze anos atrás, os computadores quânticos eram considerados apenas ficção científica. Hoje, alguns protótipos já estão em operação. A questão agora é quando esses sistemas são viáveis? O progresso que vemos pode ser a resposta.

CONCLUSÃO

Para realizar a maioria dos cálculos matemáticos, editar texto ou navegar na Internet, a melhor solução é usar o computador mais próximo (baseado na arquitetura Von Neumann). De fato, os processadores de hoje são muito eficazes na execução dessas tarefas. No entanto, em áreas como inteligência artificial, é necessário usar outros tipos de computadores e arquiteturas. Por exemplo, em algoritmos de reconhecimento de imagem ou processamento de fala, a execução sequencial e o armazenamento da arquitetura de von Neumann (muito eficaz para outras aplicações) se torna uma limitação que limita o desempenho desses sistemas.

Para este tipo de aplicação, é mais interessante ter um computador com capacidade de processamento suficiente para fazer a correspondência para identificar a forma (o princípio comum de resolver esses problemas). Entre as diferentes alternativas, os computadores quânticos são os mais promissores, precisamente porque a computação quântica difere da estrutura de von Neumann por ter enorme poder de processamento paralelo.

Portanto, pode-se concluir que os computadores quânticos serão usados ​​para resolver efetivamente os problemas resolvidos pelos computadores clássicos. A computação quântica será aplicada a problemas em que uma solução eficaz não tenha sido encontrada, como inteligência artificial e criptografia. A computação quântica pode resolver completamente os problemas extremamente complexos da computação clássica. No entanto, a dificuldade de gerenciar esses fenômenos e principalmente implementar a arquitetura evolutiva deixa muita incerteza para o sucesso dessas máquinas. Grandes empresas como a IBM estão investindo em pesquisas nessa área e já estão criando os primeiros protótipos. Algoritmos para resolver este novo paradigma já estão em desenvolvimento e até desenvolvendo linguagens de programação.

Resta saber se o problema pode ser resolvido, se é um problema de investimento e tempo ou se existe um limite físico que impede a criação de uma máquina que possa superar a máquina atual. Se isso for possível, pode haver um coprocessador quântico que, junto com o processador de silício, constitua um computador futuro que possa prever com mais precisão o tempo e refinar o complexo.

REFERÊNCIAS BIBLIOGRÁFICAS

ACM Computing Surveys, v. 32, n. 3, p. 300-335, 2000.

BECKET, P J. A. Para a arquitetura dos nanomateriais. In: 7ª Conferência Ásia-Pacífico sobre Arquitetura de Sistemas de Computação, Melbourne, Austrália – Conferência sobre Pesquisa e Prática em Tecnologia da Informação, 2002.

BONSOR, K; STRICKLAND, J. Como funcionam os computadores quânticos. Disponível em: http://informatica.hsw.uol.com.br/computadores-quanticos2.htm. Acesso em: 9 mai 2019.

CHACOS, B. Além da Lei de Moore: Como Fabricantes Estão Levando os Chips ao Próximo Nível. Disponível em http://pcworld.uol.com.br/noticias/2013/04/17/alem-da-lei-de-moore-como-fabricantes-estao-levando-os-chips-ao-proximo-nivel/. Acesso em: 10 mai 2019.

FREIVALDS, R. Como simular um livre arbítrio em um dispositivo de computação? AMC, 1999.

GERSHENFELD, N; WEST, J. O computador quântico. Scientific America, 2000.

HSU, J. Google e NASA estarão usando um novo computador D-Wave. Disponível em http://itweb.com.br/107695/google-e-nasa-to-use-new-d-wave/computer. Acesso em: 10 mai 2019.

KNILL, E. Quantum aleatório e não determinístico. Laboratório Nacional Los Alamos, 1996.

MELO, B. L. M; CHRISTOFOLETTI, T. V. D. Computação Quântica – Estado da arte. Disponível em http://www.inf.ufsc.br/~barreto/trabaluno/TCBrunoTulio.pdf . Acesso em: 10 mai 2019.

NAUVAX, P. Arquiteturas de computador especiais. Disponível em http://www.dct.ufms.br/~marco/cquantica/cquantica.pdf . Acesso em: 10 mai 2019.

NIEMIER, M.T; KOGGE, P. M. Exploração e exploração de dutos de nível de cabo Tecnologias emergentes. IEEE, 2001.

RESENDED, A. M. P; JÚNIOR, A. T. da. C. Projeto de Pesquisa PIBIC/CNPq. Disponível em http://www.ic.unicamp.br/~rocha/sci/qc/src/corpoProjeto.pdf . Acesso em: 11 mai 2019.

RIEFFEL, E; WOLFGANG, P. Introdução à computação quântica para não-físicos.

SARKAR, P. Uma breve história de autômatos celulares. ACM Computing Surveys, v. 32, n. 1, 2000.

SKADRON, K. O Papel da Arquitetura de Processador em Ciência da Computação. Comitê sobre os Fundamentos da Computação. Academia Nacional de Ciências, 2001.

WIKILIVROS. Breve introdução à computação quântica. Disponível em http://wikibooks.org/wiki/Breed_introduction_quantum_computation/Print . Acesso em: 10 mai 2019.

[1] Bachelor of Business Administration.

Enviado: Maio, 2019.

Aprovado: Junho, 2019.

1 COMENTÁRIO

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here