Intelligenza artificiale, calcolo quantistico, robotica e Blockchain. Qual è la realtà di queste tecnologie in tempi attuali e futuri?

0
24
DOI: ESTE ARTIGO AINDA NÃO POSSUI DOI SOLICITAR AGORA!
Classificar o Artigo!
ARTIGO EM PDF

ARTICOLO ORIGINALE

CHAGAS, Edgar Thiago de Oliveira [1]

CHAGAS, Edgar Thiago de Oliveira. Intelligenza artificiale, calcolo quantistico, robotica e Blockchain. Qual è la realtà di queste tecnologie in tempi attuali e futuri?. Revista Científica Multidisciplinar Núcleo do Conhecimento. anno 04, Ed. 06, Vol. 09, pp. 72-95. giugno 2019. ISSN: 2448-0959

In settori come l'intelligenza artificiale, è necessario utilizzare altri tipi di computer e architetture. Ad esempio, negli algoritmi di riconoscimento delle immagini o di elaborazione vocale, l'esecuzione sequenziale e l'archiviazione dell'architettura di Von Neumann (molto efficace per altre applicazioni) diventa una limitazione che limita le prestazioni di questi sistemi. In questa premessa, il presente lavoro ha cercato di analizzare l'intelligenza artificiale, il calcolo quantistico, la robotica e la blockchain, in modo da riflettere sulla realtà di queste tecnologie in tempo attuale e futuro.

Parole chiave: intelligenza artificiale, calcolo quantistico, robotica, Blockchain.

1. INTRODUZIONE

Questo articolo ha lo scopo di riflettere sui concetti relativi al calcolo classico e al calcolo quantistico. In questo modo, il lavoro propone di analizzare i computer attuali così come i loro limiti e percezioni sul futuro. I concetti di base dell'architettura di von Neumann e del calcolo quantistico saranno introdotti per tale analisi. L'obiettivo è quello di discutere il significato di questi concetti incentrati sull'informatica. In questo senso, la ricerca descrive la storia dello sviluppo dei microprocessori da una panoramica del calcolo quantistico. L'enfasi si concentra sulla distinzione tra le principali caratteristiche dell'informatica tradizionale e del calcolo quantistico. Infine, proponiamo una riflessione sulle principali difficoltà tecniche incontrate nella costruzione di computer quantistici e in alcune ricerche in questo campo.

2. COMPUTING CLASSICO

Oggi, i computer eseguono una varietà di attività che richiedono tempi di elaborazione e di esecuzione considerevoli. La ricerca per ridurre i tempi di esecuzione di queste attività ha portato i ricercatori a sviluppare le macchine sempre più rapidamente. Tuttavia, arriverà un momento in cui i confini fisici impediranno la creazione di dispositivi più veloci. In questo contesto, le leggi della fisica impongono un limite alla miniaturizzazione dei circuiti. In questo modo, in futuro, i transistor saranno così piccoli che i componenti del silicio saranno di dimensioni quasi molecolari. A distanze microscopiche, le leggi della meccanica quantistica hanno un effetto, facendo saltare gli elettroni da un punto all'altro senza attraversare lo spazio tra di loro, causando molti problemi.

I computer attuali si basano sull'architettura di Von Neumann. Era un matematico ungherese di origine ebraica, ma naturalizzato come americano. Von Neumann ha contribuito allo sviluppo della teoria congiunta, dell'analisi funzionale, della teoria erodica, della meccanica quantistica, dell'informatica, dell'economia, della teoria dei giochi, dell'analisi numerica, dell'idrodinamica delle esplosioni, Statistiche e altre varie aree della matematica. È considerato uno dei più importanti matematici del XX secolo. Un computer basato sull'architettura Von Neumann distingue chiaramente gli elementi di elaborazione e archiviazione delle informazioni, cioè ha un processore e una memoria separati da un bus di comunicazione. Nel computer di von Neumann sono emersi due aspetti: l'organizzazione della memoria e del trattamento.

I computer moderni hanno gli stessi standard che si basano sull'architettura di Von Neumann. Questa soluzione divide l'hardware del computer in tre componenti principali: memoria, CPU e dispositivi di input e output. Memory Stores istruzioni e dati del programma; La CPU è responsabile dell'estrazione di istruzioni e dati dalla memoria, dell'esecuzione e dell'archiviazione dei valori ottenuti in memoria e dei dispositivi di input (come tastiera, mouse e microfono) e dei dispositivi di output (come monitor, altoparlanti e stampante) Consentire l'interazione dell'utente, la visualizzazione, per entrambi, i dati e le istruzioni relative all'elaborazione dei risultati. Le parole memorizzate in memoria possono contenere istruzioni e dati. A sua volta, l'elaborazione è sequenziale e può includere deviazioni condizionali o incondizionate.

La presenza di contatori di programmi (incrementati da ogni istruzione) e memoria principale (compresi i programmi eseguibili e i relativi file di dati) riflette queste caratteristiche. Queste sono due delle caratteristiche più importanti dell'architettura Von Neumann, in quanto non solo definiscono il computer stesso, ma anche tutti i contenuti associati da algoritmi complessi per risolvere alcuni dei problemi di efficienza. Per illustrare ulteriormente l'importanza di queste caratteristiche dell'architettura di Von Neumann, si consideri l'esempio seguente. Quando un programmatore sviluppa software, scrive un algoritmo (un insieme di istruzioni) per risolvere il problema.

Il modo in cui la maggior parte dei programmatori progetta e implementa questa soluzione è sequenziale, non solo perché le persone pensano in ordine, ma perché i computer costruiti e utilizzati 50 anni fa lavorano in sequenza. La programmazione (strutturale, logica o funzionale) e l'elaborazione sequenziale sono conseguenze dirette dell'architettura di Von Neumann. Anche i nuovi paradigmi di programmazione, come l'orientamento degli oggetti, sono ancora limitati a questi concetti. Nonostante alcune limitazioni, questo modo di organizzare i computer è molto efficace per la maggior parte delle attività svolte dai computer moderni. Potrebbe non esserci un modo migliore per eseguire calcoli matematici, modificare testo, archiviare dati o accedere a Internet, perché i computer von Neumann sono la macchina migliore per queste attività.

Tuttavia, per specifiche aree di sviluppo, come la crittografia, potrebbe essere necessario un nuovo strumento per computer, nonché una nuova strategia per affrontare i problemi e quindi trovare soluzioni. I programmi di crittografia attualmente funzionano in modo efficace perché non sono adatti per la decomposizione in grandi quantità, in possesso quindi di più di poche centinaia e più della capacità delle macchine più moderne. La difficoltà di decomposizione di una grande quantità non può essere attribuita solo ai materiali. Ciò può essere causato da aspetti relativi al software e all'hardware.

Non si può dire che il compito della macchina attuale per realizzare questa natura è inefficiente perché il computer corrente non dispone di potenza o velocità di elaborazione sufficiente. Il problema può essere la mancanza di conoscenza (o creatività) nella progettazione degli algoritmi necessari. Pertanto, i processori attuali possono anche essere sufficienti per risolvere il problema della decomposizione massiccia, tuttavia, gli esseri umani non capiscono come implementare l'algoritmo. D'altra parte, la mancanza di un tale algoritmo può essere il risultato di una mancanza di un computer sufficientemente potente. La verità è che la ricerca non è decisiva, dal momento che la fonte del problema relativo all'hardware, software o entrambi è sconosciuta.

2.1 AUTOMAZIONE, LA STRADA VERSO IL MONDO MODERNO

Nel sistema capitalista, la globalizzazione precede i mercati del lavoro del mondo, quindi l'automazione funziona come base per le aziende per rimanere competitive. Questa è già la realtà delle industrie, perché la tecnologia è diventata un elemento essenziale. Il tema proposto è anche legato ai posti di lavoro generati a fronte dell'inversa proporzionale all'automazione. L'automazione è l'investimento necessario per le grandi, medie e piccole imprese. Le macchine obsolete ostacolano la produzione e finiscono per essere un fattore preponderante per il ritiro di molte aziende dal mercato. In questo contesto, i computer sono responsabili della semplificazione dei servizi burocratici e della trasmissione di informazioni accurate e veloci alle aziende e ai robot, accelerano anche il mercato.

È chiaro che la tecnologia ha ridotto il numero di posti di lavoro, ma ha reso i consumatori più esigenti, nonché una maggiore agilità e competitività nel commercio. Con questo, le spese delle società sono diminuite e i profitti sono aumentati. L'obbligo di occupazione genera onere per le imprese con le tasse pagate sotto i dipendenti, essendo le macchine investimenti ad alto costo, ma che cessano o diminuiscono le spese con questi e portano, rapidamente, il ritorno del capitale investito. I lavoratori dovrebbero sempre riciclare e perfezionarsi attraverso corsi e corsi di formazione, perché il mercato del lavoro è sempre più competitivo, così chi non si ricicla finisce per ottenere il margine dell'evoluzione.

Sta crescendo, nei paesi capitalisti, la preoccupazione per l'evoluzione che si verifica nei campi della biologia, della microelettronica, tra gli altri. Destarte, la preoccupazione raggiunge la razza modernista, perché c'è un rapido superamento delle macchine; Ma ha anche l'oggetto dei lavoratori che perdono il lavoro. Spesso è, nelle aziende, il ritorno dei vecchi dipendenti nelle banche scolastiche. Questo dimostra che le aziende si affidano al lavoro qualificato e quindi acquisiscono dinamismo e qualità per competere.

2.2 AUTOMAZIONE INDUSTRIALE

La storia dell'automazione industriale ha avuto la sua opportunità con la produzione delle linee di assemblaggio del carattere automobilistico. Uno degli esempi più espressivi è Henry Ford. Questo ha guadagnato spazio nel mercato nel decennio del 1920. Da questo periodo, il progresso tecnologico ha preso slancio nelle aree più diverse interconnesse all'automazione, con un significativo aumento della qualità e della quantità di produzione, dando la priorità principalmente alla riduzione dei costi. In questo contesto, il progresso dell'automazione, in generale, è legato all'evoluzione della microelettronica, che ha guadagnato più forza e spazio negli ultimi anni. Un esempio di questo processo è la creazione del controller PPL (Programmable Logic Controller).

Questo strumento è emerso nel decennio del 1960, con l'obiettivo di sostituire i pannelli cabina, dal momento che avevano caratteristiche più negative che positive, soprattutto perché occupavano uno spazio fisico molto espressivo. Pertanto, dal momento in cui è stato necessario apportare modifiche alla programmazione logica dei processi eseguiti da interconnessioni elettriche con logica fissa, sono state necessarie interruzioni nel processo di produzione a scapito della necessità di ricollegare il Elementi di controllo del pannello. Questa pratica ha richiesto molto tempo, quindi c'è stata un'enorme perdita di produzione e c'era un elevato consumo energetico.

In questo contesto, nell'anno 1968, nella divisione Hidramatic di "General Motors Corporation", è stato effettuato un esperimento incentrato sul controllo logico. Si intendeva che la programmazione delle risorse collegate al software fosse collegata all'uso di dispositivi periferici, essendo in grado di eseguire operazioni di input e output da un microcomputer con capacità di programmazione. Questo esperimento ha ridotto significativamente i costi di automazione del tempo. Così, con la creazione di microprocessori, non era più necessario utilizzare computer di grandi dimensioni. Così, il PLC (nome dato all'esperimento), è diventato un'unità isolata, ricevendo, per questo, alcune risorse.

Sono l'interfaccia di programmazione e funzionamento in modo semplice per l'utente; Istruzioni aritmetiche e manipolazione dei dati; Capacità di comunicazione dalle reti PLC e nuove possibilità di configurazione specifiche per ogni scopo da moduli intercambiabili. In questo senso, da una visione più integrata della fabbrica con l'ambiente aziendale, tutte le decisioni organizzative relative al sistema produttivo hanno cominciato ad essere prese attraverso i concetti votati sulla qualità, sulla base, Nel calcestruzzo e i dati attuali provengono da diverse unità di controllo. In questo modo, i produttori di CLPs devono comprendere le disuguaglianze di base: software e hardware per la produzione di sistemi SCADA e per altri sistemi specializzati.

Così, i software SCADA prendono forma da diverse dimensioni e sistemi operativi, nonché hanno diverse funzionalità. Per essere presentati come strumenti completi, aggiungere al SLP per competere. Tuttavia, nel settore della strumentazione, questa rivoluzione ha preso più lentamente, perché era necessario dotare gli strumenti di più intelligenza, nonché di farli comunicare in una rete, cioè in modo che lo standard 4-20 mA potrebbe trasmettere segnali analogici, dovrebbe Dare il loro posto alla trasmissione digitale. Questo principio è stato sviluppato da un protocollo che ha approfittato del cablaggio esistente stesso, transitando così i segnali digitali sui segnali analogici 4-20 mA. Questo protocollo (HART) non era altro che un palliativo, anche se rimane fino ad oggi nella sua interinità.

Questo fenomeno rappresenta anche una forma di reazione al progresso e all'esistenza di nuove tecnologie, perché, in seguito, sono stati creati un gran numero di modelli e protocolli che hanno tentato di mostrarsi unici e migliori. In un contesto attuale, i Plc sono utilizzati, soprattutto, per l'implementazione di pannelli di interblocco sequenziali, per il controllo delle maglie, per i sistemi di controllo delle celle di produzione, tra gli altri. Si trovano anche in processi relativi all'imballaggio, all'imbottigliamento, all'inscatolamento, al trasporto e alla movimentazione dei materiali, alla lavorazione, alla produzione di energia elettrica, nei sistemi di controllo degli edifici di condizionamento dell'aria, nei sistemi di Sicurezza, assemblaggio automatizzato, linee di vernice e sistemi di trattamento delle acque nelle industrie alimentari, delle bevande, automobilistiche, chimiche, tessili, plastiche, della pasta e della carta, farmaceutiche, siderurgiche e metallurgiche.

3. STORIA

Nel 1965, Gordon Moore, co-fondatore di Intel, uno dei principali produttori di microprocessori, fece una previsione che divenne famosa essendo conosciuta come la legge di Moore. Secondo lui, il numero di transistor di un microprocessore si piegava a intervalli di tempo approssimativamente costanti tra uno e tre anni. Ciò significa un progresso esponenziale nell'elaborazione della macchina. In questo contesto, si è constatato che la legge era valida da allora fino ad oggi, periodo in cui si è osservato che la potenza di elaborazione raddoppiava, approssimativamente, ogni 18 mesi.

3.1 IL PROMISE DI QUANTUM PROCESSORS

I processori quantistici sembrano essere il futuro dell'informatica. L'architettura attuale, compreso l'uso di transistor per costruire processori, raggiungerà inevitabilmente i suoi limiti entro pochi anni. Allora sarà necessario elaborare un'architettura più efficiente. Perché non sostituire il transistor con un atomo? I processori quantistici hanno il potenziale per essere efficienti e, in pochi secondi, i processori attuali non possono nemmeno essere completati in milioni di anni.

3.2. PERCHE' QUANTUM PROCESSORS

Infatti, il progettista di microprocessori ha fatto un lavoro significativo. Negli ultimi tre decenni, dall'avvento di Intel 4004, la velocità di elaborazione del primo microprocessore al mondo è cresciuta in modo espressivo. Per avere un'idea, l'i8088 è il processore utilizzato in XT rilasciato in 79, ha una capacità di elaborazione stimata di soli 0,25 meglops, o solo 250.000 operazioni al secondo. Il Pentium 100 ha elaborato 200 meglops e 200 milioni di operazioni, mentre l'Athlon da 1,1 GHz elabora quasi 10 gigaflops, 40.000 volte più veloce dell'8088.

Il problema è che tutti i processori attuali hanno una limitazione comune: sono costituiti da transistor. La soluzione per produrre chip più veloci è ridurre le dimensioni dei transistor che li producono. I primi transistor sono apparsi nel decennio del 1960, sono approssimativamente delle dimensioni di una testa di fosforo, mentre i transistor attuali sono solo 0,18 micron (1 micron e 0,001 mm). Tuttavia, ha affrontato i limiti fisici della questione, quindi per andare avanti, dovrai sostituire i transistor per strutture più efficienti. In questo modo, il futuro dei processori sembra dipendere dai processori quantistici.

3.3. DIRITTO di MOORE

Uno dei concetti più noti di calcolo è affrontato dalla cosiddetta legge Moore. A metà del 1965, Gordon E. Moore, allora presidente di Intel, predisse che il numero di transistor di chip sarebbe aumentato del 60%, allo stesso costo, ogni 18 mesi. Secondo le previsioni di Moore, la velocità dei computer raddoppierebbe ogni anno e mezzo. Questa legge è stata mantenuta dalla pubblicazione del primo PC1 nel 1981. Il primo microprocessore prodotto da Intel Corporation è stato il 4004. Aveva una CPU a 4 bit, con "solo" 2300 transistor. La sua velocità di funzionamento era di 400 KHz (kilohertz, non megahertz). La tecnologia di produzione ha raggiunto una densità di 10 micron. Prodotto nel 1971, è stato il primo microprocessore in un unico chip, così come il primo disponibile sul mercato. Originariamente progettato per essere un componente di calcolatrici, il 4004 è stato utilizzato in diversi modi.

Attualmente, il processore più avanzato di Intel è il Core i7-3960X, con sei core reali e dodici segmenti da 3,3 GHz, fino a 3,9 GHz, grazie alla tecnologia Turbo Boost. Questo processore ha 2,27 miliardi di transistor di 22 nanometri ciascuno, mille volte più piccolo del diametro di un filo di capelli; Il chip è in silicio. Tuttavia, ad un certo punto in futuro, anche gli esperti non sanno esattamente quando verrà raggiunto il confine di silicio e la tecnologia non sarà in grado di avanzare. Pertanto, i produttori di chip dovranno migrare a un altro materiale. Questo giorno è ancora lontano, ma i ricercatori stanno già esplorando alternative. Il grafene riceve molta attenzione come potenziale successore del silicio, ma OPEL Technologies ritiene che il futuro sia in un composto chiamato gallium arsenide, chiamato anche formula molecolare GaAs.

Anche se questa nuova tecnologia raggiunge i suoi limiti e un'altra tecnologia riesce, alla fine raggiungerà il limite atomico. A questo livello, è fisicamente impossibile fare meno cose. Ciò richiede la realizzazione di un'analisi dettagliata perché porta ad una delle conclusioni più importanti sui calcoli numerici. Dall'avvento del primo computer digitale, non ci sono stati grandi cambiamenti. Quello che è successo negli ultimi 60 anni è stato lo sviluppo della tecnologia. Sono arrivati computer più piccoli e veloci. La valvola si sposta al transistor e infine si sposta al microchip. In realtà, questo è un esempio legato all'evoluzione della velocità. Tuttavia, la verità è che un computer più potente non è mai stato installato.

In questo contesto, tutti i computer attuali sono XT (XT è uno dei primi personal computer di IBM, dotato del nome del chip 8086, il PC IBM originale è accompagnato da una versione economica del 8088, 8086). L'IT si è sviluppato in termini di velocità, ma non in termini di potenza di calcolo. Inevitabilmente, la tecnologia digitale raggiungerà i suoi limiti prima o poi. Dal punto di vista fisico, è impossibile aumentare la velocità del processore. Ciò richiederà la modifica del computer stesso o l'individuazione di nuove tecnologie. A tal fine, è necessario modificare l'architettura di Von Neumann. Le modifiche all'architettura comportano la riorganizzazione dei componenti del computer per migliorare la funzionalità del dispositivo.

In questo modo, alcune delle limitazioni implicite dall'architettura di Von Neumann saranno rimosse. Diverse soluzioni di calcolo non convenzionali sono allo studio oggi. Alcuni comportano anche l'uso di molecole di DNA (acido deossiribonucleico). Tra le varie alternative ai computer digitali in studio, le più interessanti e promettenti sono i computer quantistici. La prossima sezione di questo articolo discute lo sviluppo della conoscenza quantistica in questo settore della conoscenza umana, quindi, saranno descritti i concetti di base relativi alla generazione, evoluzione, ambito, prospettive future e sfide inerenti all'informatica di carattere quantistico.

4. CALCOLO QUANTISTICO

I computer quantistici fondamentalmente operano da regole legate all'incertezza quantistica. Quando raggiunge il livello di una singola particella, nulla è assoluto (l'elettrone può essere ruotato in un modo o nell'altro, ma può anche essere presente un mix di spin). Nei computer quantistici, l'unità di base delle informazioni sono i bit quantici (qubit). Qubits può avere valori di 0 o 1 così come bit regolari (numeri binari). La differenza è che i qubit possono avere valori 0 e 1 contemporaneamente. È in questa particolare proprietà che c'è tutta la potenza di calcolo dei computer quantistici.

Figura 1: Calcolo quantistico

Fonte: Inforchannel

Il calcolo quantistico esplora i vantaggi della sovrapposizione coerente dello stato quantistico per raggiungere il parallelismo quantistico: contemporaneamente, ottenendo la stessa operazione a diversi valori qubit. Ciò è possibile solo a causa della differenza fondamentale tra qubit (i qubit sono noti) e classici: mentre i bit classici possono essere solo nello stato 0 o 1, i qubit possono essere sovrapposti in questi stati 0 e 1. Quando ci sono due qubit, i qubit possono esistere come una combinazione di tutte le possibili due cifre. Aggiungendo un terzo qubit, tutti e tre i possibili numeri di bit possono essere combinati. Il sistema è cresciuto in modo esponenziale. Pertanto, una raccolta di qubit può rappresentare una riga di numeri e i computer quantistici, allo stesso tempo, possono elaborare tutte le voci di dati contemporaneamente.

Il concetto di calcolo quantistico non è così complesso come l'unità di misura di base è il computer classico. Questa operazione può assumere i valori 0 o 1 bit. È questa particolarità che rende le strutture quantistiche così potenti. Il predecessore descritto è lo spin quantistico, ma si propone anche un automa per spostare la struttura quantistica. L'unità di base di questo tipo di computer è composta da quattro cellule quantistiche di punti quantici, quindi ogni unità ha due elettroni che cercano di rimanere fermi. In altre parole, nello stato che consuma meno energia, la formula di Coulomb indica che la forza repulsiva è inversamente proporzionale alla distanza del meccanismo di repulsione, in modo che più la forza si avvicina più è probabile che respinga. Pertanto, tendono ad occupare punti quantici a entrambe le estremità della cellula, il che equivale a ruotare su un computer con rotazione quantistica. Tuttavia, questa tecnica richiede una temperatura di funzionamento molto bassa: 70 mg.

La cellula quantistica viene utilizzata per creare una struttura formata da un quantum da 5 cellule: tre cellule di input, una cellula "manipolazione" e un output. Questa struttura è denominata input dell'albero. Il funzionamento della struttura del filamento in forma di base è il seguente: La repulsione degli elettroni mantiene almeno la polarizzazione, in modo che le cellule trattate siano indotte ad assumere lo stato della maggior parte delle unità di input. Infine, l'unità di uscita copia il risultato in modo che la polarizzazione dell'unità non influisca sul calcolo dell'unità di elaborazione.

Ma ci sono ancora alcuni problemi, non in termini di architettura, ma nel processo di costruzione di computer quantistici, perché una delle ragioni dell'errore è l'ambiente stesso: l'impatto sull'ambiente può causare cambiamenti nei qubit, che possono causare Incoerenze nel sistema, non valide. Un'altra difficoltà è che la fisica quantistica sottolinea che è necessario misurare o osservare la sovrapposizione degli stati di fallimento comportamentale di un sistema quantistico. Cioè, se si leggono i dati durante l'esecuzione del programma su un computer quantistico, tutte le elaborazioni andranno perse.

4.1. L'ALGORITMO SHOR

Lo sviluppo del calcolo quantistico iniziò nel decennio del 1950, quando furono prese in considerazione le leggi della fisica e della meccanica quantistica applicate all'informatica. Nel 1981 si è tenuta una riunione in Massachusetts presso l'Institute of Technology: MIT ha discusso questo problema. In questo incontro, il fisico Richard Feynman ha proposto l'uso di sistemi quantistici sui computer, difendendo di avere più potenza di elaborazione rispetto ai normali computer. Nel 1985, David Deutsch, dell'Università di Oxford, descrisse il primo computer quantistico. È una macchina quantistica di Turing che può simulare un altro computer quantistico. Non ci sono stati progressi significativi nella ricerca sull'argomento, quindi quasi un decennio dopo, Peter Shaw, un ricercatore AT & T, ha condotto uno studio del 1994 per sviluppare un algoritmo per fattorizzare molto più velocemente dei computer tradizionali.

L'algoritmo utilizza le proprietà di un computer quantistico per eseguire la decomposizione di grandi numeri interi (circa 10 200 numeri) in tempo polinomiale. Questo algoritmo, chiamato algoritmo Shor, è pubblicato nell'articolo "Quantum Computation algorithms: discrete logarithms decomposizione". L'algoritmo utilizza la proprietà della sovrapposizione quantistica per ridurre la complessità del problema del tempo di soluzione dall'esponenziale al polinomio per mezzo di una specifica funzione quantistica. Comprendere le funzioni quantistiche utilizzate nell'algoritmo Shor richiede un'interpretazione matematica piuttosto ampia e complessa che esula dall'ambito di questo articolo.

L'applicazione diretta dell'algoritmo Shor è applicabile al campo della crittografia. La sicurezza dei sistemi crittografici a chiave pubblica dipende dalla difficoltà di decomporre numeri molto grandi. La sicurezza del sistema di crittografia è compromessa dall'effettiva implementazione di un computer in grado di eseguire rapidamente questi calcoli. La U.S. Space Agency (NASA) e Google stanno investendo nell'informatica quantistica per il futuro dell'informatica e si stanno preparando a utilizzare le più recenti macchine D-Wave.

4.2 IL QUANTUM COMPUTER DI D-WAVE

La nuova versione di D-Wave, computer quantistico aiuterà nella NASA la ricerca del mondo extraterrestre prima della fine del 2013 agisce principalmente per migliorare il servizio. D-Wave TWO Computer-1 512-bit computer-sarà presto messo in uso nel nuovo Quantum Artificiale Intelligence Laboratory creato da NASA, Google e USRA (Space University Research Association). Il direttore tecnico Harmut Neven Google ha pubblicato una nota sul blog dell'azienda che descrive gli obiettivi dell'organizzazione. Egli ritiene che il calcolo quantistico possa aiutare a risolvere i problemi di informatica in alcuni, specialmente nel campo dell'intelligenza artificiale. L'intelligenza artificiale è costruita dai migliori modelli del mondo per fare previsioni più accurate.

Per curare la malattia, è necessario stabilire un modello più efficace di malattie e per sviluppare una politica ambientale più efficace, è necessario sviluppare migliori modelli climatici globali. Per creare un servizio di ricerca più utile, è necessario comprendere meglio i problemi e i contenuti disponibili su Internet per ottenere la risposta migliore. Neven, secondo il comunicato, riferisce che il nuovo laboratorio trasformerà queste idee teoriche in pratica. In questo modo, il lavoro di installazione della macchina D-Wave è iniziato presso la NASA presso il campo Ames Research Center, Moffett in California. La sede centrale di Google a Mountain View, che soggiorna a pochi minuti di distanza.

Questa partnership rappresenta l'ultima svolta di D-Wave. Il D-Wave è un'affermazione, per entrambi, è stata costruita e venduta il primo computer quantistico commerciale del mondo dalla società canadese. Molti laboratori accademici stanno lavorando per costruire solo un piccolo numero di computer quantistico qubit, i ricercatori coinvolti con D-Wave, stanno lavorando in modo che la macchina possa lasciare meno dubbi. Alcuni anni fa, molti specialisti di calcolo quantistico noti erano scettici sullo spettro IEEE. In realtà, D-Wave è riuscito a conquistare alcuni ex-comentaristas. L'azienda consente a D-Wave di accedere a ricercatori indipendenti. In almeno due casi, questa apertura ha portato a implicazioni per le accuse di calcolo quantistico e prestazioni aziendali. D-Wave ha guadagnato maggiore credibilità quando ha commercializzato Lockheed Martin per la prima volta nel 2011.

Secondo il rappresentante di Google, il nuovo Quantum Artificial Intelligence Lab ha sottoposto il nuovo D-Wave Two a rigorosi test prima dell'approvazione della macchina. In particolare, un test richiede che il computer risolva alcuni problemi di ottimizzazione, almeno 10.000 volte più veloce del computer classico. In un altro caso, la macchina D-Wave ha ottenuto il punteggio più alto nell'edizione Standard del gioco SAT. Per anni, Google ha utilizzato hardware D-Wave per risolvere i problemi di apprendimento automatico. L'azienda ha sviluppato un algoritmo di apprendimento automatico compatto ed efficiente per il riconoscimento dei pattern,utile per dispositivi che limitano la potenza come smartphone o tablet. Un'altra macchina simile si è dimostrata molto adatta quando, ad esempio, un'alta percentuale di immagini negli album online è stata ordinata in modo errato per risolvere l'"inquinamento" dei dati.

La Nasa, nel frattempo, spera che la tecnologia possa aiutare ad accelerare la ricerca di pianeti lontani intorno al sistema solare e a sostenere i futuri centri di controllo delle missioni spaziali, umane o robotiche. I ricercatori della NASA e di Google non monopoberanno l'uso della nuova macchina da laboratorio D-Wave Twono. USRA intende fornire il sistema alla comunità di ricerca accademica americana – una decisione che aiuterà D-Wave a superare gli scettici. La notizia è stata fatta dalla compagnia aerea Lockheed Martin. Così, per 1 miliardo di dollari, all'inizio del 2013, ha annunciato l'acquisto del D-wave due poco dopo, che rappresenta l'aggiornamento, successivamente, alla macchina D-Wave One.

4.3 TEST: COMPUTER DIGITALE X QUANTUM COMPUTER

Per la prima volta, un computer quantistico è stato messo in competizione con un PC comune- e il computer quantistico ha vinto la disputa con Slack. Il termine calcolo quantistico è sempre associato all'idea di "in futuro", "quando diventano realtà", "se possono essere costruiti" e cose del genere. Questa percezione ha cominciato a cambiare nel 2007, quando la società canadese D-Wave, ha presentato un computer che ha affermato di fare calcoli basati sulla meccanica quantistica. Lo scetticismo tra i ricercatori e gli studiosi del tema era grande. Tuttavia, nel 2011, la comunità scientifica ha avuto accesso alle apparecchiature e potrebbe a dipiù che il processore quantistico di D-Wave è davvero quantistico. Catherine McGeoch dell'Università di Amherst negli Stati Uniti è stata assunta da D-Wave per fare un confronto tra D-Wave che utilizza il "calcolo quantistico adiabatico" e un PC comune. Secondo il ricercatore, questo è il primo studio a fare un confronto diretto tra le due piattaforme di calcolo: secondo lei: "Questa non è l'ultima parola, ma piuttosto un inizio nel tentativo di scoprire cosa il processore quantistico può o non può fare."

Il processore quantistico, formato da 439 qubit di bobine di niobium, era 3.600 volte più veloce del PC comune nell'esecuzione di calcoli che coinvolgono un problema di ottimizzazione combinatoria, che è quello di ridurre al minimo la soluzione di un'equazione scegliendo i valori di alcune variabili. Calcoli di questo tipo sono ampiamente utilizzati negli algoritmi che fanno il riconoscimento delle immagini, la visione artificiale e l'intelligenza artificiale. Il computer quantistico di D-Wave ha trovato la soluzione migliore in mezzo secondo, approssimativamente, mentre il computer classico più efficiente ha richiesto mezz'ora per raggiungere lo stesso risultato.

Il ricercatore riconosce che non era un gioco completamente pulito, dal momento che i computer generici, di regola, non fanno così bene contro i processori dedicati a risolvere un tipo specifico di problema. Così, secondo lei, il prossimo passo del confronto sarà quello di fare la disputa tra il processore quantistico adiabatico e un processore classico sviluppato per questo tipo di calcolo – come una GPU utilizzato su schede grafiche. Il ricercatore ha evidenziato il carattere specializzato del computer quantistico, sottolineando che è eccellente per eseguire calcoli. Essa afferma che questo tipo di computer non è destinato a navigare in Internet, ma risolve questo tipo specifico ma importante di problema molto veloce.

4.4 TECNOLOGIE

Percorsi di dati verso possibili applicazioni per l'elaborazione quantistica delle informazioni, come è possibile eseguirli su sistemi fisici reali? Su una scala di pochi qubit, ci sono molte proposte di lavoro per i dispositivi di elaborazione delle informazioni quantistiche. Forse il modo più semplice per raggiungerli è dalle tecniche ottiche, cioè dalla radiazione elettromagnetica. Dispositivi semplici, come specchi e divisori di fascio, possono essere utilizzati per eseguire manipolazioni elementali nei fotoni. Tuttavia, i ricercatori hanno scoperto che è molto difficile produrre fotoni separati successivamente. Per questo motivo, hanno scelto di utilizzare schemi che producono singoli fotoni "di volta in volta", in modo casuale.

Gli esperimenti di crittografia quantistica, codifica Superdense e teletrasporto quantistico sono stati eseguiti utilizzando tecniche ottiche. Uno dei vantaggi di queste tecniche è che i fotoni tendono ad essere portatori molto stabili di informazioni dalla meccanica quantistica. Uno svantaggio è che i fotoni non interagiscono direttamente tra loro. L'interazione dovrebbe essere mediata da un altro elemento, come da un atomo, poiché introduce ulteriori complicazioni che causano rumore all'esperimento. Un'interazione efficace tra i due fotoni si verifica come segue: Il numero di fotoni interagisce con l'atomo, che, a sua volta, interagisce con il secondo fotone, causando l'interazione completa tra i due fotoni.

Uno schema alternativo si basa su metodi che catturano diversi tipi di atomi: c'è la trappola iolarica, in cui un piccolo numero di atomi caricati sono intrappolati in uno spazio confinato; E le trappole ioniche neutre vengono usate per catturare atomi non lacci in questo spazio confinato. Gli schemi di elaborazione delle informazioni quantistiche basati su trappole per atomi utilizzano atomi per memorizzare i qubit. La radiazione elettromagnetica appare anche in questi schemi (ma in modo diverso da quello riportato nell'approccio "ottico" dell'elaborazione delle informazioni quantistiche). In questi schemi, i fotoni vengono utilizzati per manipolare le informazioni memorizzate negli atomi. Porte quantistiche uniche possono essere eseguite applicando impulsi di radiazione elettromagnetica appropriati ai singoli atomi.

Gli atomi vicini possono interagire tra loro attraverso, ad esempio, forze dipolari che consentono l'esecuzione di porte quantistiche. Inoltre, è possibile modificare l'esatta natura dell'interazione tra gli atomi vicini, applicando impulsi di radiazione elettromagnetica appropriati agli atomi, che consente allo sperimentatore di determinare le porte eseguite nel sistema. Infine, la misurazione quantistica può essere eseguita su questi sistemi utilizzando la tecnica del salto quantico, che implementa con precisione le misurazioni basate sul calcolo utilizzato nel calcolo quantistico. Un'altra classe di sistemi di elaborazione delle informazioni quantistiche si basa sulla risonanza magnetica nucleare, conosciuta con le iniziali del termine inglese NMR. Questi schemi memorizzano le informazioni quantistiche negli spin nucleari delle molecole atomiche e manipolano queste informazioni con l'aiuto della radiazione elettromagnetica.

L'elaborazione delle informazioni quantistiche da parte della NMR deve affrontare tre particolari difficoltà che rendono questa tecnologia diversa da altri sistemi di elaborazione delle informazioni quantistiche. In primo luogo, le molecole sono preparate lasciandole in equilibrio a temperatura ambiente, che è molto più alta delle energie della rotazione di spin che i giri diventano quasi completamente orientate in modo casuale. Questo fatto rende lo stato iniziale particolarmente "rumoroso" di quanto auspicabile per elaborare le informazioni quantistiche. Un secondo problema è che la classe di misurazioni che possono essere utilizzate nella NMR non include tutte le misure necessarie per eseguire l'elaborazione delle informazioni quantistiche. Tuttavia, in molti casi di elaborazione quantistica delle informazioni, la classe di misurazioni consentite nella NMR è sufficiente.

In terzo luogo, poiché le molecole non possono essere trattate singolarmente in NMR, è naturale immaginare come i singoli qubit possano essere trattati in modo appropriato. Tuttavia, diversi core nella molecola possono avere proprietà diverse che consentono loro di essere affrontati singolarmente o almeno di essere elaborati su una scala sufficientemente granulare per consentire le operazioni essenziali di calcolo quanto. L'IBM Almaden Research Center ha prodotto ottimi risultati: una macchina quantistica a sette atomi e NRM sono stati costruiti con successo ed eseguiti correttamente l'algoritmo Shor, con il fattore 15. Questo computer ha usato cinque atomi di fluoro e due atomi di carbonio.

4.5 PROBLEMI

La principale difficoltà incontrata nella costruzione di computer quantistici è l'elevata incidenza di errori. Uno dei motivi per definire l'errore stesso è che l'influenza del supporto sul computer quantistico può portare a una variante del qubit. Disabilitando tutti i calcoli, questi errori possono causare incoerenze di sistema. Quindi, un'altra difficoltà è il significato della meccanica quantistica, il principio che rende i computer quantistici così interessanti. La fisica quantistica sostiene che misurare o osservare un sistema quantistico può distruggere la sovrapposizione degli stati. Ciò significa che se il programma legge i dati durante l'esecuzione su un computer quantistico, tutte le elaborazioni andranno perse.

La difficoltà più grande è la capacità di correggere gli errori senza misurare effettivamente il sistema. Ciò si ottiene con la coerenza di fase. Questa tecnologia è in grado di correggere gli errori senza danneggiare il sistema. Per fare questo, la risonanza magnetica viene utilizzata per replicare un singolo bit di informazioni quantistiche fonetroniche da una molecola trinucleare trichloroetilene. Fondamentalmente, questa tecnica utilizza osservazioni indirette per eseguire incoerenze e mantenere la coerenza del sistema. Date tutte queste difficoltà, l'importanza dell'esperienza di IBM è ovvia: gli scienziati possono superare tutte queste battute d'arresto e metterle in pratica dall'algoritmo Shore sui computer quantistici.

5. BLOCKCHAIN

La blockchain, o "catena di blocchi", è una sorta di database decentralizzato contenuto in un software specifico che lavora principalmente per verificare l'autenticità di bitcoin e transazioni, dove tutte le attività sono registrate Realizzato con valute Bitcoin, in modo che sia possibile verificare l'integrità della valuta e prevenire la contraffazione. Fondamentalmente, quando viene eseguita una transazione, le informazioni generate in essa vengono aggiunte alla blockchain, funzionando come un record. Quando una transazione deve essere verificata, i clienti responsabili della verifica della scansione del contenuto delle transazioni relative al Bitcoin coinvolto, in modo che oltre alla contraffazione, venga impedito il "doppio sordino" della stessa valuta.

I server di timestamp servono a garantire che determinate informazioni esistano o esistano in un tempo valido, per garantire che, successivamente, le operazioni che dipendono da essa siano autentiche. Il problema con questa verifica in bitcoin è che non esiste un server centralizzato che può effettuare questi controlli e assicurare ai clienti l'integrità delle informazioni, in modo che questa verifica è stata adottata, è stata adottata la tecnica proof-of-work. Si tratta di una tecnica che convalida una certa quantità di informazioni e può richiedere molto tempo di elaborazione per essere convalidato, a seconda della complessità.

Bitcoin utilizza questa tecnica per convalidare la generazione di nuovi blocchi, in base al sistema Hashcash. Così, affinché un blocco venga generato correttamente, una parte del suo codice viene pubblicata sulla rete, in modo che altri blocchi lo convalidino e lo accettino, diventando così un blocco valido.

6. TIPI DI PROCESSORI

A causa della cosiddetta struttura a vuoto dell'azoto, i diamanti sono stati influenzati da diversi team di scienziati che hanno costruito processori quantistici. Ora, un team di ricerca internazionale ha dimostrato che non solo è possibile costruire un diamante informatico quantistico, ma anche proteggerlo dai risultati. In questo contesto, la coerenza è un tipo di rumore o interferenza che disturba la sottile relazione tra i qubit. Quando entra, le particelle sono nel punto A e nel punto B allo stesso tempo, improvvisamente inizia al punto A o semplicemente nel punto B. Così, un altro team ha creato un processore quantistico a stato solido utilizzando materiali semiconduttori. Poiché i sistemi a base di gas e liquidi rappresentano la stragrande maggioranza degli esperimenti quantistici informatici di oggi, i solidi dei processori quantistici hanno il vantaggio di essere in grado di crescere in numeri quantici senza complicazioni sostanziali.

Il diamante quantico è il più semplice possibile: ha due qubit. Nonostante il carbonio pieno, tutti i diamanti contengono impurità, cioè atomi che sono "persi" nella loro struttura atomica. Sono queste impurità che hanno suscitato interesse negli scienziati che pensano che l'area del calcolo quantistico. Il primo è il nucleo di azoto, mentre il secondo è un singolo elettrone "vagabondo", a causa di un altro difetto nella struttura del diamante infatti, il bit è lo spin di ciascuno. L'elettronica funziona meglio come bit rispetto ai nuclei perché possono eseguire calcoli più rapidamente. D'altra parte, sono le vittime più frequenti della coerenza.

6.1 APPLICAZIONI

Dall'energia del trasformatore, questo trattamento sarebbe molto utile per la ricerca scientifica, quindi, naturalmente, sarà lanciato in questi supercomputer l'applicazione commerciale della realtà virtuale e dell'intelligenza artificiale, come diventerà Una moda di questo secolo. Il gioco può davvero essere sufficiente a contenere alcuni personaggi che interagiscono con il gioco. Puoi parlare e agire sulla base delle azioni del giocatore, come un RPG quasi in tempo reale. Un singolo computer quantistico può controllare centinaia di questi personaggi in tempo reale. Il riconoscimento di suoni e gesti è banale. Non c'è dubbio che ci sia stato un progresso espressivo in vari campi che pensano all'intelligenza artificiale.

Con l'avanzamento della ricerca, ci sarà un codice di crittografia sicuro per l'uso di algoritmi intelligenti per grandi indagini di database e per la realizzazione di tracciamento dell'intelligenza artificiale quasi immediatamente, eppure per il Trasferimento dei dati in modo rapido. L'uso di fibre ottiche e terabyte ad alta densità al secondo e router di meccanica quantistica in grado di elaborare queste informazioni. Trasformare Internet in un mondo virtuale è sufficiente, perché in un mondo virtuale le persone possono integrarsi con gli avatar e relazionarsi con la parola, i gesti e persino il tatto, come nel mondo reale. Questa sarà l'evoluzione delle discussioni in corso. La domanda più importante è quando. Nessuno sa davvero quanto sia veloce questa ricerca. Potrebbero volerci cento anni per vedere l'applicazione in esecuzione o solo venti o trent'anni.

6.2 COME FUNZIONANO

Il primo computer quantistico è diventato una realtà, per esempio, IBM ha lanciato il suo primo chip quantistico nella 12a sessione dell'Università di Palo Alto quest'anno. È ancora un progetto molto semplice con solo cinque qubit, solo 215 Hz e richiede molte attrezzature per funzionare, tuttavia, è stato dimostrato che si tratta di un processore quantistico che è attualmente possibile. La prima domanda di questo esperimento è come mantenere stabile questa molecola. La soluzione attualmente in uso è quella di conservarlo in una soluzione di raffreddamento ad alta temperatura vicino allo zero assoluto. Tuttavia, questo sistema è molto costoso. Per essere commercialmente praticabili, devono superare questa limitazione creando processori quantistici in grado di funzionare a temperatura ambiente.

Il secondo problema è come manipolare gli atomi che compongono il processore. Un atomo può cambiare stato a una velocità allarmante, ma un atomo non può indovinare lo stato che vuole prendere. Per manipolare gli atomi, utilizzare particelle più piccole. La soluzione scoperta dai progettisti IBM è quella di utilizzare la radiazione in un sistema simile alla risonanza magnetica, ma con maggiore precisione. Questo sistema ha due problemi, il primo è il fatto che è molto costoso: un dispositivo, come un foglio, non è inferiore a 5 milioni di dollari. Il secondo problema è che la tecnica è molto lenta, il che dimostra il fatto che il prototipo della ruota IBM è solo 215 Hz, milioni di volte più veloce di qualsiasi processore attuale, che è già nella scatola Gigahertz. Un altro ostacolo che Quantum deve superare è la fattibilità commerciale.

6.3 NUOVE HOPES

Come ha ribadito, i processori quantistici sperimentali sviluppati finora sono lenti, poiché dispongono di normali tecnologie emergenti e richiedono apparecchiature complesse e costose. Non è facile da confezionare come processori Intel o AMD e lavorare a temperatura ambiente, supportato da un semplice dispositivo di raffreddamento. L'attuale prototipo quantistico utilizza il dispositivo NMR per manipolare lo stato di atomi e molecole per rimanere stabile a temperature vicine allo zero assoluto. Anche se aiuta gli scienziati a studiare la meccanica quantistica, tali sistemi non sono mai economicamente sostenibili. Oggi, lo sviluppo di processori quantistici sta guadagnando slancio. Il primo esperimento ha cercato di dimostrare che si tratta di una manipolazione elettronica molto problematica perché gli elettroni, a causa della sua bassa qualità e esposizione, sono molto sensibili a qualsiasi influenza esterna.

Quindi manipolano il nucleo, che semplifica notevolmente il processo, perché il nucleo è più alto e l'idea è relativamente isolata dall'ambiente esterno attraverso la barriera elettronica intorno ad esso. Ma questa è solo una parte della soluzione. In entrambi i casi, è ancora necessario sviluppare una tecnica per manipolare il nucleo. Il primo gruppo utilizza la risonanza magnetica, un prototipo tecnico molto costoso, ma ci sono già persone che stanno sviluppando un modo più semplice per farlo. Gli scienziati del Los Alamos National Laboratory negli Stati Uniti hanno pubblicato esperimenti che utilizzano l'ottica per manipolare i protoni. L'idea di questa nuova tecnologia è che i protoni possono essere utilizzati sotto forma di forme d'onda (che interagiscono con gli atomi che compongono il sistema quantistico) e possono essere trasportati attraverso un sistema ottico.

Con questa nuova tecnologia, i protoni hanno la funzione di manipolare gli atomi che compongono il processore quantistico. Poiché è una particella, un protone può essere "lanciato" contro un qubit, alterando il suo movimento e impatto. Allo stesso modo, i protoni possono essere emessi per saltare ai qubit. Così, la traiettoria del protone è alterata. Il grande balcone può essere utilizzato per recuperare questo protone utilizzando un fotodetectore che rileva i protoni nella forma d'onda, non le particelle. Calcolando il percorso del protone, i dati registrati nei bit possono essere recuperati.

Un problema riscontrato durante l'esperimento è stato il fatto che si sono verificati molti errori nel sistema. Per questo, i ricercatori stanno lavorando su algoritmi di correzione degli errori che renderanno il sistema affidabile. Dopo tutto questo lavoro, il computer quantistico diventerà probabilmente più vitale del previsto. Quindici anni fa, i computer quantistici erano considerati solo fantascienza. Oggi, alcuni prototipi sono già in funzione. La domanda ora è: quando questi sistemi sono praticabili? I progressi che vediamo possono essere la risposta.

CONCLUSIONE

Per eseguire la maggior parte dei calcoli matematici, modificare il testo o navigare in Internet, la soluzione migliore consiste nell'utilizzare il computer più vicino (in base all'architettura Von Neumann). Infatti, i processori di oggi sono molto efficaci nell'eseguire questi compiti. Tuttavia, in aree come l'intelligenza artificiale, è necessario utilizzare altri tipi di computer e architetture. Ad esempio, negli algoritmi di riconoscimento delle immagini o di elaborazione vocale, l'esecuzione sequenziale e l'archiviazione dell'architettura di Von Neumann (molto efficace per altre applicazioni) diventa una limitazione che limita le prestazioni di questi sistemi.

Per questo tipo di applicazione, è più interessante disporre di un computer con capacità di elaborazione sufficiente da abbinare per identificare la forma (il principio comune di risoluzione di questi problemi). Tra le diverse alternative, i computer quantistici sono i più promettenti, proprio perché il calcolo quantistico differisce dalla struttura di von Neumann avendo un'enorme potenza di elaborazione parallela.

Pertanto, si può concludere che i computer quantistici saranno utilizzati per affrontare efficacemente i problemi risolti dai computer classici. Il calcolo quantistico verrà applicato ai problemi in cui non è stata trovata una soluzione efficace, come l'intelligenza artificiale e la crittografia. Il calcolo quantistico può risolvere completamente i problemi estremamente complessi dell'informatica classica. Tuttavia, la difficoltà di gestire questi fenomeni e di implementare principalmente l'architettura evolutiva lascia molta incertezza per il successo di queste macchine. Grandi aziende come IBM stanno investendo nella ricerca in questo settore e stanno già creando i primi prototipi. Gli algoritmi per risolvere questo nuovo paradigma sono già in fase di sviluppo e persino lo sviluppo di linguaggi di programmazione.

Resta da sapere se il problema può essere risolto, se si tratta di un problema di investimento e di tempo o se c'è un limite fisico che impedisce la creazione di una macchina in grado di superare la macchina corrente. Se questo è possibile, ci può essere un coprocessore quantistico che, insieme al processore di silicio, costituisce un futuro computer in grado di prevedere con maggiore precisione il tempo e perfezionare il complesso.

RIFERIMENTI BIBLIOGRAFICI

ACM Computing Surveys, v. 32, n. 3, p. 300-335, 2000.

BECKET, P J. A. Para a arquitetura dos nanomateriais. In: 7ª Conferência Ásia-Pacífico sobre Arquitetura de Sistemas de Computação, Melbourne, Austrália – Conferência sobre Pesquisa e Prática em Tecnologia da Informação, 2002.

BONSOR, K; STRICKLAND, J. Como funcionam os computadores quânticos. Disponível em: http://informatica.hsw.uol.com.br/computadores-quanticos2.htm. Acesso em: 9 mai 2019.

CHACOS, B. Além da Lei de Moore: Como Fabricantes Estão Levando os Chips ao Próximo Nível. Disponível em http://pcworld.uol.com.br/noticias/2013/04/17/alem-da-lei-de-moore-como-fabricantes-estao-levando-os-chips-ao-proximo-nivel/. Acesso em: 10 mai 2019.

FREIVALDS, R. Como simular um livre arbítrio em um dispositivo de computação? AMC, 1999.

GERSHENFELD, N; WEST, J. O computador quântico. Scientific America, 2000.

HSU, J. Google e NASA estarão usando um novo computador D-Wave. Disponível em http://itweb.com.br/107695/google-e-nasa-to-use-new-d-wave/computer. Acesso em: 10 mai 2019.

KNILL, E. Quantum aleatório e não determinístico. Laboratório Nacional Los Alamos, 1996.

MELO, B. L. M; CHRISTOFOLETTI, T. V. D. Computação Quântica – Estado da arte. Disponível em http://www.inf.ufsc.br/~barreto/trabaluno/TCBrunoTulio.pdf . Acesso em: 10 mai 2019.

NAUVAX, P. Arquiteturas de computador especiais. Disponível em http://www.dct.ufms.br/~marco/cquantica/cquantica.pdf . Acesso em: 10 mai 2019.

NIEMIER, M.T; KOGGE, P. M. Exploração e exploração de dutos de nível de cabo Tecnologias emergentes. IEEE, 2001.

RESENDED, A. M. P; JÚNIOR, A. T. da. C. Projeto de Pesquisa PIBIC/CNPq. Disponível em http://www.ic.unicamp.br/~rocha/sci/qc/src/corpoProjeto.pdf . Acesso em: 11 mai 2019.

RIEFFEL, E; WOLFGANG, P. Introdução à computação quântica para não-físicos.

SARKAR, P. Uma breve história de autômatos celulares. ACM Computing Surveys, v. 32, n. 1, 2000.

SKADRON, K. O Papel da Arquitetura de Processador em Ciência da Computação. Comitê sobre os Fundamentos da Computação. Academia Nacional de Ciências, 2001.

WIKILIVROS. Breve introdução à computação quântica. Disponível em http://wikibooks.org/wiki/Breed_introduction_quantum_computation/Print . Acesso em: 10 mai 2019.

[1] Bachelor of Business Administration.

Inviato: Maggio, 2019.

Approvato: giugno 2019.

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here