Re: Ma insomma quello di Google è un vero computer quantistico o no?

From: Paolo Russo <paolrus_at_libero.it>
Date: Mon, 30 Dec 2019 12:31:08 +0100

[El Filibustero:]
> Mettiamola cosi', partiamo dal fondo, ossia dall'output. Una data
> elaborazione -- venga essa affrontata da un computer tradizionale o
> quantistico (QC) -- necessita dell'output di una informazione di n
> bit, non uno di meno.

Diciamo di si', anche se un supercalcolo che fornisse anche
solo un singolo bit di risultato alla volta sarebbe gia`
molto utile (individuando la soluzione per bisezione).

> Nel computer tradizionale leggo l'output quando mi pare, nell'ordine
> che preferisco, un bit alla volta, senza che questo rompa il cazzo
> agli altri bit. Credo che cio' non sia possibile nel QC, dato che gli
> altri qbit sarebbero entanglati al bit letto.

Mi aspetto di no. Sarebbe un bug nell'algoritmo quantistico.
L'output deve essere corretto, e quindi suppongo ben
determinato e quindi non intrecciato.

> E se questo fosse
> sbagliato? c'e' qualcosa che avverte di cio'? Tipo una "risonanza" del
> sistema che viene a mancare? Ciao

Non so se e` questo che intendi, ma c'e` effettivamente un
problema di affidabilita`: mentre i computer tradizionali
(in realta` tutta l'elettronica digitale) sono basati
su porte logiche che funzionando a soglia amplificano
intrinsecamente i segnali - e a cio` si deve la superiore
affidabilita` dei computer digitali rispetto a quelli
analogici che per questo motivo sono giustamente caduti in
disuso - i computer quantistici non possono fare niente del
genere, quindi l'elaborazione introduce errori. Che io
sappia, sono stati sviluppati algoritmi di correzione
d'errore per aggirare il problema; se non ricordo male
richiedono di sacrificare un po' di qbit per avere la
ridondanza.

Ciao
Paolo Russo
Received on Mon Dec 30 2019 - 12:31:08 CET

This archive was generated by hypermail 2.3.0 : Fri Nov 08 2024 - 05:09:58 CET