L’énigme de la suprématie quantique: la revendication de Google peut-elle résister à un examen minutieux? – Serveur d’impression
Si jamais l'informatique quantique doit transcender le domaine de l'expérience et devenir une industrie légitime, elle devra maintenir un modèle commercial légitime. Les entreprises investissent dans les machines et les technologies, ou, dans le cas du cloud, dans les services proposés, lorsqu'elles sont devenues fiables. Ils fonctionnent comme leurs utilisateurs et les opérateurs les attendent. Si une machine est déclarée suprême Au-dessus de toutes les autres entreprises de sa catégorie, les entreprises s'attendent à ce que cette suprématie soit maintenue et, par conséquent, à ce que leurs décisions d'investissement soient soumises à des changements immédiats. Dans ce monde, l'avantage momentané des performances d'une machine par rapport à une autre, en particulier lorsqu'il est plus court qu'un cycle de produit, ne compte pas en tant que suprématie.
Dans le monde réel, la suprématie est un trait que vous prévoyez durer.
"Notre expérience réalise la suprématie quantique, un jalon sur la voie de l'informatique quantique à grande échelle", a déclaré une équipe de chercheurs dans un article publié dans la revue La nature en octobre. L'équipe a réuni des scientifiques et des ingénieurs de Google, du centre de recherche Ames de la NASA, de l'université du Massachusetts à Amherst et du laboratoire national Oak Ridge. "La thèse élargie de Church-Turing", conclut leur article, "affirme que tout modèle de calcul" raisonnable "peut être efficacement simulé par une machine de Turing. Notre expérience suggère qu'un modèle de calcul susceptible de violer cette affirmation est maintenant disponible."
Sommaire
L'histoire jusqu'ici
Liam Tung de ZDNet a couvert la publication de l’équipe de Google dans La nature. Lorsque IBM a immédiatement répliqué à une affirmation de Google, mettant en lumière un projet de superinformatique jamais vu auparavant, Daphne Laprince-Ringuet de ZDNet a couvert ce développement, puis Forrester Research a fourni le contexte. Ensuite, notre rayon Tiernan a approfondi les assertions de Google et d’IBM, ainsi qu’une introduction à la technique IBM qui, selon elle, pourrait aider l’informatique classique à rattraper son retard quantique.
Ensemble, ils racontent l'histoire d'un type de système d'informatique quantique (QC). Il existe en réalité plusieurs approches architecturales pour mener une opération informatique à l'aide de particules subatomiques, le modèle "Sycamore" de l'équipe Google n'étant qu'une seule. Toute méthode permettant de tirer parti du comportement inhabituel et même inexplicable des particules au niveau quantique, afin de produire des calculs qui, au final, ont au moins une grande probabilité d’exactitude et une chance raisonnable d’être répétée est un système de contrôle de la qualité.
Si ces comportements quantiques sont exploités avec succès, alors l'ordinateur émergent devrait être plusieurs ordres de grandeur plus rapide que n'importe quel ordinateur "classique" (vous pouvez imaginer un petit buste de Mozart reposant confortablement sur le serveur) qui implique transistors et semi-conducteurs. La suprématie, comme le prétend Google et comme l’a défini l’un des scientifiques les plus influents du contrôle qualité, se produirait s’il n’existait aucun moyen fiable, même avec un contrôle qualité, de mesurer à quel point le contrôle qualité est réellement plus rapide que tout système classique. Dans le cas de l’équipe Google, c’est 200 secondes contre peut-être, environ, qui sait, peut-être plus de 10 000 ans.
Le processeur Sycamore est le produit d’un effort visant à exploiter un certain comportement de particules chargées électriquement (les fermions) appelé enchevêtrement.
Le fermion le plus connu est le électron, qui est la composante sous-atomique de toutes les informations représentées dans les systèmes numériques. Dans un système électronique typique, la manipulation de longues séquences d'informations prend du temps. Dans un système quantique, cela peut se produire instantanément, dans un processus dont on peut dire, à tout le moins, qu'il réussit plus souvent que ce n'est pas le cas. Lorsque les électrons deviennent enchevêtrés, ils partagent une certaine caractéristique si étroitement que, lorsque l’état change d’un électron à l’autre, ce même état change simultanément pour tous les membres enchevêtrés – c’est-à-dire ce que signifie enchevêtrement. De plus, le nombre de positions possibles que peut prendre l’état partagé augmente de façon exponentielle pour chaque électron enchevêtré ajouté à l’ensemble. Ainsi, plutôt que de simplement présenter un état binaire (0 ou 1), tout qubit dans un ensemble enchevêtré peut afficher tout état dans une plage de 2 à la puissance du nombre total de qubits enchevêtrés.
UNE qubit est la contrepartie QC du chiffre binaire. Il s’agit uniquement d’un électron nageant dans un champ magnétique, ainsi que d’autres avec lesquels il a été empêtré. Une poignée de qubits intriqués, tels que le modèle de Google illustré ci-dessus, peut potentiellement représenter la même quantité de données que des mégaoctets, puis des gigaoctets, dans un système binaire classique. Cela permet à un algorithme quantique d'appliquer une seule fonction à un vaste ensemble de données dans un intervalle de temps étonnamment court.
"Lorsque vous pensez à un système quantique, je veux que vous en parliez en termes de pièces de monnaie", a expliqué James Clarke, directeur du matériel quantique pour Intel Labs, lors d'un entretien précédent avec ZDNet. "Un qubit a la probabilité d'être en même temps une tête ou une queue, un peu comme si on faisait tourner une pièce de monnaie en l'air et la faire tourner. Ce n'est ni une tête ni une queue, mais simultanément une tête et une queue.
"Si j'ai deux qubits," je peux représenter quatre états. Si j'ai trois pièces, je peux simultanément représenter huit états. C'est donc exponentiel. Imaginez si, sur une table, j'avais 50 pièces en train de tourner en même temps Je serais capable de représenter simultanément plus d'états que même le plus grand supercalculateur de la Terre. Si j'avais 300 pièces en rotation sur une table, j'aurais plus d'états disponibles qu'il n'y a d'atomes dans l'univers. Cela témoigne de la mise à l'échelle exponentielle. d'un ordinateur quantique, et potentiellement son pouvoir sur un ordinateur classique ".
La limite théorique observée jusqu'à présent par Clarke en matière de simulation de la capacité en qubit dans un environnement de superordinateur classique, utilisant un logiciel Intel, est d'environ 45. Un ordinateur portable à haute vitesse peut atteindre 35. "Chaque fois que vous essayez de simuler un qubit supplémentaire, "Il a dit:" Vous doublez les exigences informatiques classiques. En l'absence d'un ordinateur quantique vraiment volumineux, notre capacité à simuler ces algorithmes est très limitée. "
La façon dont les ingénieurs et les scientifiques visualisent l’énorme ampleur de la problématique dans laquelle un système de 53 ou 54 bits fonctionnerait de manière raisonnable repose sur un outil mathématique qu’il appelle. Espace de Hilbert. C'est une grille géométrique figurative, n'importe quel point pouvant avoir une valeur. Dans un système électronique classique, la valeur est représentée par la présence et l'absence d'électrons en chiffres binaires (bits). Huit bits est la composition d'origine d'un octet, qui peut représenter collectivement tout entier de la séquence 0 à 255 (ou -128 à 127). Vous pouvez donc imaginer un octet de 8 bits ayant un espace de Hilbert très étroit. Pensez à cet espace comme à l'emplacement dans lequel serait placée la solution d'une fonction algorithmique.
Dans l’espace de Hilbert de 53 qubit du QC, au lieu de 0 ou 1, chaque qubit peut représenter l’un quelconque des 253 états quantiques possibles (plus de 9 millions de dollars), tous sauf les plus grands et les plus petits étant considérés comme des états de superposition. Dans la célèbre analogie d'Erwin Schrödinger, tous ces états de superposition intermédiaires seraient à des degrés divers auxquels le pauvre chat est à la fois vivant et mort. Un ensemble de 53 qubits intriqués (pour lequel personne n’a inventé le terme "qu-octet") a un espace de Hilbert équivalent à ce qui ne peut être simulé que par un seul ordinateur binaire 8 bits pétaoctet de mémoire (1 024 téraoctets). En d'autres termes, un pétaoctet complet constitue l'espace de solution de ce processeur.
Maintenant, considérons le fait qu'un pétaoctet de mémoire du monde réel peut représenter une quantité énorme de données, lorsqu'il est utilisé pour représenter une base de données. Même dans les systèmes classiques actuels, les gestionnaires de bases de données les plus rapides utilisent des moteurs "en mémoire". Si les qubits peuvent être traités comme de la mémoire, une opération quantique peut être exécutée aussi rapidement sur un seul ensemble de qubits agissant en tant que base de données à un pétaoctet comme une simple opération de logique binaire pouvant être exécutée dans un cycle d'horloge d'un semi-conducteur.
En cohérence
En 2011, dans le cadre de la publication de la 25e conférence Solvay sur la physique, le professeur John Preskill du California Institute of Technology a présenté un jalon raisonnable et explicable pour l'informatique quantique, qu'il a appelé suprématie quantique. Selon Preskill, un moyen d’atteindre ce jalon et peut-être le moyen le plus rapide "consiste à exécuter un algorithme sur un ordinateur quantique qui résout un problème avec une accélération super-polynomiale par rapport aux ordinateurs classiques". Par "accélération super-polynomiale", il entendait, à un degré qui ne peut pas être exprimé avec une formule polynomiale (un avec plusieurs termes) – une différence qui ne peut pas être expliquée mathématiquement.
En d'autres termes: toute fonction d'analyse mathématique appliquée à une zone devrait devenir exponentiellement plus complexe à mesure que la taille de la zone analysée augmente de façon linéaire. Par la suite, la fonction devrait consommer beaucoup plus de temps, jusqu’à ce qu’elle finisse par devenir goulet d’étranglement. Pour les qubits intriqués – les contreparties des nœuds de mémoire et de données dans un système quantique – ce phénomène ne tient pas. La même fonction peut théoriquement ne prendre qu'un temps négligeable, voire incommensurable, lorsqu'elle est appliquée à des zones plus vastes que des zones plus petites. Il devrait exister une barrière asymptotique que l'informatique classique ne peut pas franchir, où l'estimation du temps consommé devient essentiellement infinie … tandis que le système quantique continue de fonctionner comme si rien n'avait changé.
Selon le professeur Preskill, l’informatique quantique aura atteint le stade de la suprématie. C’est en effet ce que l’équipe de Google prétend avoir réalisé avec Sycamore. Mais existe-t-il une méthode fiable pour vérifier de manière indépendante cette prétention ou toute prétention à la suprématie – qui ne nécessite pas 10 000 ans de calcul ininterrompu?
"Je pense que la communauté de l'informatique quantique souhaite de manière générale pouvoir déterminer si nous progressons vers l'informatique quantique", a déclaré le Dr Travis Humble, scientifique distingué du laboratoire national d'Oak Ridge – l'actuel propriétaire et opérateur des supercalculateurs n ° 1 et n ° 2 dans la liste des 500 plus grandes villes du monde, "Summit" et "Sierra".
"La définition de la suprématie quantique proposée par Preskill fournissait un idéal académique pratique pour comprendre ce que cela signifierait", a poursuivi le Dr Humble, parlant à ZDNet. "Malheureusement, il reste ouvert, comment mettez-vous cette idée en pratique?"
Sycamore est théoriquement capable d'assembler un dispositif quantique incorporant 54 qubits intriqués, et Google l'a observé avec succès. 53 (L'enchevêtrement de longs brins de qubits est extrêmement difficile, car les composants assemblés sont très sujets à la décohérence ou à la désintégration.) La nature Les ingénieurs de Google ont expliqué à Sycamore qu’il évaluait les distributions de probabilité pour un ensemble de valeurs parmi un très grand nombre de motifs aléatoires, ce qui n'est pas sans chercher les codes de caractères ASCII pour les mots cachés dans une photo de peinture noire éclaboussée. un mur blanc
Le papier affirmait que Sycamore pouvait à un moment ou à un autre estimer de manière assez précise un ensemble de distributions de probabilités dans environ 200 secondes, ce qui prendrait environ 10000 ans à un réseau classique de superordinateurs. Google a basé la dernière partie de cette affirmation sur une simulation informatique binaire d'une série de problèmes plus petits, en donnant aux ingénieurs la formule exponentielle dont ils avaient besoin pour adapter le problème à la taille que Sycamore avait efficacement traitée.
"La course est lancée", a déclaré le Dr Sergey Frolov, physicien expérimental à l'Université de Pittsburgh et directeur du Frolov Lab, qui étudie le comportement et la dynamique de la matière à l'échelle nanométrique. S'adressant à ZDNet, M. Frolov a expliqué que la définition de la suprématie de Preskill ne devait pas être une statistique permanente, comme le premier homme sur la lune, mais une mesure opérationnelle en cours. Frolov poursuivit:
Ce n’est pas une preuve mathématique, qu’une fois que vous avez 50 qubits, aucun ordinateur classique ne peut vous rattraper. C'est un concept opérationnel, ce qui signifie que, à un moment donné, un ordinateur quantique surclasse tous les ordinateurs classiques. Et bien sûr, l’espoir des ingénieurs quantiques est que cet écart se creuse de manière exponentielle – qu’il n’y aura aucun moyen de le rattraper. Cela pourrait être juste autour du coin. Alors peut-être que si Google n'avait pas 53 qubits mais 60 ou 70, alors tout espoir qu'un ordinateur classique rattrape Google sur cette tâche unique serait perdu et il serait indiscutable.
La réfutation d'IBM, tout en louant le numérateur dans l'équation de la suprématie de Google, a attaqué la légitimité du dénominateur. Dans sa définition de la suprématie quantique, Preskill ne dit rien sur le supercalculateur classique qui doit imiter, simuler ou prétendre être un circuit quantique – ce que le professeur Richard Feynman, qui a inventé l’idée de l’informatique quantique, a déclaré au cours de la même conférence. serait impossible de toute façon. Quoi qu’il en soit, les ingénieurs d’IBM travaillent sur une approche encore inédite de la segmentation de la mémoire à semi-conducteurs (circuits flash) et attribuent chaque segment entre divers qubits simulés à l’aide de modèles tels que ceux illustrés ci-dessus. De cette façon, un CQ ne serait pas confronté à des goulots d'étranglement lorsqu'il tenterait d'écrire ou de lire des valeurs. Ce sont ces goulots d'étranglement, supposés IBM, qui ont été à l'origine de la prévision de Google sur 10 000 ans.
"La façon dont l'équipe de Google a abordé le problème", a déclaré Humble d'Oak Ridge, "est de montrer qu'un dispositif quantique pourrait en réalité se comporter d'une manière qu'aucun ordinateur classique ne pourrait jamais anticiper." En conséquence, estime-t-il, Google pourrait inciter des scientifiques et des ingénieurs du secteur à réévaluer à la fois le sens et l'efficacité de la suprématie.
La position de Humble lui donne une perspective unique sur les deux projets, travaillant en collaboration séparée avec Google et IBM. Comme il l'a dit à ZDNet:
Au départ, nous avions des preuves indiquant que la meilleure méthode classique de comparaison était donnée par ce logiciel de simulation développé par l’équipe de la NASA. Et c’était une mise en œuvre de pointe de la procédure de vérification. Ensuite, IBM est sorti et a proposé une méthode alternative qui semble être prometteuse, non seulement pour effectuer l’étape de vérification, mais peut-être plus rapidement. Mais je pense que c'est un air familier dans le monde scientifique, que les gens s'appuient constamment sur le travail de chacun. En ce sens, je ne crois pas que IBM[[[[réfutation]nie nécessairement ce que Google a accompli, mais je pense que cela nous donne davantage d'indications sur la manière dont nous devons analyser ces idées à l'avenir.
Permettez-moi de parler un instant en tant que vétéran de nombreuses nuits sans sommeil couvrant les premiers combats des guerres de performances dual-core Intel / AMD de manière statistique: lorsqu'un fabricant revendique un avantage en termes de performances par rapport à un autre – Par exemple, si vous défiez l’autre type dans un test de référence du codec vidéo ou que vous dépassez un jalon hypothétique, cette allégation apparaît ensuite sur une diapositive PowerPoint et est généralement accompagnée d’un astérisque, dague, double poignard et éventuellement d’autres marques qualificatives en exposant. cela témoigne à la fois des limites théoriques et pratiques de cette revendication. (Si le vendeur sait que Timothy Prickett Morgan ou Kurt Marko font partie du public, ses responsables des relations publiques taperont sagement suffisamment de dingbats jusqu'à la fin de cette affirmation pour remplir les diapositives de bas de page de la largeur et de la profondeur du dictionnaire Oxford.)
Petits caractères
Alors, que liraient les petits caractères au bas de la diapositive de suprématie si Google était un fournisseur chevronné du secteur des processeurs quantiques? Voici quelques candidats:
* Les dénominateurs dans les revendications de suprématie sont sujets à changement sans préavis.
Le rapport de performance d’un système quantique suprême à celui de tout concurrent classique est, en extrapolant à partir de Preskill, un nombre imaginaire – un nombre divisé par l’infini. Tant que nous parlons de toute façon en termes d’infini et d’imagination, toute contre-affirmation du côté classique, même avant sa démonstration expérimentale, peut faire disparaître ce dénominateur du domaine de l’imagination, de la la réalité – rendre le rapport une valeur réelle à nouveau. Tant que ce rapport est inférieur à fantaisiste, la suprématie quantique ne peut être garantie.
Pour que l'informatique quantique contribue à l'économie mondiale, la suprématie quantique devra être une proposition de valeur qui dure au moins aussi longtemps qu'un cycle de sa campagne marketing. Si un concurrent classique en supercalculateurs est capable de transformer cette revendication de suprématie en un simple avantage en quelques semaines, toute justification qu'un fournisseur de système quantique peut avoir faite pour son prix de service supérieur, sera plus rapide que le 54ème qubit de Sycamore.
"Il n'y a pas de théorème qui dit qu'un algorithme classique ne peut pas surperformer un algorithme quantique donné", a remarqué Frolov. "Nous pouvons seulement dire que, pour le moment, cet ordinateur quantique a surpassé les ordinateurs classiques – peut-être tous les ordinateurs classiques que nous avons à l'heure actuelle. Mais rien ne prouve que cela signifie qu'aucun ordinateur classique que nous pourrions construire ne peut réellement surperformer, ou être à égalité avec, un ordinateur quantique ".
Si nous prenons le contre-argument de Frolov comme une donnée et donnons à Alan Turing le bénéfice du doute, alors la légitimité de toute revendication de suprématie quantique ne pourra être que la même que la possibilité offerte à un système classique de relever le même défi et d'échouer ses propres mérites. La revendication de Google est peut-être la première de l'histoire à être traitée avec un certain degré de légitimité. Mais la taille du trou que IBM a creusé dans l'affirmation de Google atteste de la facilité avec laquelle un concurrent dans le domaine plus vaste de l'informatique ou des superordinateurs peut vouloir et est susceptible de faire de même à l'avenir. (Pour sa part, Google n'a pas répondu à notre demande de participation à cet article et IBM a refusé notre demande.)
* Les effets secondaires peuvent inclure la volatilité, la décohérence et l’improbabilité de la situation
"Dans un ordinateur quantique idéal", a déclaré Frolov de U. Pitt, "vous pouvez tout enchevêtrer dans n'importe quoi, et il n'y aura aucun problème. Mais cela peut encore être dans des années. Dans un ordinateur quantique pratique, cet enchevêtrement se propage et est encore un peu Cela signifie que chaque qubit peut conserver un enchevêtrement pendant une période relativement courte. Ce ne sont ni des années ni des jours – c’est moins d’une seconde. C’est en millisecondes. Et après cela, l’enchevêtrement est perdu. C’est évidemment une limitation. "
À la manière dont Frolov décrit la situation, l’expérience réussie de Sycamore consistait en une ronde d’exercices de rotation massive de plaques, qui s’est bien déroulée. Faire filer des qubits intriqués devient exponentiellement plus difficile avec chaque nouveau qubit de la chaîne – ce qui explique évidemment pourquoi Sycamore n'a pas pu allumer son 54ème qubit.
* Votre défilement jusqu'à ce paragraphe implique votre acceptation des lois de la physique que personne ne comprend
Le test que l'équipe de Google a donné à Sycamore a été conçu intentionnellement pour être difficile. C’est un exemple de problème d’échantillonnage de circuit aléatoire (RCS) appelé échantillonnage de boson. Un photon – le porteur quantique de la lumière, dont dérive toute la mécanique quantique – est le boson le plus commun, bien qu'il existe d'autres exemples plus exotiques.
La photo ci-dessus montre un dispositif d'échantillonnage de boson réel. L’un de ces dispositifs a pour objectif de mettre en place une expérience dans laquelle plusieurs bosons (principalement des photons) sont tirés d’une source singulière appelée point quantique (un cristal synthétique qui émet de la lumière lorsqu'il est excité par des rayons ultraviolets). Comme des billes dans une machine, ces bosons traversent un labyrinthe conducteur appelé Interféromètre de Haar-random. Lorsqu'ils émergent de l'autre côté, il y a un ensemble de détecteurs prêts à les détecter. Avec suffisamment de données d'entrée, un algorithme RCS devrait être capable d'estimer correctement la séquence exacte des captures effectuées par les détecteurs de la matrice, pour un échantillon d'événements sélectionné de manière aléatoire.
S'il y avait une allégorie du monde réel pour cette configuration, cela pourrait ressembler à ceci: Installez 15 capteurs sur un terrain de baseball et dites-leur de rester silencieux. Assombrir le terrain et les yeux du lanceur. La seule source de lumière provient des balles de baseball auto-éclairantes. Maintenant, faites tourner le lanceur plusieurs fois, puis lancez quelques centaines de balles au loin. Demandez aux balles d'être interceptées en plein vol par une grille remplie de ventilateurs de moteur à réaction rotatifs non blindés. Dites aux attrapeurs de collecter le plus de balles possible, en gardant à l'esprit qu'ils en lâcheront probablement une ou deux.
Demandez ensuite à l’ordinateur de résoudre ce problème: Étant donné la fréquence cardiaque et la respiration du pichet, les vitesses de rotation et les taux de consommation d’électricité des pales du ventilateur, ainsi que le poids et la taille de la chaussure de chacun des capteurs, estimez le lieu et la date prises réussies que possible, en commençant par une hauteur qui n’est peut-être pas la première – disons, la 17e.
Le 6 novembre Scientific American premier signalé la publication d’un article qui n’avait pas encore été revu par des pairs, mais qui se vantait d’un nouveau record: une technique d’échantillonnage de boson, prouvée à l’aide d’un réseau interféromètre réel, qui permettait de prédire avec précision une séquence de 14 collections de bosons échantillonnées au hasard – le plus pour toute tentative à ce jour, ces résultats devraient-ils être vérifiés? Les résultats non vérifiés ont été publiés par des chercheurs de l'Université des sciences et technologies de Chine, Hefei.
Les résultats obtenus par l'équipe Hefei concernant le maintien de l'état de son expérience d'échantillonnage du boson pendant 14 tours ont été impressionnants, mais ils illustrent l'ampleur des efforts requis non seulement pour développer, mais simplement pour exécuter un algorithme auquel un processeur quantique affichera une affinité. Les CQ ne sont pas, et ne deviendront peut-être jamais, des processeurs à usage général. Dans la mesure où ils ne le sont pas, leur suprématie peut toujours être considérée sous un jour très limité et exclusif. Et c'est un problème insoluble en soi.
* La suprématie quantique peut ne pas être disponible dans toutes les régions
Selon la pensée conventionnelle, si un ordinateur quantique pouvait exécuter avec succès un algorithme aussi complexe que l'échantillonnage du boson, il pourrait certainement être utilisé à des fins plus pratiques. Sundar Pichai, PDG de Google, écrivait pour son blog d'entreprise: "L'informatique quantique peut accélérer la résolution de certains des problèmes les plus pressants dans le monde, du changement climatique à la maladie … Grâce à cette avancée décisive, nous sommes désormais sur le point d'appliquer l'informatique quantique à, Par exemple, concevez des batteries plus efficaces, créez des engrais avec moins d’énergie et déterminez quelles molécules pourraient constituer des médicaments efficaces. "
Mais c’est là le problème: non seulement l’échantillonnage de bosons a été choisi pour l’expérience, car c’est difficile, mais également parce qu’il s’agit de la catégorie de fonction à laquelle le contrôle de la qualité est le mieux adapté. Pour une édition antérieure de ÉchelleJ'ai invoqué une analogie à propos de la versatilité d'un système quantique: imaginons que vous ayez eu un contact direct avec le plus grand mathématicien vivant, mais seulement tant que cette personne est restée enfermée dans un isolement cellulaire à Alcatraz. Cette personne produirait des miracles pour vous, mais uniquement si le problème que vous lui aviez exposé était formulé de manière à lui faire croire qu'il était un astronaute actuellement dans l'espace lors d'une manœuvre extra-véhiculaire. Même à ce moment-là, le mathématicien en aurait assez de travailler avec vous et s’endormirait brusquement et au hasard.
Les scientifiques attestent que la suprématie du contrôle de la qualité suppose la mise en œuvre d’un algorithme intraitable aux techniques informatiques classiques – signification, résistant à la traduction à la logique traditionnelle. Peut-être qu'une méthode existe, mais nous ne savons pas ce que c'est. Cette même caractéristique – rendre une fonction quantique inaccessible par une logique commune – rend également difficile son interprétation par le symbolisme ou le langage. Et cela signifie, presque par définition, que la programmation d'un algorithme convivial pour le contrôle de la qualité sera, dans le pire des cas, un emprunt de phrase insupportable.
"[With] Selon la démonstration actuelle, l'intérêt pratique est d'avoir validé l'idée selon laquelle nous pouvons construire des appareils avec plus de 50 qubits ", a déclaré Travis Humble d'Oak Ridge," et de prédire leur comportement. Pour moi, c’est vraiment ce que ce dernier résultat souligne: notre compréhension des processus de la mécanique quantique, comment construire ces supraconducteurs, transmon Les qubits qu'ils utilisent – nous avons assez de pouvoir, du point de vue technique, pour espérer qu'à l'avenir, nous pourrons réellement construire des ordinateurs quantiques à grande échelle et pratiques. "
"La mise en correspondance des problèmes classiques et des algorithmes quantiques", a déclaré Sergey Frolov de U. Pitt, "peut être réalisée pour tous les cas pratiques. Le seul domaine dans lequel cela n'est pas pratique, je suppose, est ce que Google fait actuellement: ils veulent modéliser un système quantique sur un ordinateur quantique. Ceci est entièrement quantique, et nous ne connaissons pas la réponse – nous ne pouvons pas le comparer, nous ne pouvons pas regarder au milieu et voir ce qu’il a fait. Nous devons simplement faire confiance à la machine Problèmes quantiques donnant des réponses quantiques – ces problèmes intéressent les scientifiques, les physiciens, mais n’ont pas une grande utilité pratique directe. Nous pouvons utiliser les solutions pour trouver quelque chose d’extraordinaire, comme un supraconducteur à température ambiante. Ensuite, nous pouvons envoyer de l’électricité sans dissipation Dans ce contexte, nous pourrions vérifier la réponse – nous posons la question à l'ordinateur quantique, qui dit: "Construisez ce matériau et il supraconducteur à la température ambiante". En réalité, nous pouvons le faire, pas sur un ordinateur – assemblez-le à partir d'atomes, puis vérifiez s'il supraconducteur, puis remplacez nos câbles. Mais d'autres problèmes que les ordinateurs quantiques pourraient résoudre, tels que des problèmes d'optimisation ou de cybersécurité, ceux-ci peuvent être vérifiés instantanément.
* Les algorithmes quantiques sont exclusifs aux processeurs quantiques pour lesquels ils ont été construits et ne peuvent être utilisés à d'autres fins sans l'autorisation écrite expresse du créateur de l'univers.
C’est presque comme une expérience de la pensée Einstein: le problème d’un algorithme quantique pour tout système avec un n Le nombre de qubits, qui ne ralentit pas lorsque l’espace à problèmes s’agrandit, c’est que vous ne pouvez pas l’accélérer non plus. La seule façon de s'améliorer consiste à ajouter plus de qubits, ce qui devient un défi architectural lorsque la pile devient plus grande. Finalement, vous construisez un ordinateur entièrement nouveau chaque fois que vous cherchez à améliorer votre capacité de traitement.
En attendant, vous pouvez toujours accélérer un superordinateur avec un meilleur logiciel. Ce n'est pas vraiment une course à pied entre deux classes d'informatique concurrentes, mais plutôt une étape dans laquelle quantum définit le nouvel objectif à pas de géant et où la superinformatique continue de rattraper son retard. En théorie, l'informatique quantique pourrait devenir la plus grande incitation jamais mise au point pour l'avancement de la superinformatique.
"Je conviens qu'il existe un certain aspect de la commodité", a déclaré Humble, de Oak Ridge, "que nous attendons de nos technologies informatiques. Quantum ne répond pas à cette attente pour le moment. Il est beaucoup trop expérimental pour être Je pense que nous allons voir une pression sociale pour que cette technologie porte réellement ses fruits et devienne utile, pour pousser les conceptions dans cette direction. Les gens voudront éventuellement avoir accès à ces systèmes, ce qui créera une demande pour la création d'interfaces. plus accessible. Et cela finira par évoluer avec le temps en certains types d’interfaces qui extraient toutes les caractéristiques quantiques uniques. "
Quantum computing research is, and will continue to be, funded by investments into its future, not just as a headline grabber but a common-sense technology. It's the same temporal paradox looping around again: It's the project's practical value at the end that funds its experimental stage in the beginning. If the technology doesn't find a way to map Hilbert space onto the real world, then QC may yet become the supreme leader of an island unto itself.
Commentaires
Laisser un commentaire