Nachrichten

NVIDIA stellt Weltrekord für Quantencomputersimulation auf

NVIDIA gab bekannt, dass es einen Rekord gebrochen hat, der einen großen Einfluss auf die Entwicklungswelt des Quantencomputing hatte, und eine Software für alle vorbereitet hat, die diese Aufgabe erfüllen kann. Es wird Innovationen in den Bereichen Quantencomputing, Klimaforschung, Arzneimittelforschung, Finanzen und mehr vorantreiben.

Durch die Simulation der Quantencomputer von morgen in den klassischen Systemen von heute können Forscher Quantenalgorithmen schneller und in Größenordnungen entwickeln und testen, die sonst nicht möglich wären. Die Green-Mitarbeiter sagten, dass sie die größte Quantenalgorithmus-Simulation aller Zeiten erstellt haben, um das MaxCut-Problem zu lösen, indem sie cuQuantum verwenden, ein Software-Entwicklungskit zur Beschleunigung von Quantenschaltungssimulationen auf einer GPU.

MaxCut wird oft als Beispiel für ein Optimierungsproblem angeführt, das kein in der Welt der Mathematik bekannter Computer effizient lösen konnte. MaxCut-Algorithmen werden verwendet, um große Computernetzwerke zu entwerfen, die optimale Chipanordnung mit Milliarden von Siliziumpfaden zu finden und das Gebiet der statistischen Physik zu erforschen.

NVIDIA verwendete die cuTensorNet-Bibliothek von cuQuantum, die auf NVIDIAs internem überlegenen Computer Selene ausgeführt wird, um das MaxCut-Problem zu lösen und den Quantenalgorithmus zu simulieren. Sie haben es geschafft, einen Graphen mit 3.375 Vertices zu lösen, indem sie GPUs verwenden, um 1.688 Qubits zu simulieren. Das sind 8-mal mehr Qubits als die bisher größte Quantensimulation. Der Assay war äußerst genau und 96 % der bekannten Reaktionen wurden erreicht.

Die cuTensorNet-Bibliothek, die dazu beigetragen hat, den Weltrekord zu brechen, verwendet Tensornetzwerke, um Hunderte oder sogar Tausende von Qubits zu simulieren, und wird im Dezember verfügbar sein. Die grüne Gruppe lädt jetzt alle ein, cuQuantum auszuprobieren und große Rekorde zu brechen.

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.