NVIDIA ジェンスン・フアンCEO、メタバースは現実世界の延長線上に仮想現実を作り出し自動運転車の開発にも役立つ

NVIDIAはAIの会社から、全方位のコンピューター基板を提供する企業に進化する

基調講演で公開された「トイ・ジェンスン」。NVIDIAのAI、グラフィックス、メタバース向けのOmniverseなど複数の技術を組み合わせて実現されているAIアバター

──それではフアン氏から冒頭にGTCの基調講演の振り返りをお願いしたい

フアン氏:GTCでは多くの発表を行なったが、ここでは7つのポイントを紹介していきたい。

 1つめは「アクセラレーテッド・コンピューティング」(アクセラレータを使った演算技術のこと、HPCエリアでのGPUを使った演算などのこと)についてだ。ご存じのように、私たちはかなり長い間この分野を開拓してきた。この取り組みは「フルスタック・コンピューティング」(上から下まですべての種類の演算のこと)への挑戦だといえる。これまで一般的にコンピューターの世界で使われてきた、アプリケーションがCコンパイラを使って構築され、CPU上だけで実行されるというコンピューターの構築とは全くことなっている。

 アクセラレーテッド・コンピューティングの場合には、アプリケーション、アプリケーションの領域(ドメイン)、複雑な計算、アルゴリズム、そしてそれを高速に演算するためのコンピューターの仕組みを理解しなければならない。このために、今回われわれは65の新規、または更新されたライブラリを発表した。

 その中でも特に興味深いものをいくつか紹介したい。「Repot」は、言ってみればサプライチェーンの最適化を実現するためのツールだ。組み合わせの最適化は、一般的には量子コンピューターで実行されるべきものだと考えられているが、今の形のコンピューターの上でそうした演算を走らせている例が多いため、GPUを利用して並列実行できるようにして、最適化を行なうことで100倍以上に性能を改善した。

 世界で最も普及している数式解読機能である「cuNumeric」を、大規模なデータセンター規模で演算し、スケールアップ(演算の規模をサーバー単体からラック単位などに拡張していくこと)できるようにした。それと同時に量子コンピューターの開発を加速する高速化ライブラリ「cuQuantum」の提供を開始した。

 「Modulus」は、物理法則を理解したニューラルネットワークモデルで、非常に重要な新機能だ。Modulusは、物理法則を理解したニューラルネットワークモデルで、特にライフサイエンスやデジタルバイオロジーの分野で、本当に重要な仕事をすることができる。また、私が基調講演で発表したのは、気候科学と協力して気候の未来を予測するというものだ。

 2つめのポイントは、AI推論プラットホーム「Triton Inference Server」のメジャーリリースを発表したことだ。Tritonは、AIの学習が終わった後、アプリケーションでAIを実行する「推論」処理時に使用されるものだ。NVIDIA AIは現在、世界中の25,000社の企業に導入されており、非常に急速に成長しているが、そのメジャーリリースを発表したことになる。

 3つめはスピーチAIだ。スピーチAIは、これから非常に重要になっていく開発分野だ。というのも、ほとんどの人がコンピューターと対話する方法は構造化されていないからだ。われわれがキーボードやPCを使ってコンピューターと接するときには、ほとんどの場合情報は構造化されておりアクセスは容易だ。しかし、それが構造化されていない場合には、スピーチAIがコンピューターとわれわれをつなぐ手段となる。そのため、NVIDIAは音声認識と音声合成の両方において、世界最高クラスの音声AIシステムの提供を開始した。その性能はとても素晴らしく、リアルタイムに動作し、企業はどのようなクラウドにも、組み込みシステムにも組み込んで利用することができる。

 4つめは「巨大言語モデル」(large language model)に関する発表だ。プラットホームがそうした巨大言語モデルを学習するためのプラットホームが「NeMo Megatron」だ。

 一週間ほど前になるが、Microsoftと共同で世界最大級の言語モデルを開発したことを発表した。Megatron 530Bは5300億個ものパラメータをもっており、オープンAIの言語モデルに比較してやく3倍になる。こうした言語モデルは、コンピューターが言語やテキストを理解し、解釈し、意図を理解し、要約し、質問に答えることを可能にするもので、非常に重要だ。NeMo Megatronは、そのような大規模な言語モデルを開発するために、3つのことを発表しました。それが、NeMo Megatronと呼ばれるトレーニングシステム、Megatron 530-Bと呼ばれるプレトレーニングモデル、これらの巨大なモデルを、マルチGPU、マルチノードのTritonでリアルタイムに推論する機能だ。

 5つめが「Omniverse」だ。Omniverseを利用すれば、写真のようにリアルで、物理法則に従った仮想世界のシミュレーションシステムや仮想世界の作成に使用できる。

 その近い将来のアプリケーションが、デジタルツインだ。今回のGTCではデジタルツインの例をいくつか紹介した。分子のデジタルツインから、BMWによる自動車製造工場のデジタルツイン、ボイラー工場のキーリカバリーシステムのデジタルツイン、そしてエリクソンによる5Gのシミュレーションを行なった都市全体のデジタルツインまで、さまざまなものがある。

 また、Omniverseでは「Omniverse Avatar」と呼んでいるデジタルアバターを合成する機能を発表した。音声認識、音声AI、自然言語理解機能を搭載していて、私たちの言葉を理解して話しかけてくれるのだ。先ほどMegatronの話をしたが、それを利用して実際には人間が裏にいなくても、われわれの意図を理解することができ、かつ学習は一切必要ない。NVIDIAが提供する「Merlin」を使って人間に提案し、Omniverseを使って発言やジェスチャーに基づいて顔をトレーニングすることができるようになる。

 6つめに「Jetson AGX Orin」と呼ばれるロボット用コンピューター・ボードの発売、生産開始を発表した。これは世界最先端のシングルチップ・ロボティクス・コンピューターで、自動運転やロボット用に設計されているものだ。また、新しいロボットも発表した。これはセンシング機器用のロボットで、主に医療機器用に設計されている。超音波機器やCTスキャンなど、ロボット技術の恩恵を受けられるあらゆる種類の医療機器が対象だ。

 そして最後の7つめにデータセンターのインフラ、Quantum-2 InfiniBand Switchネットワーキングと呼ばれる次世代インフラ、エンド・ツー・エンドシステムを発表した。

関連記事