東京大学、カリフォルニア大学バークレー校、IDSIA など NVIDIA のパートナーが、AI 研究の最新成果を機械学習の世界カンファレンスで発表

投稿者: Kristin Bryson
ニューラル ネットワークに学習方法を教えるにせよ、疑似ラベル付きデータを処理させるにせよ、ディープラーニングや人工知能の進歩の多くは研究室で起こっています。

世界のトップ AI 研究者を支援するプログラム、NVAIL (NVIDIA AI Lab) プログラムのパートナー研究機関であるカリフォルニア大学バークレー校、スイスの AI ラボである IDSIA、および東京大学の研究者は、NVIDIA のスーパーコンピューター、 DGX-1 を活用してディープラーニングを次の段階へ進めています。

オーストラリアのシドニーで先週開催された International Conference on Machine Learning (ICML) で、上記の 3 機関が、研究論文を発表しました。

AI に学習方法を教える

ロボットなどの AI デバイスが人間のように学習できるとしたらどうなるか想像してみてください。NVAIL パートナーであるカリフォルニア大学バークレー校のセルゲイ レヴィン (Sergey Levine) 助教と学生たちは、それを現実にしたいと考えています。

レヴィン氏のチームは、ディープ ニューラル ネットワークに効率の良い学習方法を教えることにより、インテリジェント エージェントの学習スピードを上げると同時に、必要なトレーニングを減らしたいと考えています。

カリフォルニア大学バークレー校電気工学 コンピューターサイエンス学科助教のレヴィン氏は、次のように述べています。「人間がどうしているかを考えてみてください。私たちは、物事をまったくゼロから学ぶということはなく、過去の経験を生かして新しい能力をすぐに学んでいます。そこで、学習アルゴリズムにも同じことをさせようとしています。」

現在の AI 手法では、ロボットは刺激に対する最適な反応を学習するため、物事を何度も繰り返して経験する必要があります。それに対し、ロボットがそうした反復なしで学習できるようにすれば、適応能力が高まるだけでなく、はるかに多くのことを学習できるようになるのではないか、というのがレヴィン氏の考えです。

「ロボットがある能力を従来の 1/1,000 回の経験で学習できるとすれば、1 つの能力の学習に従来必要であったのと同じ時間で 1,000 の能力を学習できることになります」とレヴィン氏は語ります。「絶対に失敗をしないマシンを構築できるわけではありませんが、その失敗からすぐさま学習し、同じ失敗を何度も繰り返さないマシンの構築を目指すことは可能です。」

レヴィン氏と彼のチームは、NVIDIA DGX-1 システムを使用して、運動と視覚を調和させる方法についてアルゴリズムをトレーニングしています。博士課程の学生であるチェルシー フィン (Chelsea Finn) 氏は、ICML においてレヴィン氏および同校のアビール (Abbeel) 氏と共にこの研究に関する論文を発表したほか、「深層強化学習、意思決定、および制御」に関するチュートリアルを行いました。


世界のトップ AI 研究者の多くにとって重要な研究ツールであることが裏付けられつつある NVIDIA DGX-1

より深いディープラーニングへの道

再帰型ニューラルネットワーク (RNN) と Long Short-Term Memory (LSTM) の強力な組み合わせは、手書き文字認識や音声認識に取り組む研究者にとって朗報です。

各計算結果を次のステップに自動的にプッシュするフィードフォワード ネットワークとは異なり、RNN は、前の意思決定と現在の刺激を用いてその場で学習することにより、内部記憶を利用して任意のデータ(発音の違いや手書きのばらつきなど)を処理できます。

しかし、RNN にはニューラル ネットワークの層を深く進むにつれて処理が難しくなり、ディープラーニング処理の速度が低下するという欠点があります。それに対し、スイスの AI 研究機関であり、NVAIL パートナーである IDSIA の研究者は解決策を発見しました。それが再帰型ハイウェイ ネットワークです。

IDSIA の AI 研究者であり、ICML で発表されるこのテーマに関する論文の共著者の 1 人であるルペッシュ シュリーヴァスタヴァ(Rupesh Srivastava)氏は、次のように述べています。「これまで、たとえ 2 層でも再帰型ネットワークを順次遷移でトレーニングすることは、きわめて困難でした。しかし、再帰型ハイウェイ ネットワークにより、数十層の再帰型ネットワークを再帰遷移でトレーニングすることが可能になりました。」

シュリーヴァスタヴァ氏は、この進歩により、順次処理タスクに対処するためのより効率的なモデルが実現し、より複雑なモデルの使用が可能になると語ります。

「これらの初期実験では、将来、巨大モデルのトレーニングを行わないでもはるかに複雑なタスクに対処できるようになる可能性が示されています。」(シュリーヴァスタヴァ氏)

シュリーヴァスタヴァ氏のチームは、NVIDIA Tesla K40、K80、TITAN X、GeForce GTX 1080 GPU を CUDA および cuDNN と併せて使用することにより、ディープラーニングのトレーニングを高速化しています。しかし、DGX-1 AI スーパーコンピューターの登場により、「実験サイクルが大幅に加速し、あらゆる研究プロジェクトのペースを上げることが可能になる」と述べています。

また、DGX-1 を使用して再帰型ネットワークモデルの並列トレーニングを高速化できる可能性についても期待を示しながら、最終的に再帰型ハイウェイ ネットワークが強化学習の改善につながることを願っています。この研究は、少なくともディープラーニング モデルの層を深くするのに役立つはずです。

「これは重要な発展です。深いモデルがもたらす効率性をさまざまな形で生かせることが、ディープラーニングの基礎だからです。」(シュリーヴァスタヴァ氏)

ディープラーニングの策略

ディープラーニングは必ずしも整然とした処理とは限りません。例えば大規模な音声認識を実行するモデルをトレーニングする場合、暗騒音や口調などのばらつきを考慮できることが重要です。

領域適応として知られるこの概念は、人工知能において知能が得られる部分です。比較的単純なトレーニング ラボ環境で知的能力を持つことは簡単ですが、教師がいない予測不可能な現実世界で知的能力を持つのは、また別問題です。

東京大学の研究者は、教師なし領域適応の問題の多くを回避する方法を開発したとしています。それは、DGX-1 のパワーを生かして、対象領域のラベルなしデータに「疑似ラベル」を割り当てるというものです。

これにより、ディープラーニング モデルがソース領域(例えば、書評の分類能力)について学習したことを、新規モデルのトレーニングなしで別のターゲット領域 (映画レビューなど) に適用することが可能になります。

そのために、東京大学のチームは、3 つの独立したニューラル ネットワークを使用し、3 つの分類子に異なる役割を割り当てるという、「非対称トライトレーニング」と呼ぶ概念を提唱しています。2 つのネットワークはラベルなしターゲット サンプルへのラベル付けに使用し、3 つめのネットワークは疑似ラベル付きターゲット サンプルによってトレーニングします。この手法は、これまでのところ有望な結果が得られています。

東京大学大学院 情報理工学系研究科の原田達也教授は、次のように述べています。「単純な領域から多様な領域、つまり合成された領域から現実的な領域への知識の移転は、実際上困難な課題です。私たちの方法は、単純な領域から多様な領域への適応の実現に向けた重要な一歩を示すものと考えています。」

原田教授は、ICML で今週発表されたこの研究に関する論文の著者の 1 人です。これは複雑な取り組みです。原田氏は、その可能性を実現するには複数の取り組みを並行して行う必要がある可能性が高いことを認めながらも、彼のチームの研究を共有することでそのプロセスが加速するものと期待しています。

「ディープラーニングと疑似ラベルの融合に関する研究は目下進行中であり、私たちの研究によってさらに前進することが期待されます。」(原田教授)