Google、カスタムTPUマシン、アルファ版公開――クラウドで機械学習を加速 – TechCrunch Japan




GoogleのTPU(Tensor Processing Units)は、TensorFlowフレームワークによる機械学習を効率的に実行するために独自に開発されたカスタムチップだ。このTPUがアルファ版であるものの、クラウド利用できるようになった

Googleがデザインしたチップは、一部の機械学習のワークフローを他社の標準的GPUよりもはるかに高速にを処理できるという。このTPUの消費電力が少ないことはGoogle側にとって重要なポイントだろう。デベロッパー側は消費電力などあまり気にかけないだろうが、Googleにとってデータセンターへの電力供給は大きな課題だ。また利用料金の引き下げにもつながる。

Googleは9ヶ月前のI/Oデベロッパー・カンファレンスでクラウド上でTPUを利用できるようにすると発表していた(このとき一部のデベロッパーに限定してアクセスを許可)。 それぞれのCloud TPUは4基のASICと64GBの広帯域メモリーを備える。Googleによれば、1つのTPUボードのピーク能力180TFLOPSだという。

すでにTensorFlowを利用して機械学習を実行しているユーザーは、新しいサービスを利用するためにコードを大きく書き換える必要はない。ただし当面、Cloud TPUを利用するのはワンクリックというわけにはいかない。アクセスを管理するため、「利用希望者はCloud TPUの利用割当を申請する必要がある」ということだ。割当を受けた後は、1TPU1時間あたり6.50ドルの料金となる。標準的なTesla P100 GPUがアメリカでは1時間1.46ドルで利用できる。ただしFP16によるピーク能力は 21TFLOPS程度だ。

機械学習で大きな実績を挙げてきたGoogleだけに、新しいクラウドTPUサービスにはユーザーが殺到するだろう。長期的にみれば、Googleにとって重要なのはGoogle CloudにAWSやAzureに対する差別化の要因を与えるところにある。クラウド・サービスも基本的な部分ではどれもほぼ横並びだ。コンテナ・テクノロジーのおかげで、プラットフォームを移し替えるのも非常に簡単になった。その点、TensorFlowとカスタムTPUはGoogle独自のものだ。少なくとも当面、機械学習の分野ではライバルは歯が立たないだろう。

〔日本版〕Cloud TPUはGoogleの日本サイト経由で登録できる

[原文へ]

(翻訳:滑川海彦@Facebook Google+



Related Post