2016年6月12日日曜日

Google がディープラーニング用の高速チップを内製ってニュースがあったけど

このエントリーを含むはてなブックマーク


ちょっと前にGoogleが、ディープラーニング用の高速チップを内製ってニュースがあったけど、この流れはいろんなところで起こると思う。
このチップなんと8ビット機らしく(8ビットって聞くとファミコンを思い出すけど)、一見すごく退化したように思える。
ディープラーニングみたいな計算用途では8ビットの計算精度で十分らしい。
そのかわり、爆速。



計算リソースはどんどんクラウド化されており、Webサーバの分野なんかでは、もう社内サーバを維持してる会社なんか時代遅れという感じだ。みんな自社のWebサイトはAWS(Amazon Web Service)で運営するのが当たり前。

この流れは、科学計算なんかの分野でも起こると思う。今までは、各研究室や、大学でクラスターなんかを組んで維持していたけど、電気代とか、定期的な入れ替え、維持する人件費なんかを考えるとコスト的に、クラウドを借りる方が、もうすでに、たぶん安い。

Googleなんかはこれもわかっていて、上記の専用機をチップから開発して、まず自分たちで使ってみて、すごくうまく行けば、Google Cloud Platformでも使えるようにすると思う。クラウドなんか、ほとんど差別化要因がないので(値段もあまり変わらない)、リソースに特徴がなければ勝てないということになる。Google としてはディープラーニングをやるならうちでやると激速ですよと売りにするんだと思う。

というわけで、富士通やNECをはじめとする、サーバー・スパコンを売ってきた会社群はどんどん苦しくなってくるんじゃないのかな。もうすでに苦しいんだろうけど。

結局、AIの性能が計算速度(リソース)で決まってくるならば、AI開発を行いたい企業・大学はこぞってもっとも高性能なリソースをもつクラウドを選択するだろう。そういう意味で、独自のチップ開発は大きな意味を持ってくるし、本質的競争になる。
  • このエントリーをはてなブックマークに追加
  • follow us in feedly


Related Posts Plugin for WordPress, Blogger...

0 件のコメント :

コメントを投稿