GTC Japan 2017に参加しました
12月13日に、NVIDIAが主催する「GPU Technology Conference Japan 2017」に参加してきました。
例によって、当日朝に名古屋から新幹線で東京に向かうんですが、朝からいきなりこういうものに遭遇。
14番線に明かりの消えた新幹線が居座っていて、東京方面は15番線のみで発着していました。
これ、前日(12月12日)に台車亀裂で重大インシデントに認定された、あの新幹線です。
朝からいきなりトラブル車両を目にするわけですが、それにしてもこの日は富士山がきれいでした。
さて、GTC Japan 2017の会場はこのフジテレビ・・・
ではなくて、その斜めお向かいにあるヒルトンお台場。
会場に到着。
実はGTC Japan 2017は前日の12月12日から行われていたんですが、この日は用事があって参加できず。13日のみ参加しました。
2日目となる12月13日は基調講演からスタート。登壇するのはジェンスン・ファンCEO。創業者自らが登壇して、NVIDIAの取り組みを話してくれます。
今やGPUといえばAI。ディープラーニング用にGPUを使うのは当たり前のこととなりつつあり、私も「GeForce GTX 1050Ti買ってディープラーニングを加速してみた: EeePCの軌跡」にある通り、恩恵を受けております。
講演では、発表されたばかりのTITAN Vの威力を見せつけておりました。まずはこれ。CPUのみで訓練を行った場合。毎秒5枚程度ですが・・・
TITAN Vでは毎秒1000枚!200倍以上の速さです。
このTITAN Vが日本で発売されると発表されてましたが、時期や価格は未定。アメリカでは2999ドルと言ってましたね。
日本なので、日本のAI字状の話もいくつか出ていました。これはコマツの話。
建機の制御や工事計画などで、AIを活用しようとしているようです。
さて、会場の様子ですが、どこに行っても人だらけ。とにかく、人が多い。
そんな中でも、ちゃっかり展示物をチェックしていました。
これはHPのワークステーション。11月に出たばかりの新型です。
画像認識系の展示をやってる企業は多かったですが、これはその中でも一番気になった事例。
単眼カメラで物体と距離を推定するというもので、認識された矩形の上に、距離が書かれていました。
結構混んだ会場で物体認識をさせているので、どこの画像認識デモ機も人物を示す矩形だらけでしたね。
中にはサーバーのラックを持ち込むところも。これは富士通のディープラーニング用オンプレサーバー”Zinrai”です。
会場では、なぜかクリスピードーナツが配られてました。なかなかおいしかったです、このドーナツ。
そういえば、写真に撮り忘れましたが、GPU搭載の組み込み系ボードPCの”Jetson TX2”が38600円で売られてましたね。通常9万円ほどですから、かなりお得。意外と買ってる人、多かったです。
NVIDIAのコーナーでは、こんなものが展示されてました。これはコマツの建機のコクピット部分を再現した模型のようです。他にも自動巡回ドローンや、サッカーをするロボット、サラダを盛り付けるロボットアームなどが展示。
さて、会場ではいくつか発表がありました。私が聞いたのは、Project MARS(100万人の火星都市をVRで作るプロジェクト)、ドコモのAIタクシー(タクシーの需要予測AI)、機械学習による視覚情報理解(判別器をブラウザのみで動かす、ディープラーニング用3Dデータにポリゴンを使う、BCラーニングというものを使うと精度が上がることの考察)、そして東大の松尾豊先生の「ディープラーニングを日本の産業競争力につなげるために」という講演です。
基本的にどの講演でも、ディープラーニングを理解している人向けの話がほとんどでした。CNN、RNN、オートエンコーダという概念は当たり前のように使われていて、それをベースにこんなことをやってます・・・的な話方です。
ですが、会場にどれくらいその中身を理解できている人がいるんだろうか・・・私を含めて、かなり怪しい人が多いんじゃないかなぁと。
なお、個人的に一番関心を引いたのは、上の「BCラーニング」というやつです。
通常、教師データとして「犬」の写真を使ったとすると、教師信号として「犬:1.0」というのを与えます。ところがBCラーニングでは「犬:0.7、猫:0.3」のような教師信号と、犬と猫を7:3で合体した画像を使うそうです。
この混ぜ方がまた難解で、なんでも画像を「波」にして合成するんだそうですが・・・ただ混ぜちゃダメなの?
で、このBCラーニングを使うと、通常のディープラーニングよりも認識精度が向上するという結果が得られるそうです。なんでそうなるのか?という話でした。
いや、BCラーニング、やってみたいです。画像の合成方法がわかれば、私にもできそうですね。
松尾豊先生のお話は、ディープラーニングにおける今の技術の現状、特に”深層強化学習”について言及されてました。深層強化学習を使った事例というのは増えつつあるものの、明確なモデルがまだ確立されていないとのこと。そのあたりの話をいきなりしてきます。もうディープラーニングの中身は知っていて当たり前。
という一方で、「ディープラーニング協会」を立ち上げて、上のような検定を作ったり、講座を開いたりという活動を進めているようです。とにかく、人材を育てるということに熱心なご様子でした。
以前も聴いたのですが、松尾豊先生のやりたいディープラーニングを使った30のことというのがあって、これを”Deep30”と呼んでいます。
”Deep 牛”というのは、牛丼の盛り付けから食洗器へのセットまでを可能にするロボットを配置した牛丼屋を作って、ワンオペならず”ゼロオペ”を目指すというもの。
明らかにどこかの牛丼チェーン店への当てつけのような構想ですが、これをやろうとすると正確にお皿を認識してつかむロボットを作らないとだめですし、それを行うためにディープラーニングとロボットを融合する必要があるとのこと。
でもこれができれば、食品産業というビッグなビジネスに革命をもたらすということで、大変な利益が期待できるとおっしゃってます。
そんな勢いのものが30個も出てきます。
私もやってみたいですね、この”Deep○○”ってやつ。何か面白そうなもの、ないでしょうかね?最近毎日考えてます。
帰りはこんな弁当を食べながら帰宅。とにかく人が多くて、おまけに立ち見になる会場が多くて疲れました。
戦利品です。
ディープラーニングばかりでなく、ワークステーションはストレージなど、今の仕事でも役立つ情報も盛りだくさんでした。また来年にでも、行きたいですね。
« 今年も恒例の雑誌の自炊作業 | トップページ | GMが運転しながらスタバのコーヒーを注文できる”コマースプラットフォーム”を解禁 »
「数値解析系」カテゴリの記事
- Googleの生成AI「Gemini Advanced」に入ってみた(2024.12.01)
- Tanuki-8Bの4ビット量子化ggufモデルでRAGをやってみました(2024.09.14)
- 純日本産なローカルLLM「Tanuki-8B」を試してみた(2024.09.02)
- 東京のセールスフォースに行ってきました(2024.07.24)
- ローカルLLM「Llama-3-ELYZA-JP-8B」にいろいろ聞いてみた(2024.07.01)
コメント
« 今年も恒例の雑誌の自炊作業 | トップページ | GMが運転しながらスタバのコーヒーを注文できる”コマースプラットフォーム”を解禁 »
ディープラーニングも多岐にわたり各々の研究もズンズン進んでいるのですね。今後も楽しみですね。
投稿: enutea | 2017年12月17日 (日) 13時03分
こんにちは、enuteaさん。
画像認識などとっくに飛び越えて、文書分析や時系列データの分析やロボットの制御にまで使おうとしていました。私のやってることなんて、もう2、3年前のレベルなんですよね。
世の中ものすごい速度で発展しているというのに、うちの会社は大丈夫かしらんと思うこともあります。なんとかけしかけないといけませんね。
投稿: arkouji | 2017年12月17日 (日) 20時37分