GeForce RTX 2080/2080Tiのディープラーニング性能はいかほどか!?
最近、NVIDIAから新しいビデオボード、GeForce RTX 2080/2080Tiが発売されました。
まあ、ビデオボードなんですが、個人的にはこいつのGPU演算の能力、特にディープラーニング性能が気になります。
そんなGPU計算の性能を比較した記事が出ておりました。
NVIDIA RTX 2080 Tiのディープラーニング性能をGTX 1080 Ti・Titan V・Tesla V100と比較 - GIGAZINE
いろんなテストがありますが、概ねRTX 2080(無印)とGTX 1080Tiが同等性能くらいですね。CUDAコア数では、RTX 2080が2844コア、RTX 2080Tiが4352コア、そしてGTX 1080Tiが3584コア。コア数のわりにRTXは健闘し、2080Tiがややどうかなぁってところでしょうか。
Voltaコアを搭載するRTXシリーズは、CUDAコアの他に、機械学習を高速化するTensorコアをとうさいしているということで、この手の計算では高速化が期待できるとされてましたが、概ねその通りくらいでしょうかね。
ただ、GTX 1080Tiも安くなりましたね。こちらの方がお買い得かもしれません。
しかし、このボードを買う人の大半は”グラフィックボード”として買ってますからね。なかなかこういう性能がかえりみられることはなさそうです。
![]() |
![]()
« Apple Watch Series 4の使い勝手はどうか? | トップページ | 無人決済のキオスクで万引きしてみたらどうなるか!? »
「数値解析系」カテゴリの記事
- gemma4:26bを試してみた(2026.04.09)
- 私がGoogle Geminiを使い続ける理由(2026.03.14)
- 久々に高い本(機械学習関連)を買った(2026.01.29)
- マルチモーダルなローカルLLM(大規模言語モデル)を格安なPCで動かしてみると(2025.11.16)
- 2025年まとめ記事(2025.12.31)
コメント
« Apple Watch Series 4の使い勝手はどうか? | トップページ | 無人決済のキオスクで万引きしてみたらどうなるか!? »


FP32だとTensorCoreは使われないので、速度はあくまでも一般学習用向けだと考えた方が良いです。
Inference用途だとFP16指定を使えば、Flops指標では10倍ぐらい差がつくはずなのですが、実際は”最大”3倍程度の高速化できれば良い方です。
投稿: | 2018年10月28日 (日) 06時45分
こんにちは、??さん。
fp32は使えないんですね。それでも、機械学習用途ならばそれほど高精度な変数を扱う必要がないと言われているので、3倍モデルならば十分過ぎますね。
問題は、このボードを買う機会がないことでしょうか?自宅用ならまずCPUを一新しないとダメですし、会社用には予算を組まないとダメです。うーん、なんとか自分で試してみたいですね。
投稿: arkouji | 2018年10月30日 (火) 12時28分