”進入禁止”と”天下一品”はディープラーニングで識別できるか!?
こんなツイートを見かけたので。
ピント天一ver.たまたま撮れてたし載っけとこ。 pic.twitter.com/fxQACY9rFG
— Capybarunner (@Bleu_kakeru727) 2017年12月6日
うちにあるディープラーニングコードで、”進入禁止”と”天下一品”を識別できるか!?
気になったので、やってみました。
※ この記事は、某H社さんの機能を否定するものではありません。あらゆる場面での画像認識は難しいです。ほんとに。
精度を上げようと思ったらいくらでもあげられるんですが、上記の状況になるべく合わせるように以下のような条件でディープラーニングしました。
・ ディープラーニングの学習時の画像サイズは56×56
・ 教師データは、写真中に一部だけ写ったものをなるべく使用(画像一杯に移った高解像度な”進入禁止”、”天下一品”の画像はなるべく使わない)
こんな感じに、画面のごく一部に写ったそれぞれのマークを取得します。
ちょっと困ったのは”進入禁止”のマーク取得。
上のように、写真じゃないものならたくさん引っかかるんですが、写真に写った進入禁止の標識はなかなかありません。
おかげで、300枚の写真を集めて、得られたのは26枚。
一方の”天下一品”の看板はたくさんありました。ここから使えそうなものだけを選び、大体40枚くらい集めました。
集めた画像から、それぞれ3枚づつを抜き取り、さらにそのデータを左右反転した画像を作って2倍にします。
それから上のようにディープラーニングを実行。
300 epochがものの3分ほどで終了。低解像度なので、軽いです。
で、テスト画像を使った結果。
結論から言うと、進入禁止3枚はすべて”進入禁止”で認識、一方”天下一品”マークの3枚は、1枚しか正解しませんでした。
全体の認識率は66%ですが、天下一品だけ見ると33%。
やっぱり、低いですね。
最近、こういう可視化ツールを作ってみました。
画像認識するとき、いったいどの特徴を拾っているのか?を見える化。赤いところほど注目している部位です。
正直いって、両者にあまり認識パターンの違いがありません。つまり、分けづらいということのようです。
もちろん、高解像度にして深層化すればかなり認識率は上げられますが、車に搭載するレベルのカメラで、かつ街中で小さく現れるレベルでは、この結果のようにほとんど認識できないのでは?と思います。
わざわざこの2者だけを識別する学習器を作ってこれですから、現実には難しそうです。
ということは、自動運転が実用化した時代に”天下一品”の看板を見た自動運転車はどうなるんでしょうか?気になりますね。
![]() |
![]()
« Amazonがディープラーニング向けビデオカメラ”AWS DeepLens”を4月に249ドルで発売へ | トップページ | 2018年中に約1万円安い低価格iPad発売か!? »
「数値解析系」カテゴリの記事
- マルチモーダルなローカルLLM(大規模言語モデル)を格安なPCで動かしてみると(2025.11.16)
- 東京の郵船ビルの「DXフェスティバル2025」に参加してきました(2025.10.31)
- 品川に出張へ行ってまいりました(2025.10.18)
- 状態空間モデル(カルマンフィルタ+トレンド・季節性を考慮したローカルレベルモデルによる予測)を使って、血圧値をフィルターしてみた(2025.06.09)
« Amazonがディープラーニング向けビデオカメラ”AWS DeepLens”を4月に249ドルで発売へ | トップページ | 2018年中に約1万円安い低価格iPad発売か!? »








コメント