科学・技術

2018年8月 6日 (月)

予告編から客入りを予測するAIが登場!?

映画に行くと、これでもかというくらい予告編が流されます。でも、それを見て観に行ったりDVDを買ってしまった映画ってわりとたくさんあります。予告編だからと言って、馬鹿にできませんね。

そんな予告編を最近のAI技術でもって分析し、客入りの予測につなげようという技術ができたようです。

予告編から「客入り」を予測 人工知能が映画製作の助けに? | Forbes JAPAN(フォーブス ジャパン)

人工知能に数百篇の68万フレーム以上の予告編を学習させたあたりで、この人工知能は人の顔や事物などの要素を区別し始めたそうで、最終的に映画ごとの類似性、相違点を認識するようになったそうです。

で、その基準に基づいて50本の映画についての観客の動向を調査したところ、ある映画を見た観客が他の映画を見に行ったかどうかを70%もの確率で予測できたとのことです。

まあ、ランダム予測では50%でしょうから、それよりは20%マシというレベルかもしれませんが、映画の思わぬ相関性なども見つかって、それはそれで興味深い結果を招いているようです。

人の分析だけでは、どうしても限られた主観に基づいてしまうことが多いため、似たような映画を量産する状況に陥るようです。が、昨今のビックデータ解析によって、多くの人が望む、より多様なコンテンツを生み出すきっかけになる可能性が期待されているようです。これは映画に限らず、いろいろな業界で言われてますね。

新たな需要やアイデアを掘り起こすことになるかどうか、ただし、いくらAIの技術だからと言って、最後にそれを解釈し生み出すのは人間のお仕事。この分析能力をうまく活かしきれますかね。個人的には、期待しております。

【Amazon.co.jp限定】デッドプール2 ブルーレイ版スチールブック仕様 [Blu-ray]

2018年8月 4日 (土)

「東京の夏が昔より暑い」ことを実感できる可視化マップ

私が子供だった頃は、30度を超えると暑いと言われていた記憶。それじゃ今では、35度超えでようやく「暑い」ですからね。周囲も31度で「涼しい」といってる、実におかしな状況が続いています。

さて、そんな温暖化を実感できる画像が、以下のサイトで確認できます。

東京の夏が「昔より断然暑い」決定的な裏づけ | 天気・天候 | 東洋経済オンライン | 経済ニュースの新基準

Temperature142

東京の142年間の6月~9月の日別平均気温をマッピング化したものです。

青、黄緑、緑、黄色、赤の順に2度ごとにマッピング。青は18度以下、濃い赤は31度以上です。つまり、赤が目立つほど日の平均気温は26~30度以上に張り付いているということを表しています。

年によって多少変動はありますが、下に行くにつれて徐々に赤色が増えていることが分かります。

最近では、2010年、2016年8月が猛暑だったようですが、これを見ると2012、3年あたりが暑く見えますね。

今年は7月から暑くて大変なことになってますけど、この8月はどうなんでしょうか?

暑さはまだまだ続きます。熱中症にはご用心を。

HyperKewl(ハイパークール) 米国陸軍正式採用の冷却服技術 Sportsクールベスト(BK)ブラック XXL [正規輸入品] 6529-BK-XXL

2018年8月 3日 (金)

Googleがカメラの前のポーズと同じ姿勢の画像を検索するサービスを開始

まさにAIを使った技術ですね。

【やじうまPC Watch】カメラの前でポーズをとると、Googleが同じ格好の写真を探してくれるサービス - PC Watch

Googleが、カメラの前で取ったポーズと似た姿勢の画像を検索してくれるというサービスを開始しました。

Googleが開発した姿勢判断モデル「PoseNet」をWebブラウザ上でTensorFlow.jsを使って、人体を肩、足首などの17のパーツで区分して判断するようです。

画像そのものは送信せず、あくまでもローカルマシン内で処理して姿勢情報のみを送信して検索にかける仕組みのようです。このため、ローカルマシンに高性能なGPUが搭載されていると処理が速くなるようです。

それにしても、AI技術でどんどん便利になりますねぇ。

由々しきことは、こういうものが日本から出てこない事でしょうか?最近、そう思います。

初めてのTensorFlow 数式なしのディープラーニング

2018年7月 6日 (金)

最新の物体検出YOLO v3 (Keras2.2.0+TensorFlow 1.8.0)を独自データで学習できるようにしてみた

物体検出コードといえば、Faster-RCNN、SSD、そしてYOLOが有名ですが、そのYOLOの最新版である”YOLO v3”のKeras+TensorFlow版を使って、独自データにて学習できるところまで持っていきましたので、ここに手順を書きます。

まず、YOLO v3の威力をご覧ください。

YOLO: Real-Time Object Detection

最近出たアルゴリズムなので、SSDよりも高速&正確であるというのが謳い文句です。ごらんのとおり、物体検出数も精度のなかなかです。

制度と速度を他の物体検出コードと比較したグラフです。わざとグラフの横軸からはみ出すように作ってますが・・・実際動かしてみると、確かに以前試したTensorFlow+Keras版SSDよりも速く動作します。

基本的には、READMEを読めば分かるように作られている・・・はずですが、クイックスタートでさえちょっとてこずりました。ましてや深層学習して学習モデル適用は、READMEだけではわかりません。

このAI民主化時代(誰でもAIを使える時代)に、これではいただけません。

ということで、以下、Windows版Anaconda 3(我が家はVer.4.4.0)にTensorFlow 1.8.0+Keras 2.2.0をインストールして、クイックスタートから独自データによる学習、および推論コード実行まで実施いたしましたので、紹介します。

準備 & クイックスタート

最初に、準備がてら動かしてみましょう。

※ Windows版Anaconda 3のインストール方法、TensorFlow 1.8.0+Keras 2.2.0のインストールについては省略します。以下のサイトなどを参考に、あらかじめ導入をお願いします。

Windows10にKeras(+TensorFlow)をインストールしてAnaconda+Jupyterで動かしてみる

まず、”YOLO v3”のコードを、以下から入手します。

https://github.com/qqwweee/keras-yolo3

Windowsの場合は「Clone or Download」を押して「Download ZIP」をクリックしてダウンロード。ファイルを解凍します。

学習済みデータを入手します。YOLO: Real-Time Object Detectionのページの中ほど、「Detection Using A Pre-Trained Model」のところに”here (237 MB)”というのがあるので、これをクリックします。

すると、”yolov3.weights”というファイルが得られます。これを、先ほど解凍したフォルダに入れます。

ここでAnaconda 3のプロンプトを開き、TensorFlow実行環境に変えて(activate tensorenv 等)、上の解凍フォルダに入ります。

まず、入手した学習済みデータをKeras用に変換します。以下のコマンドを入力します。

$ python convert.py yolov3.cfg yolov3.weights model_data/yolo.h5

これで、Keras用の学習済みデータが「model_data」フォルダに入ります(yolo.h5)。

ここで、とりあえず動かしてみます。

静止画を認識させたい場合は、YOLO v3のフォルダに検出させたい画像ファイルを入れておきます。

$ python yolo.py

と入力。

「Input image filename:」と出てくるので、あらかじめYOLO v3の入ったフォルダに入れた画像ファイルのファイル名をコロンの後ろに入力します。

Yolo300

こんな画像が出れば、成功です。

動画を使いたい場合は、同様にYOLO v3のフォルダに動画を入れて、

$ python yolo_video.py (動画ファイル名)  [出力ファイル名]

と実行します。動かすだけなら、出力ファイル名のところは何も入れなくても動作します。

独自データでの準備

以降は、VOC2007形式でのデータセットを作って、これを学習させるまでの手順を書きます。

※以下、TensorFlow+KerasでSSDを独自データで使えるようにしてみた: EeePCの軌跡の記事と同じです。

まずは、独自データとなる画像を集めます。これは必須。

続いて、「AnnotationTool.exe」のリンクをクリックして、アノテーションツールをダウンロードします。

私がとりあえず作ったWindows上で動かすアノテーションデータ作成ソフトです。

使い方は以下を参照。

-----------------------------------------------------------------------

Annotation00

① まずアノテーションファイル(*.xmlと”trainval.txt”)を保存するフォルダ(作業フォルダ)を作りドラッグ&ドロップ

② アノテーションを作成したい画像ファイルをドラッグ&ドロップ

③ 画像ファイルが出てくるので、物体をマウスで囲みます

④ ”ラベル名”のテキストボックスに物体の名前を書きます(半角英数) 

⑤ ”ラベル作成”をクリックすると登録

同一画像内で認識させたい物体の数だけ③~⑤を繰り返します。

⑥ 一通り終わったら「Annotation追加」をクリック

次の画像ファイルを読み込むため、再び②で別の画像を読み込み、⑥までを繰り返します。

すべての画像ファイルのアノテーション登録が終わったら

⑦ ”終了”をクリック

-----------------------------------------------------------------------

これを実行すると、画像ファイル分の「~.xml」ファイルと、「trainval.txt」ができているはずです。

これを、以下のように「VOCdevkit/VOC2007」に反映。

・ 「Annotations」フォルダには作成されたxmlファイルを全部入れます

・ 「ImageSets/Main」にある「trainval.txt」に、上で作られた「trainval.txt」の中身を追記します。

・ 「JPEGImages」フォルダに、独自データの画像ファイルをすべて入れます

これで、データセットの準備は完了です。

独自データによる学習実行

いよいよ学習ですが、いくつか下準備が必要です。

まず、YOLO v3フォルダの直下に、上で作った「VOCdevkit」フォルダをそのまま置きます。

VOCdevkitの中の「VOC2007/ImageSets/Main」の中にある「trainval.txt」をコピーして、「train.txt」「val.txt」「test.txt」の3つのファイルを作っておきます。

続いて、「model_data」フォルダにある「yolo.h5」をコピーして「yolo_weights.h5」というファイル名に変えます。

また、「model_data」フォルダにある「voc_classes.txt」のラベル名を書き換えます。

この中にはaeroplane、bicycle、bird、boat・・・という20のラベル名が書かれているはずです。これを、上から順に独自データ用のラベル名に書き換えておきます。

voc_annotation.py」の6行目も同様に書き換えます。

ここまで出来たら、以下のコマンドを実行。

$ python voc_annotation.py

すると、YOLO v3フォルダに「2007_val.txt」「2007_train.txt」「2007_test.txt」が生成されます。このうち「2007_train.txt」のみを「train.txt」とファイル名を変更しておきます(後の2つは使いません。消してもOK)。

これで学習実行準備完了。

あとは、

$ python train.py

と実行するだけ。

Yolo301

こんな感じに、学習が実行されます。

---------------------------------------

さて、デフォルトでは50エポックほど実行されますが、学習途上で終わった(loss値がまだ減少しそう)ならば、「logs/000」フォルダ内にある学習済みデータ(~.h5)を「model_data」フォルダに移します。

最後まで実行していたら「trained_weights_stage_1.h5」というファイルがあるはず。途中でも「ep~-loss~-val_loss~.h5」というファイルができているので、これの一番新しいのを用いてもいいです。

学習済みファイルを移したら、「train.py」の中の33行目の「freeze_body=2, weights_path='model_data/yolo_weights.h5')」yolo_weights.h5の部分を書き換えます。

エポック数を増やす場合は、「train.py」の63行目にある「epochs=50,」の数字を変えます。

独自データによる学習済みデータを使った推論

いよいよ独自データの学習モデルで推論を実行します。

コマンドはクイックスタートと同じですが、「yolo.py」を以下のように書き換える必要があります。

22行目:「self.model_path = 'model_data/yolo.h5'」 ⇒ 「yolo.h5」のところを、新しい学習モデル(logs/000/~.h5)名に書き換え。

24行目:「self.classes_path = 'model_data/coco_classes.txt'」「coco_classes.txt」「voc_classes.txt」に変更。

あとは、クイックスタートと同じです。

静止画は

静止画を認識させたい場合は、YOLO v3のフォルダに検出させたい画像ファイルを入れておきます。

$ python yolo.py

とコマンド入力。動画は

動画を使いたい場合は、同様にYOLO v3のフォルダに動画を入れて、

$ python yolo_video.py (動画ファイル名)  [出力ファイル名]

と実行。

所感とまとめ

SSDに対抗意識を燃やして作っているだけあって、SSDよりもちょっと速くて検出数も多いです。

ただ、どっちの精度が高いかはよくわからないので、TensorFlow+KerasでSSDを独自データで使えるようにしてみた: EeePCの軌跡の記事を参考に、SSDと共に検討してみるのがよろしいかと思われますね。

幸い、どちらも同じデータセットが使えます。

それにしても、物体検出コードも随分と身近になりました。

物体検出手法を独自データで試してみたい方は、先のSSDの記事とこのYOLO v3を参考にお試しください。

ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装

2018年7月 4日 (水)

トマトを収穫するロボットが登場!AIはついに農業へと本格参入

東大の松尾豊先生がディープラーニングで可能なこととして掲げていた「トマトを収穫できるロボット」が、いつの間にか実用化してました。

AIで農業の人手不足解消へ トマトを自動で収穫するロボットが活躍 | 未来コトハジメ

トマトというのは、熟したものだけを選別して収穫しなければならないため、これまでは目に頼って人の力で収穫するしかありませんでした。

それを、まさにAIにより選別、収穫を行う仕組みを作ってしまったようです。

とある農園で働くこのロボット、ハウス栽培のこのトマト畑で、収穫作業を全自動で行っております。

ただ、収穫以外に手入れ作業とパッキング作業だけはまだ自動化できておらず、全作業16万時間の内4万時間弱が自動化できたにすぎません。

しかし、重労働の一つが機械化・自動化されたことで、農業に人を呼び込むきっかけになると考えているようです。

でも、とうとう松尾豊先生の提唱していた未来の一つが具現化してしまったんですね。

最近の講演内容が分かる資料:東大 松尾豊氏が語る「ディープラーニング×ものづくり」戦略【前編】 —ABEJA「SIX 2018」 | IoTニュース:IoT NEWS

そういえば、万引き防止システムも作られてましたね。

AIで万引き防止する時代に: EeePCの軌跡

この調子なら、同じく松尾豊先生が唱える、牛丼屋の全自動化も目前かもしれません。

完熟カットトマト紙パック 300g×6個

2018年6月30日 (土)

壁の向こうの人間の姿を棒人間化して表示!?MITが電波+ニューラルネットワークを使った透過技術”RF-Pose”を発表

普通にすごいです、この技術。

MIT、壁に隠れた人を“棒人間”として可視化--ニューラルネットで反射電波を解析 - CNET Japan

壁の向こう側にいる人の姿を、専用の送信機から出される電波が反射されるパターンからニューラルネットワークで解析してとらえる技術が、MITによって発表されてます。

この”RF-Pose”という技術。わりと正確に人の姿を”棒人間化”できてますね。

どうやったらこんなに正確な壁向こうの人の姿をとらえられるのか、気になるところ。しかしこれ、災害救助などで閉じ込められら人を救助するために使えそうです。いや、戦闘などにも使えちゃいますが。

AI技術を使った思わぬ活用事例ですね。ついでに、トラックの前の信号や車の様子がどうなっているのかを知る技術ができるといいですね。この技術の延長でできないでしょうか?

Iseebiz バックカメラ&モニターセット 170°広角 死角消し カメラ角度を180°調節可 暗視補佐ライト付 駐車支援 擦り傷防止 正像/鏡像逆転 日本語取説付き

2018年6月14日 (木)

医者よりも高い精度で皮膚がんを発見するAI

ディープラーニングによる画像認識技術は工場、医療での活用が増えているようです。これもその一つかと。

AI、ディープラーニングで医師より正確に皮膚がん発見 研究 写真1枚 国際ニュース:AFPBB News

ほくろが悪性黒色腫(メラノーマ)か良性ほくろかを見分けるAIをドイツ、米国、フランスの研究チームによって作られ、58人の皮膚科の医師と競ったそうです。

その結果、58人の医師の平均が86.6%だったのに対し、このほくろ専用AIは95%の精度で見分けたとか。

もっとも、見落としを減らすことには使えても、この先の治療は人がやる必要があるため、医師の職が危ぶまれるというより、むしろ正確な治療が施せるということで期待されているようです。

誤診というのはどうしても多いのが現状のようなので、このような仕組みで誤診を減らし、正しい医療を受けられる体制が進むといいんですけどね。

ニベアサン プロテクトウォーターミルクマイルドSPF50  PA    30ml

2018年6月10日 (日)

”名大祭”に行ってきました

この辺りで”めいだい”というと、”明治大学”ではなく”名古屋大学”のことを言います。

その名古屋大学の恒例の学園祭”名大祭”へ行ってまいりました。

Img_1239

名古屋大学って、象徴となる建物がないんですよね。強いて言うなら、この”豊田講堂”でしょうか?

Img_1242

受付でパンフレットをもらい、いざ学内へ。

それにしてもこの名大祭パンフ、いつの間にか凄くいい紙を使うようになりましたね。

20年前にいた頃の名大祭パンフといえば、手作り感満載の再生紙で白黒印刷というものでした。が、今やカラー印刷が当たり前なようです。

Img_1376

ところで、私が在籍していた頃の名大にはこんな大きな建物もなく、この20年のうちに次々に建てられたようです。

日本で3番目に広い大学だとかどうとかで、しかも名古屋市内のわりと一等地にあるため、日本で一番地価の高い大学などと言われてましたけど、今はどうなんでしょうか?

Img_1228

初めは、豊田講堂内にある研究室紹介をいくつか拝見。

これは「宇宙地球環境研究所」のポスター。太陽フレアの観測やら年代測定(炭素14の分析など)まで手掛ける研究所のポスターがありました。

小中学生にもわかるさまざまな冊子が置いてあったのですが、このサイトでダウンロードできます。

「50のなぜ?」を見てみよう 中高生向けページ | ISEE 宇宙地球環境研究所

漫画版の「...ってなんだ!?」シリーズは必見です。理科が好きな学生諸君であれば、興味をそそられること間違いなし、です。

ここには他に、人の動きをトレースする研究や、ディープラーニングによる田植えから収穫までのタイミングを予測するモデルを展示しているところもあって、なかなか今どきの研究も見られました。

Img_1245

さて、祭りのメインストリートは、豊田講堂から図書館にかけてのこの通り沿い。

たくさんの屋台が出てました。わりと客引きがしつこかったです。

Img_1247

で、長男が選んだのはこの”デブ・チュロス”。

写真を撮り忘れましたが、いうほど”デブ”ではなかったです。

Img_1255

他にも、フリマの会場もありました。

Img_1294

ところで、名大内にはあちこちにカフェがありますね。今回だけで3、4か所見つけました。これは、図書館にあるスタバ。

我々の時はこんなものなかったんですが・・・時代ですかねぇ。

Img_1288

なんだか一瞬、目がおかしくなるこのアートが書かれた建物は「全学教育棟」というところ。

我々の時代には「教養部」と呼ばれ、大学1、2年を過ごした場所でしたね。

Img_1265

この建物の中で「名大レゴ部」を発見。

東大レゴ部は有名ですが、名大にもあったんですね。

Img_1272

地元らしく、地元にちなんだ作品が並んでました。これは「熱田神宮」。織田信長が桶狭間の戦いの前に戦勝祈願をしたことで有名な神社ですね。

Img_1274

この奇妙な建物は、地元ではおなじみの「名古屋市役所」。どうしてこういうデザインなのか、私にもよくわかりません。お城に近いからですかね?

Img_1311

北部の方には、こんな建物があります。

2014年に、青色LEDでノーベル物理学賞を受賞された3氏のお1人、赤崎先生を記念する記念館です。

Img_1314

これは当時使用した電子顕微鏡?だそうです。こんな感じに、当時使われた研究機器類が展示されております。

Img_1321

今や高輝度LEDはあらゆる分野に使われております。ここがその原点といえる場所なんですね。

Img_1327

名大というところは、西側が発達しております。道を挟んで東側に行くと

Img_1331

急に人口密度が下がります。

Img_1328

おっと、こんなところに弊社製品が・・・

Img_1333

ところどころ、高い建物が並んでいるかと思えば

Img_1356

こんなうっそうとした林が残っているのも、東部の特徴。

Img_1339

中には、こんなけもの道のような場所まで・・・この先に、私の所属していた研究室があったんですけどね。

Img_1361

ついでに、ずっと東まで行ってきました。

東の果てこには、私にとってなじみ深い工学部6号館があります。

ですが、名大祭では特に何もしない建物だったため、中には入れず。残念。

Img_1362

20年ぶりに来ましたが、相変わらずですね、この建物。耐震補強のみ施されてました。

Img_1370

もう一人のノーベル賞受賞関連の施設も発見。これは2001年にノーベル化学賞を受賞された野依教授の記念館です。

Img_1379

こんな感じに、ぐるりと回って得られた戦利品は以上。

名大祭パンフに青色発光ダイオードのパンフ、レゴ教室のチラシと名大ストラップです。

卒業後も数度ほど訪れましたけど、端から端まで回ったのは実に20年ぶりのこと。

また時々、訪れたいですね。

名古屋大学(理系) (2017年版大学入試シリーズ)

2018年6月 4日 (月)

ナマコを守るAI!?

ナマコを最初に食べた人間はとても勇気があるといわれます。が、今やナマコは「高級食材」なんですよね。

資源保護のために、ナマコの禁漁期間というのが設けられているようですが、そういうのはお構いなしに密漁する輩というものはやはりいるようです。

そんな密猟者からナマコを守るため、AIが活躍しているようです。

密漁監視:ナマコを守れ AI監視システムも導入 青森

通常の漁船とは違う特徴を持つ船を学習させて、15台の監視カメラに漁船以外の船が写ったら通報するという仕組みのようです。

昨年の4月から稼働を開始しているようですが、初期は誤認識が多発。しかし最近は精度も向上しつつあるようです。

なかなかの仕組みですが、軍事オプションのないこの国では正直、効果があるかどうかはわかりません。小笠原のサンゴも、見るも無残に取りつくされてしまいましたしね・・・

FREDI 超小型隠しカメラ 1080P防犯監視カメラ 高画質ワイヤレス小型カメラ WiFi対応スパイカメラ 4分割画面 小型隠しビデオカメラ 長時間録画録音 暗視録画機能付き 日本語取扱 動体検知 iPhone/Android 遠隔監視・操作

2018年6月 3日 (日)

AIで万引き防止する時代に

万引きというのは、今でも結構あるようですね。そんな万引き防止に、AIが一役買っているようです。

人工知能が「万引きGメン」に 被害額は4割減 - ITmedia NEWS

「AIガードマン」という万引き検知システムをNTT東日本とアースアイズというベンチャー企業のペアが売り出すそうです。

これによって「不審者」とみなされた人をいきなりしょっ引くわけではないようです。まずは「声かけ」をして、確認をするそうです。

本当に万引きしようとたくらんでいた人ならば、ここでその野望をくじかれることになるわけです。犯罪を未然に防止するという意味では、なかなか有効な手段ですね。

先行導入した店舗では万引きを4割減らせたという話もあるようです。なんだか少ない気もしますけど、今後精度が上がってこれば、さらに効果を出せそうです。

先日もナマコの密漁対策にAIを使う話がありましたけど、防犯システムとしてのAIには期待がかかっているみたいですね。

ちなみにこのAIガードマンの初期投資は24万円ほど、クラウド利用に月額4千円、ストレージに月額500円(10GB)かかるそうです。

FREDI 超小型隠しカメラ 1080P防犯監視カメラ 高画質ワイヤレス小型カメラ WiFi対応スパイカメラ 4分割画面 小型隠しビデオカメラ 長時間録画録音 暗視録画機能付き 日本語取扱 動体検知 iPhone/Android 遠隔監視・操作

より以前の記事一覧

当ブログ内検索

  • カスタム検索

スポンサード リンク

ブログ村

無料ブログはココログ