科学・技術

2018年12月12日 (水)

排ガスを出さない飛行機が実現か!?イオン風で飛ぶ飛行機

MITが研究・開発中のイオン風を利用して飛ぶ飛行機が、初飛行に成功したそうです。

MIT開発の飛行機はがイオン風を利用して飛ぶ!温室効果ガスも騒音も出ない | Techable(テッカブル)

羽根の間に高電圧をかけて発生するイオン風を利用して飛ぶというこの飛行機、もし実用化すれば、電力だけで飛行可能なエコな航空機となる模様。

ですが、あまり重い航空機を作るのは無理そうですね。普通にプロペラを回した方が効率がよさそう。

無人機でも、無線LANや携帯基地局のようにずっと空に飛ばし続ける用途のものもあるので、太陽電池+電磁駆動のこの手の航空機の需要はありそうです。が、やはりプロペラの方が実用性は高いかも・・・

今後どうなるかよくわからない技術ですが、なかなか画期的な発想の飛行機コンセプトですね。EMドライブのように、いつの間にか消えてしまわないことを願いたいものです。

2ch セスナ型 ラジコン 33cm の ビッグサイズ パイパー J-3 カブ 電動 飛行機

2018年11月23日 (金)

スパイカメラを見つける画期的なガジェット”SpyFinder Pro”

スパイカメラを見つけ出すガジェット。そう聞くと、かなりハイテクなものをイメージしますが。

思ったよりローテクで見つけられるようです。

そんなスパイカメラ発見グッズが、Kickstarterにて資金募集中です。

スパイの人必見! 瞬時に隠しカメラを発見するLED検知器「SpyFinder Pro」 - bouncy / バウンシー

この”SpyFinder Pro”は、スパイカメラを発見するための専用ガジェット。小さめのモバイルバッテリーくらいの大きさのグッズです。

ごらんの通り、赤のLEDとのぞき穴だけの簡単な機構。穴にはどうやらフィルターが入って入るものの、LEDの光以外には発信していないようです。

それでカメラを発見できるというのはなかなかすごいですね。この赤いLEDの光がカメラのレンズに反射して、それをのぞき穴からとらえるという単純な仕掛け。ですが、それでカメラの位置を正確に特定できます。

もちろん、レンズ以外の反射もとらえてしまうでしょうが、反射するものがそうそうたくさんあるわけではないので、隠し撮りをするカメラを探し出せるというもの。

なかなかのアイデアですね。最近はこういう隠し撮り被害も多いようですから、活躍の場は多そうです。

お値段ですが、現在KickStarterで198ドル(約2.2万円)、送料は69ドルかかるようです。

SpyFinder® Pro Hidden Camera Detector - Spying Prevention by Spy Associates — Kickstarter

個人で買うのはちょっと割高な気もしますが、こういうものを探し出す職業や、警備の方なら活かせそうですね。

SPY/スパイ (吹替版)

2018年10月26日 (金)

無人決済のキオスクで万引きしてみたらどうなるか!?

物騒なタイトルですが、わりと真面目な実証試験店舗での話です。

さいたま市の大宮駅に、JR東の無人店舗があるそうです。

JR東の無人決済店舗で“万引き”してみた - ITmedia NEWS

天井に16台、棚には100台のカメラがあり、それらで買った商品とお客を認識し、電子マネーで決済するという仕組みです。

店の出入り口にはフラッパーゲートがあって、出るときにはSuicaで決済。特にその時商品をレジに通したりする必要がなく、そのまま出ることができるとのこと。ただし、残高不足の場合は一度商品を置いて外に出る必要があるとのこと。

で、この記事ではカメラの死角になるよう商品を取ってカバンに入れてみたらどうなるかという記事。が、やはり素人ではあっさりと入れた商品がカウントされてしまったようです。だめだったようですね。

並みの方法では無理なようです。ここを突破しようとするならば、新手の万引き手段が必要ですね。

もっとも、まだ実証段階。ですが海の向こうではこういう店舗はすでに実用化済みで、今後日本でもこの手の無人店舗は増えるであろうと思われます。

まあ、人件費が削減でき、万引き手段も封印できるので、悪いことではないんでしょうが・・・無人店舗というのは、どうも人間味に欠けて嫌な感じもしますね。

物流や品出しなど、無人化できない作業に対してはどうするかという課題は残るようですが、この先労働者が減る時代ですからね。こういう店舗の拡大も、時代の流れというやうでしょう。

週刊ダイヤモンド 2016年 10/29 号 [雑誌] (コンビニを科学する)

2018年10月 2日 (火)

セミの羽の抗菌作用の構造を解明

なんというか、よくこういうところに目が行きましたね、というお話。

セミの羽に抗菌作用を持つ特殊な構造 応用に期待 - ライブドアニュース

透明な羽をもつクマゼミやミンミンゼミのようなセミのあの羽には、抗菌作用があるそうです。

そんな事実にもびっくりですが、その抗菌作用を生み出す仕組みを、関西大学らのグループが発見したというのです。

羽の表面に直径5000分の1ミリ以下の極めて細かい突起が規則正しく並んでいるそうで、この構造を真似た微細な突起物の並んだフィルムを作り、表面に大腸菌を含んだ液体をかけたところ、確かに菌が死滅したそうです。

それこそ、抗菌作用を謳った製品というのはたくさんありますが、これほど単純な構造でそれが実現できるとなれば、いろいろな製品に応用が効きそうです。

キーボードやマウスにも適用できませんかね?これらは結構汚いといいますし、こういう仕組みできれいさを保てれば、PCの衛生環境も一変するかもしれませんね。

イータック 抗菌化スプレーα 250ml

2018年8月 6日 (月)

予告編から客入りを予測するAIが登場!?

映画に行くと、これでもかというくらい予告編が流されます。でも、それを見て観に行ったりDVDを買ってしまった映画ってわりとたくさんあります。予告編だからと言って、馬鹿にできませんね。

そんな予告編を最近のAI技術でもって分析し、客入りの予測につなげようという技術ができたようです。

予告編から「客入り」を予測 人工知能が映画製作の助けに? | Forbes JAPAN(フォーブス ジャパン)

人工知能に数百篇の68万フレーム以上の予告編を学習させたあたりで、この人工知能は人の顔や事物などの要素を区別し始めたそうで、最終的に映画ごとの類似性、相違点を認識するようになったそうです。

で、その基準に基づいて50本の映画についての観客の動向を調査したところ、ある映画を見た観客が他の映画を見に行ったかどうかを70%もの確率で予測できたとのことです。

まあ、ランダム予測では50%でしょうから、それよりは20%マシというレベルかもしれませんが、映画の思わぬ相関性なども見つかって、それはそれで興味深い結果を招いているようです。

人の分析だけでは、どうしても限られた主観に基づいてしまうことが多いため、似たような映画を量産する状況に陥るようです。が、昨今のビックデータ解析によって、多くの人が望む、より多様なコンテンツを生み出すきっかけになる可能性が期待されているようです。これは映画に限らず、いろいろな業界で言われてますね。

新たな需要やアイデアを掘り起こすことになるかどうか、ただし、いくらAIの技術だからと言って、最後にそれを解釈し生み出すのは人間のお仕事。この分析能力をうまく活かしきれますかね。個人的には、期待しております。

【Amazon.co.jp限定】デッドプール2 ブルーレイ版スチールブック仕様 [Blu-ray]

2018年8月 4日 (土)

「東京の夏が昔より暑い」ことを実感できる可視化マップ

私が子供だった頃は、30度を超えると暑いと言われていた記憶。それじゃ今では、35度超えでようやく「暑い」ですからね。周囲も31度で「涼しい」といってる、実におかしな状況が続いています。

さて、そんな温暖化を実感できる画像が、以下のサイトで確認できます。

東京の夏が「昔より断然暑い」決定的な裏づけ | 天気・天候 | 東洋経済オンライン | 経済ニュースの新基準

Temperature142

東京の142年間の6月~9月の日別平均気温をマッピング化したものです。

青、黄緑、緑、黄色、赤の順に2度ごとにマッピング。青は18度以下、濃い赤は31度以上です。つまり、赤が目立つほど日の平均気温は26~30度以上に張り付いているということを表しています。

年によって多少変動はありますが、下に行くにつれて徐々に赤色が増えていることが分かります。

最近では、2010年、2016年8月が猛暑だったようですが、これを見ると2012、3年あたりが暑く見えますね。

今年は7月から暑くて大変なことになってますけど、この8月はどうなんでしょうか?

暑さはまだまだ続きます。熱中症にはご用心を。

HyperKewl(ハイパークール) 米国陸軍正式採用の冷却服技術 Sportsクールベスト(BK)ブラック XXL [正規輸入品] 6529-BK-XXL

2018年8月 3日 (金)

Googleがカメラの前のポーズと同じ姿勢の画像を検索するサービスを開始

まさにAIを使った技術ですね。

【やじうまPC Watch】カメラの前でポーズをとると、Googleが同じ格好の写真を探してくれるサービス - PC Watch

Googleが、カメラの前で取ったポーズと似た姿勢の画像を検索してくれるというサービスを開始しました。

Googleが開発した姿勢判断モデル「PoseNet」をWebブラウザ上でTensorFlow.jsを使って、人体を肩、足首などの17のパーツで区分して判断するようです。

画像そのものは送信せず、あくまでもローカルマシン内で処理して姿勢情報のみを送信して検索にかける仕組みのようです。このため、ローカルマシンに高性能なGPUが搭載されていると処理が速くなるようです。

それにしても、AI技術でどんどん便利になりますねぇ。

由々しきことは、こういうものが日本から出てこない事でしょうか?最近、そう思います。

初めてのTensorFlow 数式なしのディープラーニング

2018年7月 6日 (金)

最新の物体検出YOLO v3 (Keras2.2.0+TensorFlow 1.8.0)を独自データで学習できるようにしてみた

物体検出コードといえば、Faster-RCNN、SSD、そしてYOLOが有名ですが、そのYOLOの最新版である”YOLO v3”のKeras+TensorFlow版を使って、独自データにて学習できるところまで持っていきましたので、ここに手順を書きます。

まず、YOLO v3の威力をご覧ください。

YOLO: Real-Time Object Detection

最近出たアルゴリズムなので、SSDよりも高速&正確であるというのが謳い文句です。ごらんのとおり、物体検出数も精度のなかなかです。

制度と速度を他の物体検出コードと比較したグラフです。わざとグラフの横軸からはみ出すように作ってますが・・・実際動かしてみると、確かに以前試したTensorFlow+Keras版SSDよりも速く動作します。

基本的には、READMEを読めば分かるように作られている・・・はずですが、クイックスタートでさえちょっとてこずりました。ましてや深層学習して学習モデル適用は、READMEだけではわかりません。

このAI民主化時代(誰でもAIを使える時代)に、これではいただけません。

ということで、以下、Windows版Anaconda 3(我が家はVer.4.4.0)にTensorFlow 1.8.0+Keras 2.2.0をインストールして、クイックスタートから独自データによる学習、および推論コード実行まで実施いたしましたので、紹介します。

準備 & クイックスタート

最初に、準備がてら動かしてみましょう。

※ Windows版Anaconda 3のインストール方法、TensorFlow 1.8.0+Keras 2.2.0のインストールについては省略します。以下のサイトなどを参考に、あらかじめ導入をお願いします。

Windows10にKeras(+TensorFlow)をインストールしてAnaconda+Jupyterで動かしてみる

まず、”YOLO v3”のコードを、以下から入手します。

https://github.com/qqwweee/keras-yolo3

Windowsの場合は「Clone or Download」を押して「Download ZIP」をクリックしてダウンロード。ファイルを解凍します。

学習済みデータを入手します。YOLO: Real-Time Object Detectionのページの中ほど、「Detection Using A Pre-Trained Model」のところに”here (237 MB)”というのがあるので、これをクリックします。

すると、”yolov3.weights”というファイルが得られます。これを、先ほど解凍したフォルダに入れます。

ここでAnaconda 3のプロンプトを開き、TensorFlow実行環境に変えて(activate tensorenv 等)、上の解凍フォルダに入ります。

まず、入手した学習済みデータをKeras用に変換します。以下のコマンドを入力します。

$ python convert.py yolov3.cfg yolov3.weights model_data/yolo.h5

これで、Keras用の学習済みデータが「model_data」フォルダに入ります(yolo.h5)。

ここで、とりあえず動かしてみます。

静止画を認識させたい場合は、YOLO v3のフォルダに検出させたい画像ファイルを入れておきます。

$ python yolo.py

と入力。

「Input image filename:」と出てくるので、あらかじめYOLO v3の入ったフォルダに入れた画像ファイルのファイル名をコロンの後ろに入力します。

Yolo300

こんな画像が出れば、成功です。

動画を使いたい場合は、同様にYOLO v3のフォルダに動画を入れて、

$ python yolo_video.py (動画ファイル名)  [出力ファイル名]

と実行します。動かすだけなら、出力ファイル名のところは何も入れなくても動作します。

独自データでの準備

以降は、VOC2007形式でのデータセットを作って、これを学習させるまでの手順を書きます。

※以下、TensorFlow+KerasでSSDを独自データで使えるようにしてみた: EeePCの軌跡の記事と同じです。

まずは、独自データとなる画像を集めます。これは必須。

続いて、「AnnotationTool.exe」のリンクをクリックして、アノテーションツールをダウンロードします。

私がとりあえず作ったWindows上で動かすアノテーションデータ作成ソフトです。

使い方は以下を参照。

-----------------------------------------------------------------------

Annotation00

① まずアノテーションファイル(*.xmlと”trainval.txt”)を保存するフォルダ(作業フォルダ)を作りドラッグ&ドロップ

② アノテーションを作成したい画像ファイルをドラッグ&ドロップ

③ 画像ファイルが出てくるので、物体をマウスで囲みます

④ ”ラベル名”のテキストボックスに物体の名前を書きます(半角英数) 

⑤ ”ラベル作成”をクリックすると登録

同一画像内で認識させたい物体の数だけ③~⑤を繰り返します。

⑥ 一通り終わったら「Annotation追加」をクリック

次の画像ファイルを読み込むため、再び②で別の画像を読み込み、⑥までを繰り返します。

すべての画像ファイルのアノテーション登録が終わったら

⑦ ”終了”をクリック

-----------------------------------------------------------------------

これを実行すると、画像ファイル分の「~.xml」ファイルと、「trainval.txt」ができているはずです。

これを、以下のように「VOCdevkit/VOC2007」に反映。

・ 「Annotations」フォルダには作成されたxmlファイルを全部入れます

・ 「ImageSets/Main」にある「trainval.txt」に、上で作られた「trainval.txt」の中身を追記します。

・ 「JPEGImages」フォルダに、独自データの画像ファイルをすべて入れます

これで、データセットの準備は完了です。

独自データによる学習実行

いよいよ学習ですが、いくつか下準備が必要です。

まず、YOLO v3フォルダの直下に、上で作った「VOCdevkit」フォルダをそのまま置きます。

VOCdevkitの中の「VOC2007/ImageSets/Main」の中にある「trainval.txt」をコピーして、「train.txt」「val.txt」「test.txt」の3つのファイルを作っておきます。

続いて、「model_data」フォルダにある「yolo.h5」をコピーして「yolo_weights.h5」というファイル名に変えます。

また、「model_data」フォルダにある「voc_classes.txt」のラベル名を書き換えます。

この中にはaeroplane、bicycle、bird、boat・・・という20のラベル名が書かれているはずです。これを、上から順に独自データ用のラベル名に書き換えておきます。

voc_annotation.py」の6行目も同様に書き換えます。

ここまで出来たら、以下のコマンドを実行。

$ python voc_annotation.py

すると、YOLO v3フォルダに「2007_val.txt」「2007_train.txt」「2007_test.txt」が生成されます。このうち「2007_train.txt」のみを「train.txt」とファイル名を変更しておきます(後の2つは使いません。消してもOK)。

これで学習実行準備完了。

あとは、

$ python train.py

と実行するだけ。

Yolo301

こんな感じに、学習が実行されます。

---------------------------------------

さて、デフォルトでは50エポックほど実行されますが、学習途上で終わった(loss値がまだ減少しそう)ならば、「logs/000」フォルダ内にある学習済みデータ(~.h5)を「model_data」フォルダに移します。

最後まで実行していたら「trained_weights_stage_1.h5」というファイルがあるはず。途中でも「ep~-loss~-val_loss~.h5」というファイルができているので、これの一番新しいのを用いてもいいです。

学習済みファイルを移したら、「train.py」の中の33行目の「freeze_body=2, weights_path='model_data/yolo_weights.h5')」yolo_weights.h5の部分を書き換えます。

エポック数を増やす場合は、「train.py」の63行目にある「epochs=50,」の数字を変えます。

独自データによる学習済みデータを使った推論

いよいよ独自データの学習モデルで推論を実行します。

コマンドはクイックスタートと同じですが、「yolo.py」を以下のように書き換える必要があります。

22行目:「self.model_path = 'model_data/yolo.h5'」 ⇒ 「yolo.h5」のところを、新しい学習モデル(logs/000/~.h5)名に書き換え。

24行目:「self.classes_path = 'model_data/coco_classes.txt'」「coco_classes.txt」「voc_classes.txt」に変更。

あとは、クイックスタートと同じです。

静止画は

静止画を認識させたい場合は、YOLO v3のフォルダに検出させたい画像ファイルを入れておきます。

$ python yolo.py

とコマンド入力。動画は

動画を使いたい場合は、同様にYOLO v3のフォルダに動画を入れて、

$ python yolo_video.py (動画ファイル名)  [出力ファイル名]

と実行。

所感とまとめ

SSDに対抗意識を燃やして作っているだけあって、SSDよりもちょっと速くて検出数も多いです。

ただ、どっちの精度が高いかはよくわからないので、TensorFlow+KerasでSSDを独自データで使えるようにしてみた: EeePCの軌跡の記事を参考に、SSDと共に検討してみるのがよろしいかと思われますね。

幸い、どちらも同じデータセットが使えます。

それにしても、物体検出コードも随分と身近になりました。

物体検出手法を独自データで試してみたい方は、先のSSDの記事とこのYOLO v3を参考にお試しください。

ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装

2018年7月 4日 (水)

トマトを収穫するロボットが登場!AIはついに農業へと本格参入

東大の松尾豊先生がディープラーニングで可能なこととして掲げていた「トマトを収穫できるロボット」が、いつの間にか実用化してました。

AIで農業の人手不足解消へ トマトを自動で収穫するロボットが活躍 | 未来コトハジメ

トマトというのは、熟したものだけを選別して収穫しなければならないため、これまでは目に頼って人の力で収穫するしかありませんでした。

それを、まさにAIにより選別、収穫を行う仕組みを作ってしまったようです。

とある農園で働くこのロボット、ハウス栽培のこのトマト畑で、収穫作業を全自動で行っております。

ただ、収穫以外に手入れ作業とパッキング作業だけはまだ自動化できておらず、全作業16万時間の内4万時間弱が自動化できたにすぎません。

しかし、重労働の一つが機械化・自動化されたことで、農業に人を呼び込むきっかけになると考えているようです。

でも、とうとう松尾豊先生の提唱していた未来の一つが具現化してしまったんですね。

最近の講演内容が分かる資料:東大 松尾豊氏が語る「ディープラーニング×ものづくり」戦略【前編】 —ABEJA「SIX 2018」 | IoTニュース:IoT NEWS

そういえば、万引き防止システムも作られてましたね。

AIで万引き防止する時代に: EeePCの軌跡

この調子なら、同じく松尾豊先生が唱える、牛丼屋の全自動化も目前かもしれません。

完熟カットトマト紙パック 300g×6個

2018年6月30日 (土)

壁の向こうの人間の姿を棒人間化して表示!?MITが電波+ニューラルネットワークを使った透過技術”RF-Pose”を発表

普通にすごいです、この技術。

MIT、壁に隠れた人を“棒人間”として可視化--ニューラルネットで反射電波を解析 - CNET Japan

壁の向こう側にいる人の姿を、専用の送信機から出される電波が反射されるパターンからニューラルネットワークで解析してとらえる技術が、MITによって発表されてます。

この”RF-Pose”という技術。わりと正確に人の姿を”棒人間化”できてますね。

どうやったらこんなに正確な壁向こうの人の姿をとらえられるのか、気になるところ。しかしこれ、災害救助などで閉じ込められら人を救助するために使えそうです。いや、戦闘などにも使えちゃいますが。

AI技術を使った思わぬ活用事例ですね。ついでに、トラックの前の信号や車の様子がどうなっているのかを知る技術ができるといいですね。この技術の延長でできないでしょうか?

Iseebiz バックカメラ&モニターセット 170°広角 死角消し カメラ角度を180°調節可 暗視補佐ライト付 駐車支援 擦り傷防止 正像/鏡像逆転 日本語取説付き

より以前の記事一覧

当ブログ内検索

  • カスタム検索

スポンサード リンク

ブログ村

無料ブログはココログ