« 2022年7月 | トップページ | 2022年9月 »

2022年8月26日 (金)

高精度な画像生成AI「Stable Diffusion」を自分のPCで動かす方法(+ google colab)

実は我が家では動かなかったのですが、その理由は後述。動作可能にするところまではいけました。

先日、Midjournyというお絵描きAIを試してみた: EeePCの軌跡という記事を書きましたが、Midjournyをも超える文章からの画像生成AIが正式リリースされたとのことで、ネット界隈が騒然としております。

それが「Stable Diffusion」というやつなのですが、特徴としては、

・オープンソースで、自分のPC上でも利用可能(つまり無料で使うことができる)

・生成画像の商用利用も可能

とのことで、お手軽具合は確かにMidjourny以上です。

こいつを自分のPC上で使えたら本当に自由自在です。

しかも、かなりいい出来の画像を返すとのことで、期待が高まります。

下記のサイトを参考に、構築してみました。

[Stable Diffusion] AIでテキストから画像を生成する[Python] - TeDokology

このサイトでは、Google Colaboratoryでの利用を前提に書いてますが、ここのコードをPC上でも使うためのやり方を残しておきます。

うちでは、Windows版python 3.7.9をインストール済み、という前提です。

で、まずHuggingFaceのアカウントを作ります。

Hugging Face – The AI community building the future.

このサイトでまず、アカウントを作ってください。

で、アカウント作成後にログインし、以下のページにアクセス。

CompVis/stable-diffusion-v1-4 · Hugging Face

するとここで、以下のような文章が出てきます。

Stablediffushion01

一番下にあるチェックを入れて、Access repositoryをクリックします。

で、その後に、右上にある丸いアイコンをクリックすると、以下のようなメニューが出てきます。

Stablediffushion01a

その中の「Settings」をクリックし、現れるメニューの中から「Access Tokens」をクリック。

Stablediffushion01b

すると黒丸の文字列が出てくるので、横の「Show」をクリックして文字列を表示し、テキストファイルにでも貼り付けておきます。

このトークンは、後ほど使います。

さて、続いてWindows PowerShellを開き、そこで、

pip install diffusers==0.2.4 transformers scipy ftfy

を実行します。必要なライブラリがインストールされるので、以下のコードをコピペで持っていきます。


#%cd /content
#!pip install diffusers==0.2.4 transformers scipy ftfy

from diffusers import StableDiffusionPipeline
import matplotlib.pyplot as plt

access_tokens="HuggingFaceで作ったAccessTokenをここに入れます" # @param {type:"string"}
     
# load pretrain model
model = StableDiffusionPipeline.from_pretrained("CompVis/stable-diffusion-v1-4", use_auth_token=access_tokens)
model.to("cuda")

prompt = "A silver-haired girl standing in front of a giant Gundam-style robot" #@param {type:"string"}
     
num = 5
     
for i in range(num):
    # モデルにpromptを入力し画像生成
    image = model(prompt)["sample"][0]
    # 保存
    image.save(f"test_{i:04}.png")
     
for i in range(num):
    plt.imshow(plt.imread(f"test_{i:04}.png"))
    plt.axis('off')
    plt.show()

これを「stable_diff.py」という名前でも付けて保存。

なお、このコード内の「access_tokens=」の後ろは、先ほどゲットしたAccess Tokensの文字列を入れておいてください。

さて、ちょっと厄介なのですが、Windows上ではこのままでは動きません。

多分、普通に

> python stable_diff.py

エラーが出てくるはずです。

で、いろいろ調べた結果、管理者権限で起動したWindows PowerShellを使わないとダメらしいです。

Stablediffushion02

はい、Windows PowerShellのアイコンを右クリックして「管理者として実行」を選んで起動します。

その後に「 python stable_diff.py」とやれば、動くはずです。

Stablediffushion03

モデルのダウンロードが開始されて、いよいよ動き出します。

が、我が家ではこの後、動かなくなりました。

Stablediffushion04

こんなエラーを出して、終了。

簡単にいうと、

GPUのメモリーが足らんのじゃボケェ!

と言われました。

はい、我が家のGTX1650Tiは4GB。で、どうやら10GB以上のメモリーを搭載したGPUじゃないとダメっぽいです。

これでは、取りつく島もありません。

一応、少ないGPUメモリーのマシンで動かす方法もないわけでもないですが、

話題のStable Diffusionがオープンソース化されたのでローカルで動かしてみる

(この中のコメントでfloat16でも動かす方法というのを見る)

めんどくさそうなので、とりあえず私はさっさと諦めてGoogle Colaboratoryに行きました。

Stablediffushion05

なお、こっちで動かすためには、先のコードの先頭2行の「#」を消しておいてください。

かつ、Google Colaboratoryの中の「ランタイムのタイプを変更」‐「ハードウェアアクセラレーター」をNoneからGPUに変えておいてください。

ちなみに、上のコードをそのまま実行すると「ガンダム風巨大ロボットの前に立つ銀髪の女の子」の画像が作成されようとします。

他の画像がご所望の方は、「prompt=」の後ろの英文を変えてください(英語で)。

上のコードを実行すると、一気に5枚まで作ってくれます。Google Colaboratoryなら大体1、2分で完了しました。

で、できた画像はこんなの。

Test_0003

うん、確かに「ガンダム風巨大ロボットの前に立つ銀髪の女の子」です。

何度かやりましたが、たまに作画崩壊気味の画像も出てきました。

が、結構はっきりとした画像が生成されることが多くて、なかなかいい感じです。

他にも、

「銀河英雄伝説の戦艦」

Index3

「中世風の街に立つ娘」

Index5

(いずれも、Google翻訳で日本語 → 英語に変えてからコードに入れてます)

Midjournyと比べると、かなりくっきりとした画像が得られるというのが個人的な印象。

確かに精度もMidjourny以上だと言われると、その通りですね。

なかなか遊べます。ほんと、AIの進化ってやつには驚くばかりです。

※追記

アップ直前になって、少ないGPUメモリーのPCでも動かせるコードができたので、参考までに載せておきます。

公式のサイトの以下の記事

CompVis/stable-diffusion-v1-4 · Hugging Face

をよく読んでいたら、GPUメモリーが少ないPC向けのfp16版のコードができたので、それを残しておきます。


from diffusers import StableDiffusionPipeline, LMSDiscreteScheduler
import torch
from torch import autocast

access_tokens="HuggingFaceで作ったAccessTokenをここに入れます" # @param {type:"string"}

model_id = "CompVis/stable-diffusion-v1-4"
# Use the K-LMS scheduler here instead
scheduler = LMSDiscreteScheduler(beta_start=0.00085, beta_end=0.012, beta_schedule="scaled_linear", num_train_timesteps=1000)
pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16, revision="fp16", use_auth_token=access_tokens)
pipe = pipe.to("cuda")

prompt = "A silver-haired girl standing in front of a giant Gundam-style robot"
with autocast("cuda"):
    image = pipe(prompt, guidance_scale=7.5)["sample"][0]  
   
image.save("test.png")

これを「stable_diff_l.py」という名前で保存し、

> python stable_diff_l.py

と実行すると、10GB以下のGPUメモリーのPCでも実行できるかも、とのことです。

ただし、動作は未確認。我が家の4GBじゃどのみちダメでした・・・


Midjourney 入力テキスト&出力画像コレクション 1: イメージ通りの画像を生成するためのヒントを得よう! Midjourney 入力・出力コレクション

2022年8月23日 (火)

イオンモバイルで5G回線に変更する方法

iPhone 12を買ってかなり経ちますが、未だに4Gのまま使っておりました。

特にそれで不便を感じてはいなかったのですが、せっかく5G対応なのに、5G回線が使えないままというのはもったいない気がしておりました。

が、意外と簡単に4G → 5Gへの切り替えができることが発覚。

ということで、タイトルにある通り「イオンモバイルでの5G回線への切り替え方」を残しておきます。

やり方ですが、まずイオンモバイルのマイページにログインします。

(ログインIDやパスワードは、契約時の紙に書いてあります)

マイページログイン

ログインしたら、以下のようにSIMの利用状況が出てくるはずです。

Img_e2262

で、下に「5G通信」という項目があり、その横に「変更」というボタンがあります。

これをクリック/タッチします。

Img_e2261

なんかごちゃごちゃと聞かれますが、下の「5GをONにする」を選択。

Img_e2260

5G通信のところの表示がONに変わっていれば、成功です。

ところで、5Gのエリアって予想以上に広がってますね。

サービスエリアマップ | 通信・エリア | NTTドコモ 

ただ、5Gでも「Sub6(サブシックス)」と呼ばれる帯域が使える場所でなければ、4Gと変わらない速度でしかつながりません。

このため、私自身はまだ、5Gの威力を体感してませんね。

なお、職場と自宅がSub6どころか5Gエリア外。その一方で、近所のららぽーとの中にはミリ波のスポットがあることも判明。

ですが、残念なことにiPhone12、13ではこの爆速スポットを活かすことができないみたいですね。

もっとも、5GのSub6対応というだけでも、理論上3倍近い速度向上(最大3.7Gbps)が見込めます。

さらに妻が持っているiPhone 13なら、Sub6 CA(キャリアアグリゲーション)というさらに早い仕組みにも対応。理論上ですが、このCAってやつだと最大4.2Gbpsだとか。

表示が5Gと出るだけでもうれしいですね。なんだか得した気分。

てっきり、店舗に行って交換してもらわないと買えられないと思っていたんですが、想像以上に手軽に変更できました。

対応機種をお持ちの方は、ご参考まで。


2022 Apple iPhone SE (64 GB) - スターライト(第3世代)SIMフリー 5G対応

2022年8月18日 (木)

東京へ行ってきました

ベタなタイトルですが、そのまんまなので。

今年、会社内の永年勤続旅行の当たり年となりましたが、会社が企画するツアー参加か、自分で企画した旅行へ行くかの二択でして、私はその後者を選んで東京界隈を旅行することにしました。

いつもならば海外旅行なのですが、コロナ禍のこのご時勢では会社企画のツアーも国内旅行のみ。だったら、自分が行きたいところに行ったほうがいいよね。そういう理由です。

Img_2245

で、大阪出張以来の新幹線。東京方面は実に3年ぶり。

Img_2009

本来なら海外旅行も可能なほどの予算なので、それを2泊3日の東京旅行で使おうというわけですから(使いきれませんでしたが)、一つ一つの要素がいちいち豪華です。

まず、乗った車両がグリーン車。

Img_2008

さすがグリーン車、フットレストがついてます。

Img_2011

座席裏に貼りついた通常のテーブルに加えて、肘掛内にも小型のテーブルが入ってます。

なお、座席のリクライニングは、その前にあるスライドスイッチによる電動。

Img_2013

電光掲示板も2段で、今どの駅区間を走っているかまで表示されてます。

さすがグリーン車!と思いきや、帰りはごく普通の表示だったので、どうやらこれは新型車両だったからみたいです。

Img_2010

なお、フットレスト内にコンセントがついてます。座席一つに一つづつ。これはグリーン車特権ですね。ビジネスマンにはたまらないアイテムです。

Dsc_4156

で、最初に向かったのはこの「夢の国」。

これは、東京なのか!?と言うツッコミは置いておき、子供が同伴だった(ただし子供分の料金は自腹ですが)ので、まずはここに向かいました。まあ一応「東京」ディズニーランドと言いますし。

といっても、今さらこのテーマパークのことをうだうだ書いても仕方がないので、トピックス的な部分のみ。

Img_e2079

公式アプリを入れて使いました。これがなかなか活躍しました。

この画像は、その日の夜のホテル内でキャプチャーしたためこんな画面ですが、使用時には施設一つ一つに待ち時間が表示されてました。

どこを回るかの目安にはなります。

ただ、コロナ禍のおかげか、それほど混んでいるという印象はなかったですね。長いところでも40~50分程度。以前なら2時間待ちが当たり前という印象でしたが、そんな長時間の待ちはできたばかりの「美女と野獣」のアトラクション以外はなかったですね。

Dsc_4130

なお、中でまともに食べたのはこれだけ。高いからというより、あまり食欲をそそるものに出会わず。

この日(8月15日)はめちゃくちゃ暑かったので、飲み物ばかり飲んでました。気づけば結構、日焼けしましたし。

おかげさまで、顔の上下で2色になりました(マスクのせいです)。Apple Watch焼けもかなりひどいです。

Dsc_4200

以前なら決まった時間にパレードやってましたけど、コロナ禍のせいか今はやらないみたいですね。

代わりに、こんな具合にキャラクターがしょっちゅう出入りしてました。個人的には、この方がいいかもしれません。

とまあ、こんな具合に半日ほど夢の国を堪能した後、宿泊場所へと向かいます。

Img_2099

今回、初めてオフィシャルホテルってやつを使いました。向かったのはグランドニッコー東京ベイ舞浜。

Img_2102

こういうガチなバスが出入りするホテル。そういうところです。

Img_2043

出入口こそ地味な印象(?)ですが、

Img_2048

中はとてつもなく広い。

Img_2052

で、3階から上はこんな具合の巨大な吹き抜け。4階~12階の壁際に部屋が並んでおり、3階にいろいろな施設が集中しているという、そういうホテル。

Img_2060

いろんなものとは、フロント、レストラン、売店、そしてチャペルまであります。

Img_2071

暗くなると、いやらしいほどきらびやかになります。にしてもでかいですね、この吹き抜け。

Nms_4210

なお、部屋はこんな具合。通常なら4つのベッドを並べられるほどの幅に3つ。真ん中には大きめの丸ソファー。映ってませんが、その正面には50インチサイズのテレビもあります。

Img_2065

が、何よりもここは眺めがいい。

泊った部屋はディズニーランドとは反対側の海側。真ん中に見える丸いのは、東京ディズニーランドの隣にある葛西臨海公園の観覧車。

で、その右にあるうっすらと細長い線のようなものは、スカイツリーです。

Nms_4212

拡大するとこう。

Dsc_4220

夜になると、こうなります。

初日は天気が良かったので、遠くまでよく見えましたね。

なお3日目に、このスカイツリーへと向かうことになります。

Img_2119

で、その翌日。「夢の国」に続いて訪れたのは、打って変わって現実的な街です。

はい、秋葉原ですね。

妻と子供が行きたがっていたので、連れてきました。

Img_2125

こんな具合に、物欲刺激のジェットリームアタックを食らいます(まんだらけ、ハードオフ、駿河屋)。

Img_2129

そしていつものようにイオシスにも寄ります。

ただ、この日はあまり触手を伸ばしたくなる物品が見当たらず。

考えたらこの店、大須にもあるのでわざわざここでなければ……というものがあまりないんですよね。

Img_2124

秋葉原ならでわといえば、やっぱりここでしょうね。

千石電商、秋月電子通商です。電気街というだけあって、この2店舗は外せません。

Img_2132

無論、ここもいきましたよ。秋葉原ならでわのレトロPC店「BEEP」。

Img_2133

妻には「いかがわしい店」かと思われたんですが、

Img_2134

実際、いかがわしい店ですね。

なんとこの時はX1 turboZが売ってました。その隣には、FM-77AVが。なんといかがわしい。そして、懐かしい。

Img_2159

そんないかがわしいエリアを抜けて、次に向かったのはここ。

「帝国ホテル」です。

Img_2162_20220818100401

Youは何しに帝国ホテルへ!?

残念ながら、宿泊ではありません。ここの夕食バイキングを堪能してまいりました。

Img_2167_20220818100501

ちなみに、今度1万円札になるお方も絡んでいるという、由緒正しきホテル。

Img_2175

そんなホテルの最上階、17階へと向かいます。

Img_2177_20220818100601

そこにあるブフェレストラン「インペリアルバイキング サール」というところに行きます。

ここ、いわゆるバイキング発祥の店だそうで、好きなものを好きなだけ食べる、そういう贅が味わえる場所。

なお、お値段はそれなりです。平日ですが、大人1.2万円/人ほど。なお、アルコール類は別料金。

Img_2188

私もいろいろなところでホテル料理を食べてきましたが……ここ、最高じゃねえ?

素人でも分かるほどの味でした。さすがは帝国ホテル、格が違います。

Img_2181

なお、窓の外の風景はこんな具合。手前が日比谷公園で、奥には皇居が見えます。

Img_2198

そんな帝国ホテルを後にして、向かったのは新日本橋駅のすぐそばにある「ゲートステイプレミアム日本橋」というホテル。

ビル街の裏道にあるこのホテル、一見すると地味なところですが(そればっかりやん)、

Img_2199

中も地味でした。

いや、機能美と言った方が適切か。

Img_2200

ベッドが2つに、和室に最大4つまで布団が並べられます。最大6人が泊まれる部屋。

Dsc_4233

なお、キッチンに洗濯機まであります。長期間滞在にも対応した、なかなかのホテルでした。

Dsc_4234

そういえばこの2日間、例の65Wの充電器は大活躍です。

最近のホテルには、コンセント横にUSB-A端子がついたところが多いですが、PD対応のUSB-Cではないため、こいつは手放せません。

モバイルバッテリーもよく使いましたね。購入依頼2年余り経ちましたが、初めて大活躍です。

Dsc_4256

その翌日、向かった先は浅草寺。

場所が「あさくさ」なので「あさくさでら」と読んでしまいそうですが、「せんそうじ」と読むんですよね、ここ。要注意です。

名古屋的には「鶴舞駅(つるまいえき)」にある「鶴舞公園(つるまこうえん)」みたいなものでしょうか?(いや違う)

Dsc_4294

写真ではよく見るんですけど、やはり実物の出すこの雰囲気は違いますね。

このバカでかい草履に、個人的には感動してました。

Dsc_4314

で、次に向かったのは「スカイツリー」。

634メートルのこの電波塔の中ほど、350メートル地点に向かいます。

Dsc_4325

中ほどといっても、結構な高さです。

写真では感じられませんが、風景は圧倒的でした。

この日、朝から雨がぱらついてたんですが、ちょうどスカイツリーにいた時は晴れてました。

Dsc_4326

御覧の通りディズニーランドも見えます。向こうからこっちが見えていたので、当然こちらから向こう側も見えます。

ただし、場所の把握には隣の葛西臨海公園の観覧車が役に立ちました。この目立ちっぷりを前に、あの夢の国のシンデレラ城は無力です。

Dsc_4389

340メートル地点にあるガラス床にも立ちました。

はい、めちゃくちゃおっかないです。ほんと、吸い込まれそう。妻は立ちたがらず。しり込みする人も多数でした。

この感覚、写真で伝えられないのが残念ですね。

Img_2224_20220818102401

せっかくなので、パノラマ撮影もしてみました。

Img_2220_20220818102501

なんか塔ばかりが目立つスカイツリーですが、下にはこんな施設も。

なかなかの商業施設でしたね。実際に行ってみるまでは知りませんでした。

Img_2245_20220818102501

で、それから東京駅内で食事、おみやげ購入を済ませた後に、新幹線で帰還。もちろん、グリーン車でした。

ただし旧型車両だったおかげで、座席以外はなんか普通。まあ、そういうものです。

Img_2252

ところで、行きも帰りも雲が多くて、御覧の通り富士山はさっぱり見えませんでした。残念。

Img_2254

で、今回の旅の戦利品です。

自分向けに買ったのはこれだけ。BEEPに売っていた「ザイログ Z80伝説」です。

Img_2256

なかなかガチな本ですが、始めの方の歴史話はなかなか面白い。3000円弱の本でしたけど、買って損はしない内容。

ちなみに今でもあるんですね、ザイログ社。今でもZ80を作ってるみたいです。買ってみようかな。

Img_2255

なお、BEEPの袋にかかれたこの漫画がなかなか印象的。

たくましくなれるって……こういうの、いわゆるブ〇ック職場っていうんじゃぁ……いえ、何でもありません。

一見すると支離滅裂な旅(?)でしたが、個人的には色々とみられてよい旅行だったと思ってます。

で、歩いた歩数は3日で計43,533歩。足が痛いですね。

るるぶ東京'23

2022年8月11日 (木)

我が家のSurface GoをWindows 11にアップグレードしてみた

まず初めに断っておくと、公式には初代Surface GoのWindows 11へのアップグレードは不可です。以前もそういう記事、書きました。CPUが未対応、とのことです。

が、見てくれを気にするタイプの人間なので、そろそろこいつもWindows 11にしておきたいなぁと考えた次第。外で使うには、Windows 10のインターフェースではちょっと古臭く見えます。

で、調べてみると、アップグレードの方法がありました。

初代Surface GOにWindows 11を導入してみた。 | ビジネスマンのためのパソコン購入ナビ

要するに、レジストリをいじってコンピューター内のチェックを回避させ、インストールを可能にするやり方のようです。

我が家のSurface Goは4GBメモリー、64GB eMMCなので、まず必要なのは外部メディア。

Windows 11のインストーラーイメージ(ISO)をダウンロードし、それをマウントして入れるため、ある程度の空きが必要となります。

空き容量が23GB近くあるので、足りるかもしれませんが、念のため外部メディアを使います。

予め刺さっている256GBのmicroSDカードを使いました。

で、まずは下記リンクよりWindows 11のISOイメージをダウンロードしておきます。

Windows 11 をダウンロードする

続いて、レジストリを書き換えます。

※ 注意!レジストリエディタでいじると、起動しない場合があるリスクを覚悟しておいてください!

スタートメニューを右クリックで現れる「ファイル名を指定して実行」で、「regedit」と打ち込んでEnter。

その中の「HKEY_LOCAL_MACHINE」‐「SYSTEM」‐「Setup」‐「MoSetup」を開き、右クリックで「DWORD」を選びます。

値の名前は「AllowUpgradesWithUnsupportedTPMOrCPU」として、下の「値のデータ」は「1 (16進数)」と入れます。

Win11_sfgo01

で、追加後にレジストリエディタを閉じます。

ダウンロードしたISOファイルをSDカードなどに移動しておき、右クリックで出てくるメニューの中の「マウント」を選択。

すると、DVDメディアのようにマウントされるので、その中のフォルダを開いて「setup.exe」をダブルクリックします。

Win11_sfgo02

すると、こんな感じの画面が。

Win11_sfgo03

あとはインストーラーに従って入れるのみです。

Win11_sfgo04

Win11_sfgo05

こんなおっかない画面も出てきますが、

Win11_sfgo06

ここは「承諾する」をクリック。

Win11_sfgo07

いよいよ、インストールが始まります。

Img_1998

あとは普通に、インストールされていきます。

Img_1999

放っておいて夜中に目を覚ますと、ログイン画面が出て止まってました。

で、ログインすると、こんな画面へ。

Win11_sfgo08

無事、Windows 11へアップグレードされました。

Win11_sfgo09

普段使うアプリを使ってみましたが、問題なく使えます。特にレスポンスの低下なども感じられず、良い感じで動きます。

設定もほぼ引き継がれてましたが、ただ電源ボタンを押したらシャットダウンするという設定だけが書き換えられていて、スリープに移行するようにされてました。ところどころ、注意が必要なようです。

これでスタバで使っていても、「あいつまだWindows 10を使ってやがるぜ!」などと指を差されなくなりました。

(スタバで使う予定はありませんが)

私と同様、初代のSurface Goを使っていて、見てくれを気にしてしまう方は、ぜひご参考になさって下さい。

ただし、公式には非推奨な機種であるため、将来的には使えなくなる恐れがあります。その点のみ、ご注意を。

もっとも、その時は新しいSurface Goを買えばいいんでしょうが。私はそのつもりでいます。


マイクロソフト Surface Go 3 LTE Advanced/ Office H&B 2021 搭載 /10.5インチ / 第10世代 Intel Core i3/ 8GB/128GB /プラチナ 8VH-00014

2022年8月 8日 (月)

Midjournyというお絵描きAIを試してみた

なんかMidjournyという作画AIが盛り上がってますね。

曰く、キーワードを入れたら、それっぽい画像を返してくれるというAIだそうで。

てことで、早速試してみました。

といっても、まず動かすまでの手順が厄介です。

ここを参考にやりました。

話題のAI画像生成サービス「Midjourney」を使ってみた--「日なたの可愛い猫」を描いたら - CNET Japan

大雑把に書くと、

1. Discordというサービスのアカウントを作り、ブラウザ上でログインしておく。

2. DiscordのMidjourney公式サーバーに入り、そこで「招待を受ける」をクリック。

3.NEWCOMER ROOMSの中の「newbies-○○」のどれかを選ぶ(どれでもいいです)。

4. 一番下のメッセージ入力のところで、「/imagine」と入力。

5. キーワード入力モード(”Prompt”と出る)になるので、キーワードを入れる。

6. 1分ほどすると、そのキーワードに応じた画像が生成される。

Midjourny01

という具合です。

ところがこのDiscordというサービスの画面、使う人が多いせいかすぐに流れて行ってしまうため、自分の作成ジョブがあっという間に目の前から消えてしまいます。すぐにクリックしてその場所を保持し、流れないようにするんですが、完了するとまた一番下に移動するので注意。

で、4枚の低解像度の絵が出てくるので、その中からもっとも自分好みのを選び、画像の下にあるU1~4、V1~4というコマンドボタン(Uは高解像度化、Vは別バリエーション作成の意味?)をクリック、さらに画像を変化させます。

で、気に入ったのが出てきたら、高解像度版を作成するメニューがあるのでそれをクリックする、という流れ。

Midjourny02

ただ、最初は使い方がいまいちわからず、無駄にいくつも作ってしまいました。ああ、もったいない。

無料では25枚程度までしか作成できません。U、Vコマンドを押して生成しても、それも1枚としてカウントされるようです。要注意。

Midjourny03

で、こうして作った1枚がこれ。

space battleship galaxy fire のような単語を入れたんですが、こんなのができました。

思い通りかと言われれば微妙ですが、なんだか幻想的な絵ができました。

Midjourny04

ちなみに「銀河英雄伝説」(Google翻訳で出てきた”Legend of the Galactic Heroes”を入れました)だと、できたのがこれ。

雰囲気的には、スターウォーズのようです。

もしかして、「銀河のヒーロー伝説」と解釈されたんでしょうか?真ん中に2人の影が見えますが、あれがまさか「ヒーロー」なのか?

とまあ、ちょっと遊んでみるのには面白いサービスです。

ちなみに、月額10ドルで上限200枚/月、35ドルで無制限利用できるようです。商用利用をする場合には、支払う必要があるみたいですね。

このmidjournyで作られたえぐい作品は、以下のリンク先にあります。

「かっこよすぎ」「めっちゃいい!」 イラスト自動生成AI「Midjourney」が描いた“異形崇拝”の絵が異世界すぎると話題に(2/2 ページ) - ねとらぼ

これを見る限りでは、ファンタジー系には強いんですかね?そんな印象です。


アニメCGの現場2021

2022年8月 7日 (日)

AirTag買ってみた

今さらではありますが、AirTagを買ってみました。

Img_1990

とりあえずお試しなので、キーホルダーなどは無し。

Img_1992

中はこんな感じ。相変わらず、シンプルですね。どうやって接続するんでしょう?

Img_1993

なんて心配はご無用。フィルムを引き抜くと通電し、いきなりiPhoneに接続画面が出てきます。

さて、AirTagというのは、要するにBluetoothを使った持ち物の場所検索に使うやつ、という認識。

実は妻の実家で、よく鍵の置き場所が分からなくなるという事態が発生していたため、急遽、これを買うことに。

4,800円ほどですが、近所のららぽーと東郷にあるBig StyleでiPhoneやiPad miniを買い続けた結果、そこそこポイントがたまっていたため、4,000円ほどで買えました。

Img_1994

てことで、早速隠してみます。

Img_1996

離れたところからスタート。最初はこんな画面ですが

Img_1997

近づくにつれて、こんな画面に。

撮り忘れましたが、数十センチ以内に入ると、画面が緑色になりバイブが作動します。

子供に隠してもらったりしたんですが、案外ちゃんと見つけられます。

うん、これなら目的を果たせそうですね。

あまり縁がないデバイスだと思ってましたけど、とうとう使う羽目になりました。使い勝手がよさそうなら、自分用にも買ってみようかと考えましたね。

Apple AirTag 4個入り

2022年8月 3日 (水)

「まがい物のデータサイエンティストは滅びゆく」という2015年末の記事にかかれたAI界隈の予測が意外にあたっている件

会社で調べ物をしていたら、偶然見つけたこの記事。

文脈からこの先のAI・機械学習界隈の予測らしきものをいくつか挙げている論説を紹介する記事ですが、何を今さらな内容なのかと思ったら、よく見れば2015年末に書かれた記事でした。

まがい物のデータサイエンティストは滅びゆく:USのトップ5データサイエンティストたちが語る2016年の展望 - 渋谷駅前で働くデータサイエンティストのブログ

これが6年半以上経った今見ると、案外当たっている部分が多いので、思わずうなってしまいました。

ということで、いくつか紹介。

(以下、太字部分は上の記事から引用したものです)

5. まがい物のデータサイエンティストは滅びゆく

記事のタイトルにもある通りです。曰く、底の浅いデータサイエンティストはいずれ淘汰される、というもの。

言われてみれば、2017年ごろには多くのAI系ベンチャーがありましたけど、今はかなり減りましたね。というのも、TensorFlowやKeras、Pytorchという機械学習フレームワークの普及のおかげで、多くの人が自力でAIを構築できる時代になり、結果、さほど特色のないところは淘汰されてしまった、という感触です。

6. 他分野から移ってくるデータサイエンティストが増える

確かに、これは言えてます。かくいう私もその一人ですし。

データサイエンスだけができる、というのは、英語が喋れるだけのビジネスマンと言った感じで、それ自身は何の役にも立たないです。工学、金融、財務、実験などの専門に加えて、データサイエンス能力を兼ね備えた人が何か成果を出せる時代。私の周りもそんな雰囲気です。

7. 在宅勤務するデータサイエンティストが増える

個人的に、一番衝撃を受けたタイトルはこれ。まるでコロナ禍の時代を予測していたかのようです。

といっても、この内容自体は感染症によって在宅勤務が増えるなどとは書かれておらず、データサイエンティストが希少であるから、その人材がその場所による制約を受けていては確保できないという問題に直面するため、いずれ場所に寄らない在宅勤務という業態がスタンダードになる、という感じの論調です。

もっとも、そうはいっても変われないのが日本という国。ですが、結果的にこのコロナ禍ではそんな業態が日の目を見るきっかけとなりました。

14. 環境問題にもっとデータサイエンスが適用されるようになる

これはどちらかというと、世の中の流れが環境問題にクローズアップされつつあるため、そこにAI技術が投入されるようになってきた、というのが実感ですね。

環境問題だけでなく、構造解析分野や物理学などにも機械学習の応用が見られるようになってます。

とまあ、よく当たってるなぁと感じた部分は以上ですが。

あまり当たってないなと感じるところもちらほら。

1. データサイエンスや統計学によるモデリングはもっとブラックボックス化して自動化される

ブラックボックス化はともかく、あまり自動化はされていない気がします。

確かにDataRobotというノンプログラミング系のアプリケーションが登場し、自動化が進んではいるものの、あまり普及している感じはないですね。ただでさえブラックボックスが、ますますブラックボックスになってしまうため、分析作業における人の直接の介入というものはむしろ増えつつある気がします。

11. 政府によるデータとデータサイエンスの利活用が進み、不正やテロの抑制に用いられる

悲しいかな、これは外れも外れ、大外れですね。これは皆さん、頷き過ぎて首が疲労破断してしまうほど振ってしまうんじゃないでしょうか。

特にこの日本においては、正に元首相がテロに倒れるという事件が起きたばかりですし。そうでなくても、行政機関がそもそもデジタル化が進んでいるとは到底思えないですし。

と、勝手にいろいろとコメントを書きましたが、6年前にこれほどのことを推測していたというのは驚きです。

AIに対する過剰な期待は薄れ、ようやく応用の道筋が確立し始めてきたかなというのがこの界隈の大方の感触じゃないでしょうかね。

そういえば、2045年辺りにAIが人を超えた存在になる、いわゆる「シンギュラリティ」が起こるという論調がありますが、私自身はその予測は外れると思ってます。

刺身にたんぽぽの飾りつけをするようなうんざりとする作業を肩代わりしてくれるというAIは発展するでしょうが、特に人のクリエイティブな部分を丸投げできるようなAIというのは、私が生きている間には実用化しない気がします。この第3次AIブームは、人の”創造”という部分の謎をかえってクローズアップさせてくれた、という気がします。

例えば「綺麗な花」というものがあって、綺麗な花の画像を大量に集めてそれを「綺麗」だと言わせるAIを作ることは容易ですが、どうしてそれが「綺麗」だと言えるのか、その理由をAI自体が理解しているわけではないので、新たな美を生み出す、見出すことはできない、ということです。

この「理由」というやつがモデル化されない限り、シンギュラリティなんて夢のまた夢だと思ってます。

なんて、サイエンティストどころかエンジニアクラスの私が偉そうに語るのもおこがましいですね。この辺で止めておきます。

この先、6年後にはどうなってるんでしょうね?

少なくとも、疫病と災害と戦争が収まった世の中で、単純作業を肩代わりするAIが人の働き方を支援してくれている世の中になっていて欲しいものです。あ、勝手に戦争をやってくれるAIなんてものは、なしということで。


予測マシンの世紀 AIが駆動する新たな経済

« 2022年7月 | トップページ | 2022年9月 »