« 2023年4月 | トップページ | 2023年6月 »

2023年5月27日 (土)

iOS版のChatGPTを入れてみた(※ インストール時には要注意)

海外では先行してリリースされていたiOS版のChatGPTを入れてみました。


Img_e3241


はい、ここで注意事項があります。


このアイコンと名前をよく見て、間違えないようにしてください。


というのも、似たようなものがたくさんあって、間違えそうになります。


確実にそれを狙ったアプリがたくさんあります。ChatAIなど、紛らわしいものの違う名前を使ってるものが多いですが、中にはChatGPTの名をかたっているものもありますね。


最近、ChatGPT APIを使った似非ChatGPTが乱立しているらしく、ログインしなくても使えちゃうなんてものがあるそうです。
が、そういうやつの狙いはフィッシング詐欺だったりすることも多いそうなので、油断できません。
必ず公式のアプリを選んでダウンロードするようにしてください。


Img_e3240


てことで、御覧の通りインストールしました。
ついでに新しいBingアプリもあったので、これも入れてみました。


では、早速テスト。


Img_e3238


りんなAIでも試した「大阪でお勧めの食べ物は何ですか?」を聞いてみました。
当然ですが、ものすごくいい答えが返ってきます。が、「おばんさい」ってどちらかというと京都の料理では?若干、怪しい気もします。


さて、同じ質問をBingチャットでもやってみます。


Img_e3239


こちらは概要的な答えが返ってきますね。ChatGPTに比べると、ちょっと内容が薄い感じ。これでも同じChatGPTを使ってるはず(どころか、GPT-4を使ってるはず)なんですけどねぇ。
ただ、Bingチャットのいいところは、引用先のURLが下に表示されるところです。真偽はそこで確かめられます。


なお、Bingチャットは音声入力がデフォルトになってました。ChatGPTでも、iPhone側の音声入力を使えば声で入力は可能になります。そこがスマホアプリのいいところですね。


てことで、いよいよ生成AIの民主化が進みつつありますね。
Googleの方も気になりますが、ここしばらくはものすごい速度で発達しそうな分野です。


ChatGPT 120%活用術


2023年5月25日 (木)

りんなチャットAI「rinna japanese-gpt-neox-3.6b」と楽しく??会話してみたら……

先日紹介した「こっちの方が本命か!?日本語専用生成AI「rinna japanese-gpt-neox-3.6b」: EeePCの軌跡」のコードを、下記サイトを参考に作り替えてみました。

Rinnaの新しい3Bモデルを試してみる - きしだのHatena

ぶっちゃけ言えば、会話できるようにしました。
質問文を打ち込むと、回答を返してくる、さらに質問を受け付ける……というループ処理を入れてあります。

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
from colorama import Fore, Back, Style, init

init(autoreset=True)
model_name = "rinna/japanese-gpt-neox-3.6b-instruction-sft"

print
("model:" + model_name)
model = AutoModelForCausalLM.from_pretrained(model_name).to("cpu")
tokenizer = AutoTokenizer.from_pretrained(model_name, use_fast = False)

output = ""
i = 1

while True:
    user_input = input("ユーザー入力" + str(i) + ":")
    if user_input=="":
        break
    #prompt = output + "<NL>ユーザー:" + user_input + "<NL>システム:" # 会話をつなげるやつ
    prompt = "ユーザー:" + user_input + "<NL>システム:" # 独立した質問文を投げるやつ

    inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
    with torch.no_grad():
        tokens = model.generate(
            **inputs,
            max_new_tokens=128,
            do_sample=True,
            temperature=0.8,
            pad_token_id=tokenizer.pad_token_id,
        )
    output = tokenizer.decode(tokens[0], skip_special_tokens=True)
    disp_prompt = prompt.replace("<NL>", "\n")
    disp_output = output.replace("<NL>", "\n")

   
print(f"{Fore.YELLOW}{disp_prompt}{Fore.WHITE}{disp_output[len(disp_prompt):]}")
    i +=1

ただこれ、正確には「会話」ではありません。単発の質問を受け付けるだけのプログラムです。
20行目あたりにある「#promtp = output + ~」というコメントアウトされた行があると思いますが、このコメントアウトを外し、代わりにその下の行をコメントアウトすると、過去の回答履歴をAIモデルに渡せるため、前の文脈を加味した「会話」ができることになります。

が、やってみた限りでは、会話が溜まるとなぜかぐちゃぐちゃな回答しか返ってこなくなるため、敢えて単発質問しか受け付けない仕様に変えました。
プログラム上は一応、会話モードを残しております。

前置きはここまでにして、実際の「会話」、といっても、質問の単発を投げ続けた結果を以下に紹介します。

20230525-074116
よほど支離滅裂(かつ面白くない)なもの以外を、ここに載せます。

【登場人物】
ユーザー:私
システム:りんなちゃん(AI)

ユーザー:大阪にある美味しいお寿司屋さんはどこですか?

最近、海鮮系を食べ歩くYouTuberの動画を見ているので、つい気になって聞いてみました。
が、返ってきたのは以下。

システム:日本食を試してみたい場合は、Washitasをお勧めします。寿司だけでなく、様々な日本食を提供しています。

……Washitasって、何?ググってみましたが、沖縄にあるという「わしたショップオンライン」くらいしか出てきませんでした。しかも、寿司関係ないし。
うーん、寿司はハードル高かったかな。「食べ物」で聞いてみましょう。

ユーザー:大阪でおすすめの食べ物はなんですか?
システム:「お好み焼き」は、野菜、肉、卵がたっぷり入った、日本の料理です。粉や水で溶いた生地を鉄板に敷き、肉、野菜、ソー
スで焼いて仕上げます。ソースは、たっぷりとした甘さのソースと、ピリッとした辛さのソースがあります。大阪では、お好み焼きは人気のある料理です。

おお!なんかそれっぽい答えが導き出せました。
ですが、お好み焼きに関しては、別の場所が本場だという主張もあります。なので、聞いてみた。

ユーザー:お好み焼きは広島の食べ物ではないの?

そういえばですが、この「りんなAI」はどういうわけか、?で終わる文でないと支離滅裂度が上がるみたいです。このため、なるべく質問には?で終わる聞き方をしております。
と、ここまで気を使ったというのに、

システム:5月4日5時45分

もう、意味わかんない。もしかして、聞き方が悪かったかな?
聞き方を変えてみます。

ユーザー:お好み焼きといえば広島ではありませんか?
システム:この質問は少し曖昧ですが、お好み焼きは広島発祥の料理です。

だそうです。うーん。

気を取り直し、今度は名古屋に切り替えます。

ユーザー:名古屋のおすすめの食べ物は何ですか?
システム:アボカド。私はアボカドが大好きです。

し、知らなかった、名古屋ってアボカドが有名……なわけあるかい。
よく見ると「名古屋の」は「名古屋で」にしないと日本語的に変な感じなので、聞き直してみました。

ユーザー:名古屋でお勧めの食べ物は何ですか?
システム:最近、友達が「名古屋で食べられるものをお勧めしてください」と頼まれたので、私の経験からいくつかお教えします。ま ず、味噌と豚 肉が好きな方は、是非味噌とんかつを試してみてください。また、味噌カツもお勧めで

ちょっと余計な言葉が多いものの、概ね正しい答えですね。
ただ一点、突っ込むならば、「味噌とんかつ」と「味噌カツ」が違うもののように書いてますが、これって同じでは?
普通「味噌とんかつ」とは言いませんし。

なんだかごく普通の質問ばかりをしているので、ここで知的レベルを上げてみます。

ユーザー:経営方針を考えるうえでマネージャーが気を付けるべき点は何がありますか?
システム:アッシュ・ハントマンの「The Price is Right」は、マネージャーが考えるべきいくつかの重要な問題を含んでいます。彼は、管理者がマネージャー自身の時間をどのように管理するか、管理者が部下をどのようにマネジメントするか、管理者が従業員の士気を向上させるために何をす るか、管理者が従業員の動機付けやパフォーマンスをどのように向上させるかなど、さまざまな問題に取り組むように勧めています。例えば、アッ シュ・ハントマンは、管理者のためのいくつかのガイドラインを提案したり、次のような質問をして、管理者が自分自身と自分の行動を反省するよ う勧めています。「マネージャーであるあなたは、自分自身の時間の使い方

文章が途切れてしまいましたが、なんだか知的な答えが返ってきた感じです。ただし「アッシュ・ハントマ」でググると、多機能ナイフ(ハントマン)が出てきましたので、微妙にフェイク情報が含まれているのが玉にキズです。

調子に乗って、もう一つ。

ユーザー:経営戦略を考える上で、AIを活用することについてどう思いますか?
システム:今すぐ無料ダウンロードしてスマホやタブレットのための最高のAndroidオペレーティングシステムを手に入れましょう!

なぜ、アンドロイド?りんなちゃんの考えることは、よく分かりません。

ユーザー:AIを効率的に活用する方法は?
システム:「AIは、特定の状況での人間を支援するために設計されています。そのため、AIの助けを借りてユーザーのニーズに対処することができます。人間は、ロボットやAIを含む現代の技術を使用して、人間が生活する環境をより良いものにすることができます。」

めげずにAIについて尋ねたら、なんとなくそれっぽい回答を返してきました。これはまあ、合格点かな。

急にアニメ系の知識が気になったので、それ系の質問をぶつけてみます。

ユーザー:機動戦士ガンダムに出てくるモビルスーツで最高のものは何だと思いますか?
システム:はい、わかりました。それでは見てみましょう...

1. ザクII MS-06R
2. ザクII SBR-M
3. ザクII RGM-79
4. ザクII SBR-M2
5. ドム VAMBR-01
6. ズゴック VAMBR-02
7. ゴッグ VAMBR-02

はい、ザクII推しだということは、よく理解しました。でも、型番があってるのは最初だけ?

ガンダムとくれば、ヤマトでしょう。

ユーザー:宇宙戦艦ヤマトについて何か知ってますか?
システム:「宇宙戦艦ヤマト」は、森雪が率いる架空の艦船である宇宙戦艦ヤマトのシリーズ作品です。シリーズは1977年に始まり、1990年代後半にはより大きな続編である宇宙戦艦ヤマト2が作成されました。シリーズのオリジナルは、SF作家である豊田有恒によって書かれ、後にアニメシリーズ「銀河鉄道999」でも使用されました。「宇宙戦艦ヤマト」は、映画、テレビ、ビデオゲーム、漫画など、多数のメディアフォーマットで利用可能です。シリーズは、現代日本の漫画の代表作の1つとして広く認知されており、批評家からも高く評価されています。

故・松本零士氏が聞いたら、草葉の影から号泣しそうな回答が出てきました。
豊田有恒氏は確かに宇宙戦艦ヤマトに関わっている人ではありますが(「『宇宙戦艦ヤマト』の真実」という本も書かれている)、ここの説明はどう見たって松本零士氏のことでしょう。混乱しています。もちろん、森雪が率いるなんて設定はありません。

ただし、これでもボトムズよりはマシです。

ユーザー:装甲騎兵ボトムズについて何か知ってますか?
システム:やめた方がいいです。あなたは間違っています。

や、やめた方がいいのか……?そんなに間違ってる?むせる。

ユーザー:ボトムズのことは知ってる?
システム:「いいえ、ボトムズは知っています。それは、世界で一番有名なテレビシリーズの一つです。」

さらに聞いてみたら、「世界で一番有名」とか言いやがった。どっちやねん。
でもさすがに世界的には「グレンダイザー」「ボルテスV」よりは知名度低いと思う。(前者はフランス、後者はフィリピンで熱狂ファンがいたとかどうとか)

ユーザー:イデオンのことは知ってる?
システム:はい、知っています。イデオンは、TVシリーズや他のアニメーション作品で、巨大な「異星人」の種族が地球に侵攻する様子を描いたSFスリラー・アニメーション映画シリーズです。イデオンは、宇宙の神話や神々が現実に存在するというストーリーを広めました。

こっちは概ね正確……ではないな。イデオンに出てくる異星人って、地球侵略してたっけ?

ユーザー:ダンバインのことは知ってる?
システム:「ダンバイン」は、日本のアニメシリーズ「ザ・シンプソンズの」の第1シーズンのエピソードです。

ダンバインに至っては、ザ・シンプソンズのシリーズにされてしまった。あれはアメリカのアニメでは?

ユーザー:ザクについて何か知ってますか?
システム:「Call of Duty」のジャンルに属するゲームですか?

ザク推しだったので、ザクについて尋ねてみたら、全然違うゲームを挙げてきました。
りんなよ、お前のザク愛(?)はその程度だったのか。

そういえば、YouTubeで「ねずっちチャンネル」というのを時々見るんですが、そこでSiriやChatGPTなどAIとやり取りする動画があってですね、これが面白かったので。

その「ねずっち」さんについて尋ねてみました。

ユーザー:ねずっちという芸人を知ってますか?
システム:「ねずっち」とは、お笑い芸人で、本名は守屋賢一です。彼は、テレビや雑誌などのメディアで人気を集め、数多くのテレビ番組に出演しています。彼の芸風は、特に滑稽な動きや奇妙な物真似で知られています。彼の主な活動分野は、コメディやジョーク、そして奇妙でおかしな物真 似です。ねずっちは、かつてM-1グランプリの準優勝者でもあり、今でも多くのテレビに出演しています。

うーん、ねずっちさんは物まね芸人だったんだ。なわけあるかい。本名も明らかに違うし。ツッコミどころが多過ぎて困る。

総論として、やはり完成度としてはまだまだですね。
ただ、36億パラメータであることと、中身はともかく文章の体は成しているので、それだけでもすごいことではあると思いました。

家庭用PCで動いていることを思えば、なかなかのものですね。今後に期待しましょう。


2023年5月最新情報 ChatGPT の 応答精度 は プロンプト が9割 テンプレート 付 GPT-4: GPT-3.5 Bing AI Perplexity Notion AI との比較 【Google Bard】【 プロンプトエンジニアリング 】【 copilot 】【 人工知能 】【 チャットボット ... チャットGPT 】【 文章生成AI 】【GPT-4】 おばちゃんでもわかるシリーズ

2023年5月24日 (水)

DIMEという雑誌を買ったら煌びやかなスピーカーがついてきた

本屋にふらっと寄ったら、ついつい買ってしまいました。

Img_3231

最近、ストレスが溜まってるんでしょうかね。読むかどうかわからない雑誌を何冊も買い込むことが増えました。
そういえば、デアゴスティーニから「暴れん坊将軍DVD」が出てるんでしたよね。すっかりチェックするのを忘れてました。

Img_3232

さて、今回主役となるDIMEですが、御覧の通り生成AIの活用術が特集記事となってます。
プロンプトに関する記事盛りだくさんで、これで1,300円。

さらに、横の黒い箱の物体がおまけで付いてます。

Img_3234

この中身はBluetoothスピーカー。といっても、バッテリーはなく給電用のUSBケーブルからの電力供給が必要な、単体では動かないという代物。

Pxl_20230524_100840533

……なんですが、御覧の通り、ペアリングしてスピーカーを再生すると急に派手なLEDの光を放ちます。
鏡のようなところはマジックミラーのようで、奥の反射でずっと奥までLEDライトが並んでいるように見えます。吸い込まれそう。

Img_3233

なお、記事の方もなかなかです。
わりとお得感丸出しな今号のDIME。おすすめです。

DIME 2023年 7 月号 【特別付録:Bluetooth対応リズムライトスピーカー】

2023年5月23日 (火)

メインPCのストレージをキオクシア製2TB NVMe M.2 SSDにしてみた

最近、生成AIの試行やStable Diffusionを動かしているため、1TB SSDではいよいよ足りなくなってきました。
しかも今、SSDが結構安い。
ということで、思い切って?2TBのSSDを買ってみた。

Img_3217

買ったのはこちら、「KIOXIA」と書かれたこいつ。
どうせ買うならと、敢えてこのメーカーにしてみました。なお、最大書き込み3400MB/s、書き込み3200MB/sのモデルです。下から2番目くらいのスペックのやつのようです。

Img_3218

中身はこんな感じ。なお、Buffaloが代理店の模様です。

まずは、1TB SSDのクローンを作成します。

Img_3219

先日買ったM.2 SSDをUSB-Cに接続するやつを使って、メインPCにつなぎます。

Img_3221

できるだけ速く転送させたかったので、背面にあるUSB-Cのポートに挿します。

20230522-172048

ドライブとして現れないので、「ディスクの管理」を使ってみてみます。

未フォーマットだったので、ここでクイックフォーマットをかけます。

20230522-172139

無事、認識されました。ちなみに1TB SSDの方はもう残りが270GB程度。無理やり引っ付けた512GB SSDも風前の灯火。

では、この1TBからの引っ越しを開始します。

Img_3220

クローン作成に使用したのは、WD製1TB SSDについていたAcronis True Imageです。
おそらくこのキオクシア製SSDにも何らかのバックアップソフトが提供されてると思われますが、すでにインストールされているため、わざわざ入れ直すのも面倒なので、これを使います。

Img_3222

で、コピーを開始したんですが……なんと、予想終了時間は14時間超ときました。
うわっ、そんなにかかるの……?
と思いきや、7時間ほどで終了してました。

Img_3224

電源を落として、SSDを好感します。
つい先日、64GBメモリーを取り付けた時以来なので、久しぶりというわけでもないですね。

Img_3225

SSDですが、上が512GB、下が1TB。

Img_3226

これを、こんな感じに付け直します。上が2TB、下が512GB。

どうやらCPUファンに近い側が本来1番目のSSD用コネクタだったようなので、これを機会にひっくり返しておきました。まあ、どっちでもいいんでしょうけど。

Img_3227

ちなみに、1TBの方は安定稼働が確認されるまで保管です。

Img_3228

緊張の一瞬。電源をオン。

Img_3229

見事、起動しました。クローン化は成功です。

20230523-183640

変わり映えのしない、いつものデスクトップが現れました。iCloudだけが認証を求めてきましたが、それ以外はそのままです。

20230523-183649

で、Cドライブはがさっと空きました。当面はこれで過ごせそうです。

せっかく増えた容量なので、OneDriveの中身をごっそり同期しようかと思ってます。あとは、生成AI系のテストをガンガンやれますね。

別に機能が増えたわけではありませんが、ちょっぴり気が大きくなった、そんな換装の一幕です。


キオクシア KIOXIA 内蔵 SSD 2TB NVMe M.2 Type 2280 PCIe Gen 3.0×4 (最大読込: 3,400MB/s) 国産BiCS FLASH搭載 5年保証 EXCERIA PLUS G2 SSD-CK2.0N3PG2/N 【国内正規代理店品】

2023年5月21日 (日)

こっちの方が本命か!?日本語専用生成AI「rinna japanese-gpt-neox-3.6b」

先日の「日本語対応のオンプレ生成AIとしては現時点で最強!?な感じの「OpenCalm 7B」: EeePCの軌跡」という記事を書いている時にも薄々勘づいてました。rinnaというもう一つの日本語専用AIの最新版も公開されるらしい、と。

で、それが出てたので、早速試してみました。
参考サイトはいか。

rinna/japanese-gpt-neox-3.6b-instruction-sft · Hugging Face

日本語特化型の大規模言語モデル、OpenCALMとrinna/japanese-gpt-neox-3.6bの検証 - Qiita

ところでこのrinna/japanese-gpt-neox-3.6ですが、大きく二種類あります。
簡単に言うと、前回紹介した「OpenCalm 7B」のように文章の続きを書くやつ。
そしてもう一つが、質問文→回答 を返すタイプのもの。
正直、文章の続きを書かれてもという気持ちなので、後者の「質問→回答」型のやつをいきなり動かします。

プログラムコードは以下(rinna-3.6b-instruction-sft.py)。

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
# prompt定義
prompt = [
    {
        "speaker": "ユーザー",
        "text": "AIを有効に活用するにはどうすればいいですか?"
    }
]
prompt = [
    f"{uttr['speaker']}: {uttr['text']}"
    for uttr in prompt
]
prompt = "<NL>".join(prompt)
prompt = (
    prompt
    + "<NL>"
    + "システム: "
)
print(prompt)
# ここまで
tokenizer = AutoTokenizer.from_pretrained("rinna/japanese-gpt-neox-3.6b-instruction-sft", use_fast=False)
model = AutoModelForCausalLM.from_pretrained("rinna/japanese-gpt-neox-3.6b-instruction-sft")
#if torch.cuda.is_available():
#    model = model.to("cuda")
model = model.to("cpu")

token_ids
= tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt")
with torch.no_grad():
    output_ids = model.generate(
        token_ids.to(model.device),
        do_sample=True,
        max_new_tokens=256,
        temperature=0.7,
        pad_token_id=tokenizer.pad_token_id,
        bos_token_id=tokenizer.bos_token_id,
        eos_token_id=tokenizer.eos_token_id
    )
output = tokenizer.decode(output_ids.tolist()[0][token_ids.size(1):])
output = output.replace("<NL>", "\n")
print(output)

プロンプトの与え方が、ちょっと変わってます。まるでChatGPT APIに受け渡す形式のようですね。
まあ、要するに「"text": 」の後ろに質問文を書けばいいだけです。
また、我が家のGPU環境(GTX1650Ti GPUメモリーは4GB)ではGPUでの動作ができなかったため、model = model.to("cpu")をしております。

なお、うちではモデルダウンロード時にエラーが出ました。以下のライブラリを入れたら、エラーを解消しました。
> pip install sentencepiece

では早速、実行です。
> python rinna-3.6b-instruction-sft.py

20230521-141401
メモリー使用量はMaxで30GB程度。64GBメモリー搭載の我が家のメインPCに死角はない。
ちなみに、モデルダウンロードを除くと、実行から回答出力まで大体2分でした。

で、質問文と得られた回答を並べます。

【質問文】
AIを有効に活用するにはどうすればいいですか?

【回答】
AIは、さまざまなタスクを実行するために設計されたコンピュータプログラムです。
AIは、人間が行うような複雑で詳細なタスクを実行することができますが、通常、人間が行うよりも効率が低くなります。
AIを有効に活用するためには、AIに大量のデータを学習させ、それらのデータを検証して、人間が行うよりも効率が高いかどうかを確認する必要があります。
また、AIがより効率的にタスクを実行するために、特定のタスクに特化したソフトウェアを作成することも可能です。
これらを行うには、AIに専門的な知識や技術が必要であり、人間が行うよりもはるかに高価になることがあります。

うん、なかなかいい感じじゃないでしょうか。3.6B(36億パラメータ)とは思えないほどのいい回答っぷりです。

調子に乗って、少し難易度の高い質問もしてみました。

【質問文】
データドリブン経営を実現するには、まず何から取り組めばよいですか?

【回答】
私は、データドリブン経営を実現するためのさまざまな方法があると思います。以下は、データドリブン経営を実現するための一般的な方法のいくつかです:

- データや事実を分析し、そこから学びを得る
- データを解釈し、その解釈から価値を生み出す
- データから学び、データが示す現実に基づいてアクションを起こす
- データを解釈し、ビジネスモデルや戦略を改善する
- データと事実に基づいて行動し、データから学び、プロセスを改善する

あなたはどのようにデータドリブン経営を実現したいですか?

なぜか、質問に質問を返してきました。
おそらくここでチャット形式に質問を続けると、さらなる答えが引き出される……のかもしれません。この回答自体をプロンプトに加えて、再び質問です。

ということで、プロンプト部分を以下のように変えました。

prompt = [
    {
        "speaker": "ユーザー",
        "text": "データドリブン経営を実現するには、まず何から取り組めばよいですか?"
    },
    {
        "speaker": "システム",

        "text": "私は、データドリブン経営を実現するためのさまざまな方法があると思います。\
            以下は、データドリブン経営を実現するための一般的な方法のいくつかです:\
            - データや事実を分析し、そこから学びを得る\
            - データを解釈し、その解釈から価値を生み出す\
            - データから学び、データが示す現実に基づいてアクションを起こす\
            - データを解釈し、ビジネスモデルや戦略を改善する\
            - データと事実に基づいて行動し、データから学び、プロセスを改善する\
            あなたはどのようにデータドリブン経営を実現したいですか?"
    },
  {
        "speaker": "ユーザー",
        "text": "データと事実に基づいて行動し、データから学び、プロセスを改善することに重きを置きたいと考えてます。"
    }
]

で、返ってきたのはこちら。

【回答2】
素晴らしいです!
そして、データドリブン経営を実現するためには、データから学び、データから学び、プロセスを改善するさまざまな方法があります。
以下にいくつかの例を挙げます:
- データから学び、データを解釈して、現実に基づいてアクションを起こす
- データを使って学び、データを解釈し、プロセスを改善する
- データを解釈し、ビジネスモデルや戦略を改善する
- データを解釈し、プロセスを改善する
- データを解釈し、ビジネスモデルや戦略を改善する

うん、心を広く持てば、一応は会話になっているのかなとも思える回答です。

ということは、このプロンプトの部分をJSON形式のファイルとして書き出し、同じスレのチャット上で過去の会話も残しつつモデルに受け渡すようなプログラムを組んだら、いわゆるチャット型のAIが作れる気がします。

と言いたいところですが、実のところ、同じプロンプトで2、3回動かして、わりとマシな回答となったものをここに載せているため、必ずしもこのクオリティの回答が得られるとは限りません。時々、繰り返し文のようなものを返すこともあります。
これでチャットアプリを作るなら、安定的なパラメータ値が欲しいところです。

ちなみにですが、このjapanese-gpt-neox-3.6bのモデルは「The MIT Lisence」、つまり商用利用は可能なやつのようです。

にしても、今年に入ってからのオープンソースな文章生成AIの勢いが止まりませんね。この調子だと今年の終わりごろには、どうなってるんでしょうか?


週刊東洋経済 2023/4/22号(ChatGPT 仕事術革命)

2023年5月18日 (木)

日本語対応のオンプレ生成AIとしては現時点で最強!?な感じの「OpenCalm 7B」

生成AIというやつはどいつもこいつも英語対応ばかりで、なかなか日本語を顧みてくれません。
が、ようやく日本語対応を謳う生成AIモデルが登場しました。

cyberagent (CyberAgent)

サイバーエージェント社が、つい一昨日に公開されたばかりの生成AIモデルで、日本語版Wikipediaなどをベースに作ったもののようです。
モデルサイズですが、160M~7B(1.6億~68億)パラメータまであるようです。

ということで、まずは最小モデルの「small」(160M)から試してみます。


import torch
from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("cyberagent/open-calm-small", device_map="auto", torch_dtype=torch.float16)
tokenizer = AutoTokenizer.from_pretrained("cyberagent/open-calm-small")

inputs = tokenizer("AIによって私達の暮らしは、", return_tensors="pt").to(model.device)
with torch.no_grad():
    tokens = model.generate(
        **inputs,
        max_new_tokens=256,
        do_sample=True,
        temperature=0.7,
        top_p=0.9,
        repetition_penalty=1.05,
        pad_token_id=tokenizer.pad_token_id,
    )

output = tokenizer.decode(tokens[0], skip_special_tokens=True)
print(output)

コードはこんな感じ。元々のサンプルコードに対し、「max_new_tokens=」のところを、64から256に変えてあります。
なお、「inputs = tokenizer("」の後ろに、文章の書き出しを書きます。

これ、先日紹介した「StableLMの日本語版(α版)がテスト公開中: EeePCの軌跡」と同様、質問文ではなく、生成したい文章の書き出しをインプットしてやるという方式のようです。質問をしても、その続きを書かれてしまうので注意。

ただ、StableLMの日本語版がサイト上でしか動かせないのに対し、こちらはオンプレミス環境、つまり自分のPCで動かせます。そこは強みですねぇ。

さて、上のコードを実行すると、こんな感じの文章が返ってきました。

AIによって私達の暮らしは、どんな変化を遂げようとしています。
そんな私たちの生活を支える、私たちの大事な「資源」と「エネルギー」。
「資源」を資源として、わたしたちが大切にしたい「エネルギー」。
私たちは「エネルギー」を、社会から生み出していきたいと考えています。
そのために私たちは、様々な分野の技術や、それらを組み合わせて、様々な

うん、なんだか尻切れしてますが、なんとなくいい感じの文章・・・なのかなぁ。エネルギーの話にすり替えられてます。

他の文章も作らせてみました。

例えば、出だしを「これからの日本の新しい経営の在り方は、」としてみると、

これからの日本の新しい経営の在り方は、どんなものなのか?
これからの時代を生き抜くためには、会社に対する思いや姿勢は問われなければならない。
会社という組織における経営とは、「人」と「物」である。
経営という仕事は、人が人として、あるいは人が組織人として行うものであり、企業経営とは、その企業で働く者が、会社を経営する立場として、あるいは企業で働く者が、組織経営者として、仕事を行う者のことを指す。
そして、その業務に従事する者は、会社の経営を、経営という仕事を通して、自分の考えや判断で成し遂げることが必要である。
社員の皆さんは、会社という組織において、会社という存在意義をどのように認識しているだろうか?

あれ、至極まっとうな感じの答えが返ってきました。
よーく読めば、わりとフワッとした文章なんですけど、それでも体裁は整ってます。悪くないですね。

もう少し、マニアな書き出しで攻めてみます。

「日本のアニメ文化の今後は、」

に対しては、

日本のアニメ文化の今後は、海外展開も視野に入れるべきだ」
「アニメ評論家」がアニメ評論家から干された理由。
「アイドルマスター」はアニメ業界にとって“死語”になる...脚本家・松原智恵子氏の決断の重要性
「ガンダム」で「ガンダム」を語れる人は少ない。
【大投票】アニメ評論家ランキング! 圧倒的支持率のトップ10は?
「ガンダム」で「ガンダム」を語る上で外せないのは、「ガンダム」シリーズの歴史だ。
アニメ評論家ランキング(20)は「ガンダム」に票を投じた人たち。
「ガンダム」は『機動戦士ガンダム』などアニメ史上最も売れた作品となった。その第1作目は、2001年に『機動戦士ガンダム』が放 送され、その人気に陰りが見え始めたころだった。
しかし、第2作目でさらに人気が高まって、第4作目『機動戦士ガンダム00』まで放送された。第5作目『機動戦士ガンダム0080 ポケットの中の戦争』では、第1作目のガンダムから続くアニメ史の幕開けともいえる作品である。
そして、第6作目『機動戦士Zガンダム』では、新三部作の完結編として、新たな物語とモビルスーツの開発が始まろうとしている。
しかし、第7作目『機動戦士ガンダム0083 ジオンの残光』は、テレビアニメ史に残る名作として、その後に続く

後半、めちゃくちゃ「ガンダム」してます。最初の一行目はそれらしいんですけどね。

なんとなく思ったんですが、これ、Wikipediaを教師データにしているらしいので、その中の文章で逸れっぽい部分を抜き出して組み合わせているだけじゃないですかね?

実際にはアレンジしているんでしょうけど、なんとなくそんな感じの文章です。

ということで、やはり最小モデルではちょっと物足りない。

てことで、最大モデルである7Bを試してみます。


import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
import os

os.environ["PYTORCH_CUDA_ALLOC_CONF"] = "garbage_collection_threshold:0.6, max_split_size_mb:128"

model = AutoModelForCausalLM.from_pretrained("cyberagent/open-calm-7b", device_map="auto", torch_dtype=torch.float16)
tokenizer = AutoTokenizer.from_pretrained("cyberagent/open-calm-7b")

inputs = tokenizer("AIによって私達の暮らしは、", return_tensors="pt").to(model.device)
with torch.no_grad():
    tokens = model.generate(
        **inputs,
        max_new_tokens=128,
        do_sample=True,
        temperature=0.7,
        top_p=0.9,
        repetition_penalty=1.05,
        pad_token_id=tokenizer.pad_token_id,
    )

output = tokenizer.decode(tokens[0], skip_special_tokens=True)
print(output)

ほぼさっきのsmallのコードで、「cyberagent/open-calm-small」が「cyberagent/open-calm-7b」に変わっているだけのようですが、

(1) 「os.environ["PYTORCH_CUDA_ALLOC_CONF"] = "garbage_collection_threshold:0.6, max_split_size_mb:128」"を付け加えている
(2) 「max_new_tokens=」の値を256ではなく、128にしてある

という2か所も変わってます。いずれも、4GBのGPUメモリーしか搭載してないうちの環境に合わせてます。

で、実行してみると、やはり7Bなので結構重いです。数分はかかる感じ。それでも、同じStableLM の7B(英語版)よりは早いですかね。
メモリーに関しては、メインメモリーは23GB程度ですが、GPUメモリー4GBを目いっぱい使ってくれちゃってます。

20230518-200357
トークン数を上げてると、この微妙なところでさまよっているメモリー使用量が振り切っちゃうみたいで、強制終了してしまいます。もうちょっとそれなりのGPUが欲しいところですね。

さて、smallと同じ書き出し文3つの結果を、以下に並べてみます。

「AIによって私達の暮らしは、」

AIによって私達の暮らしは、大きく変化しています。
そして今こそ人工知能研究の最前線に立ち向かう研究者達の物語とその先に見える未来をご紹介します。

「これからの日本の新しい経営の在り方は、」

これからの日本の新しい経営の在り方は、今のままではいけないと思っています。私は今までいろいろな仕事を経験してきましたが、仕事を通じて多くの人と知り合うことができました。その人たちから多くの知恵や気づきをもらいました。そして、人の力の素晴らしさを実感しています。これからは、これまで以上に様々な立場の人たちとの出会いを大切にし、互いに協力しあいながら未来を築いていきたいと考えています。そのために、常に世の中の変化に目を向け、変化に対応できる企業でありたいと思っています。そして、お客様や社会の期待に応えるために努力し続けることをお約束いたします。

「日本のアニメ文化の今後は、」

日本のアニメ文化の今後は、海外配信で稼ぐしかない。
『NARUTO』10月5日より新章突入!ついにカカシとサクラの因縁決着か!?うわあああああああ!!
「仮面ライダー電王」はイマジンと契約した時点で勝ち確定だったろ?それって誰得だよ・・・
ガンダムベース限定「νガンダムvsサザビー(宿命の対決セット)」発売開始!涙のラストバトルが再現されるぞ!!!
コピックのマーカーでよく飛びそうとか言われてた奴って何なの...? ←一応コレもアルコール由来ですwwwww

最後のはやっぱり、ガンダムですねぇ。草生えてますし。
トークン数を絞ってるのも悪いのかもしれませんが、短い文章が多いですね。それよりも、最初の2つはまるでコンサルティング会社の売り文句のようになっております。もしかして、拡販用、営業用の文章作成を狙って作られたAIなのかも?

とはいえ、StableLMの日本語版よりは自然な文章が返ってくる感じ。日本の経営云々の話をさせるなら、意外とsmallでも悪くありませんね。AIやアニメと言ったややニッチなは無しよりは、経営という比較的メジャーなキーワードに対して強そうな気がします。

ところでこのOpenCalmですが、ライセンスは「CC-BY-SA 4.0」というやつでした。
こちらのサイトによれば、

【保存版】意外と覚えづらいCCライセンスを一言で簡潔に説明しよう! | degitekunote2

ざっくり言うと「著作者の情報を表示しつつ、元のCCライセンスの継承だけは守ってね。商用利用と改変と再配布はOKだよ。」ということのようでした。著作者の情報表示が必要ですが、商用利用は可能なようです。

これをベースにした転移学習モデルを作れば、そこそこのものができるかもしれません。


Excel×ChatGPTでビジネスが加速する!AI仕事術: 「○○を教えて」だけじゃない!仕事に役立つ50の活用事例 (エクセル兄さん出版)

2023年5月14日 (日)

StableLMの日本語版(α版)がテスト公開中

先日紹介した、Stable Diffusionを作ってるStability AI社が公開したStableLMですが。

Stable Diffusionを作ったStability AI社が商用利用も可能で無料の文章生成AI「StableLM」を公開したので使ってみた: EeePCの軌跡

あれの日本語版が、ひそかにテスト公開されてます。

Stablelm Jp Alpha - a Hugging Face Space by leemeng

公開と言っても、モデルがダウンロードできるわけではなくて、お試しができるというだけですが。

ということで、早速使ってみた。

20230514-172000

見た目はこんな感じで、上の「プロンプト」の中に文章を書いて「実行」を押すと、その結果が下に現れるというもの。
横にパラメータ値の設定バーが並んでますが、デフォルトのまま、使ってみました。

ちなみにこの日本語版生成AIは制約がありまして、簡単に言うと質問文を投げかけても回答を返さないというもの。
例えば、

20230514-171610

とやると、こんな答えが。DX(デジタルトランスフォーメーション)とは、第2類医薬品だった!?

なんでも、文章の書き出し部分を書くと、その後ろを続けて書き上げてくれるというもののようです。なので、

20230514-171525

こういう書き方がよろしいようです。まあ、一応文章にはなってる??かと。

20230514-171657

中原中也の有名な一節で書き出してみました。
が、残念なことに、期待通りのものが出てきませんでした。うーん。

色々と遊んでは見ましたが、まだ完成度は相当低いですね。これからに期待しましょう。

Stability AI社といえば、最近は再びStable Diffusionにハマり始めてます。

具体的には、「Stable Diffusion WebUI」をメインPCで使うようになりました。自作小説用の挿絵を作らせているところです。

Stable Diffusionを4GB GPUで高解像画像生成!! | アットロードサイド

上のサイトが、役に立ちましたね。我が家のメインPCに搭載されているのはGeForce GTX1650Tiで、GPUメモリーは4GBしかありませんので。
メインメモリーが64GBあれど、そっちをあまり使ってくれません。
いつも思うのですが、KerasだとGPUメモリーが足りないときはメインメモリーの方を消費してくれる感じなんですけど、このPytorch系ってそういう融通が利かないというか、なんか微妙です。いいGPUを買えってことなんでしょうけどね。


ChatGPT 120%活用術

2023年5月13日 (土)

Google I/OにてGoogle Pixel 7aや生成AI Bardの日本語対応を発表

最近、Appleの発表よりこっちの方が面白いかも。

優れた機能満載の Google Pixel 7a - Google ストア

もう3日経ってしまいましたが、5/10に行われたGoogle I/OにてGoogle Pixel 7aなどが発表されました。

Google Pixel 7の廉価版という位置づけですが、CPU、メモリーには違いはなく、ストレージの容量が128GBしかないこと(7は256GBモデルもあり)、画面サイズが小さいことくらい、でしょうか。
画面自体は90Hzにも対応し、画面内指紋認証と顔認証の組み合わせ、ワイヤレス充電にも対応してます。
それでいてお値段は、Pixel 7よりも2万円安。あれ、もしかして、7aの方がお得?
と思いきや、少し微妙なところもある模様。

Google Pixel最新機種「Pixel 7a」のスペックを「Pixel 7・7 Pro・6a」「Galaxy A54 5G」と比較&海外・国内レビューまとめ - GIGAZINE

上のリンクのスペック比較表を見る限りでは、ベンチマークテストによってはPixel 6aよりも低い性能のものもあり。
まあ、めちゃくちゃ速くなった、というわけではないみたいですね。
ただ、この動画を見る限りでは、カメラなどの使い勝手が良さげな感触です。

個人的には、あのビビッドなオレンジが気になってます。なお、妻はiPhone 14の黄色の方が気になる模様。
といっても、62,700円ですからねぇ。10万越えのiPhoneから見たら、このスペックで結構頑張ってると思います。
Pixel 6aを使ってますけど、これでなんら不自由なしですし。

なお、世の中ではChatGPTが話題ですけど、Googleも自前の生成AIであるBardをアップデートしてきました。

グーグルの対話型AI「Bard」が日本語対応。「Google I/O 2023」新発表で見るべき5つのポイント | Business Insider Japan

日本語対応、だそうですね。
まだ使ってませんけど、私が見る限り使い勝手は上々という意見と、だめだこりゃという意見が飛び交っております。

もっとも、本質的でないところで炎上?しているようですが。

この発表時に使われた「日本語」のフォントが、うーん……となりますよね。いわゆる中華フォントですよ、これ。
もっと全方向に気を使ってほしかったですね。

それ以外にも、Google Pixel Tabletが発表されましたね。

手元でお手伝いしてくれる Google Pixel Tablet - Google ストア

スピーカー付き充電スタンド付き、11インチサイズのタブレットで79,800円。サイズと付属品を考えれば、まあ安いんじゃないですかね。

ただ、いまいち物欲が動かないのは、iPad辺りと比べてなんかすごい、というのがないからですかね。多分、ターゲットはProなんでしょうけど、一番安いiPadと比べてしまえば価格的に有利といえるほどでもないですし。

さらにGoogle Pixel Foldとなると、うーん、あれで25万か……ってなります。

そろそろ、スマホもコモディティ化してますよね。となると、要らん機能は取り除いて価格の安いものがチョイスされる時代。よほどの世界観がにじみ出た製品でなければ、10万以上は出せませんよね。そんな気がします。


Spigen Pixel 7a ケース クリア [ストラップ穴付き] TPU バンパーケース 2重構造 米軍MIL規格取得 耐衝撃 すり傷防止 黄ばみ無し ウルトラ・ハイブリッド ACS05817 (クリスタル・クリア)

2023年5月 3日 (水)

Yogiboのビーズを補充してみた

うちのYogibo Midiですが、買ってそろそろ1年半が経ちます。
さすがに最近はへたってきて、座ると横にびろーんと広がる感じ。安定性も悪いので、ビーズを補充することにしました。

Img_3197

で、買ってきたのはこちら。
左のが、補充用ビーズですね。750gで2,300円ほど。ちなみに右のやつは、なんとなく買ったピロー(枕)です。
ついつい、余計なものを買ってしまいます。

Img_3198

とりあえず、こいつをこのYogiboに突っ込みます。
ところで、ついでにこのYogiboのカバーを洗濯しました。今見えているのは中身です。

Img_3199

袋の表面に、ビーズの補充方法が書かれてます。

Img_3200

ざっくり言うと、袋の角を切って、このT字の部品を取り付け、Yogiboの中に口を突っ込んで流し込む。それだけのようです。

後で気づいたのですが、実はこの左右に広がる取っ手のような部分を、本来は補充ビーズの袋の外に出して、Yogibo本体にこれを突っ込むのが正しい姿。ですが、私はこれを補充袋の中に入れてしまいました。

おかげで、色々と大変な目にあいます。

Img_3201

という以前に、このYogiboのビーズには大いなる問題がありました。

静電気で、袋の表面にバリバリに引っ付いてるんです。いくら叩いても落ちない。これをカットしようものなら……

Img_3202

まあ当然、こうなります。ビーズがボロボロとこぼれました。これはもう、そういうものだと割り切るしかなさそう。

Img_3203

で、なんとか注ぎ口の部品をつけます。
(この時点で、実は間違ってました)

Img_3204

この作業だけで、これだけこぼれました。後で掃除するのが大変でした。が、これはまだ序の口。

Img_3205

Yogiboの本体についているファスナーですが、御覧の通り口金がありません。

Img_3206

こいつには、ビーズ購入時にもらったクリップを取り付けます。

Img_3207

が、こちらもやはり静電気により、袋の内側にびっしりとビーズが。これじゃあ、否応なしにこぼれます。

Img_3208

で、ようやくビーズを突っ込みます。
が、なんていうか、手ごたえがありません。一応、流れてはいるんですが、袋の透明部分が少ないし、何よりも静電気でびっしりとビーズがついてて、その透明部分からも中身がよく見えません。が、ここは根性で流し込みます。
今にして思えば、注ぎ口の部品の付け方を間違えたことが、なかなか流れなかった原因だったのかも。まあ、今となっては後の祭りです。

Img_3209

とはいえ、何とか流し込み終えました。多少は残りますが、静電気を完全除去しない限りは無理です。はい。

Img_3210

残骸は御覧の通り。掃除機でガンガンと吸い込みました。足の裏について、他の部屋や廊下にまき散らすので、徹底的に吸い込みます。

Img_3211

想定以上に大変な詰め込み作業でしたが、そうこうしているうちにカバーが乾きました。

Img_3212

で、何とか詰め込むと、まるで新品のようないで立ちっぷり。

Img_3214

実際、座り心地はかなり改善されました。うん、やっぱり今までのはかなりへたってたんだなと実感します。

Img_3215

ついでに買ってきたあの枕もお試し。
Yogibo Midiって、ちょっと長さが足りなくて、頭の部分が支えられないんですよね。これがあれば、ちょうどいい塩梅に支えてくれます。

これであと1年半は、持ちますかね。

Yogibo Midi ヨギボー ミディ ネイビーブルー 【受注生産品】

2023年5月 2日 (火)

一脚的な三脚を購入

いきなり余談からスタートですが、実は最近、海鮮丼にハマってます。

Img_3177

これは、近所のららぽーとに入っている「魚錠」というお店の「北海丼」です。お値段、1380円。値段の割には上々な一品。優しい酢飯、脂ののったサーモンや食べ応えのあるエビなど、そこそこいいネタです。
で、海鮮丼にハマった理由というのが、「トミック」というYouTuberのチャンネルです。ここ最近は市場巡り、海鮮丼巡りをしてます。

すごくおいしそうに、そして具体的にその味を伝えてくれるので、これらの動画を見た後になぜだか海鮮丼が食べたくなります。
ちなみに、日本全国を回っていらっしゃるので、ご近所が紹介されているかも。愛知県も何度か出てました。
なお、年内に登録者数200万人を目指しているらしいので、気に入った方はぜひ、チャンネル登録を。

という具合に、最近はYouTubeの影響をもろに受けている私ですが、とあるYouTuberが紹介していた三脚的な一脚が気になり、買ってみました。
(ちなみにそれを紹介していたのはトミックさんではありません)

Img_3178

この通り、一脚と、小型の三脚がセットになったものが届きました。

Img_3179

要するにこの両者は合体できるんですが、とりあえずはこのミニ三脚から。

ミニと言っても、立派な雲台を備えたそれなりのもの。足を延ばせば大体30センチくらいにはなります。

Img_3180

ちなみにこの雲台、こんな感じに変形して

Img_3182

スマホホルダーにもなります。ちょっとホールド性に不安はあるものの、一つで二役な雲台がついてます。

Img_3183

なお、この雲台をミニ三脚から外そうとしたら、ハンドル部分まで取れてしまいました。これ、簡単に取れてしまいます。

Img_3184

で、合体。もちろん、上の一脚部分だけでも使えるんですが、やっぱりちょっとした支えがあると便利には違いありません。

この支え部分の狭さが、とあるYouTuberさんには使い勝手が良かったようです。あまり場所を取りませんから、撮影の自由度が増します。

Img_3187

で、さらに伸ばしてみます。

高さは最大でなんと170センチ。私の背丈ほどもあります。

上にNikon COOLPIX B500をつけてますが、わりと安定してます。といっても、やっぱり手で補助するに越したことはありません。

Img_3188

なお、今まで使っていた三脚と並べてみました。

これまでのは120センチで、脚の広がりはやや多め。この新しい一脚的三脚の方が、支えの範囲が狭いことが分かるかと思います。

手で支えるのが前提ならば、脚の広がりを狭めても使えます。上がスマホならばなおのこと、狭い支えでも使えるでしょうね。

Img_3189

ちなみに、折りたたんだ状態はこう。

よく見たら、一脚の方はもう少し縮められますね。ですがやっぱり、ちょっと長い。

Img_3190

が、ここまでばらしてやればかなりコンパクト。

Img_3191

ちなみに、一脚用のゴム足もついてます。三脚部分を使わないのなら、これをつけておくのがいいでしょう。

で、これを買った理由というのは、実はNikon COOLPIX B500を買ったからというわけではありません。

最近、個人的なつながりでリモートの中継を頼まれることがあって、その際に自立できる自撮り棒を使ってたんですが、やっぱりちょっと短いなぁと思ってまして。

かといって、三脚だと場所を取り過ぎるため、使いにくい。

で、そんなときにこの一脚的な三脚の存在を知って、買ってみた次第です。

もちろん写真撮影にも使えるので、無駄にはならないですし。

今後の活躍に、期待したいところですね。


三脚 カメラ 三脚 ビデオカメラ スマホ三脚 一脚可変式 三脚 一眼レフ 7段階伸縮 ミニ三脚 コンパクト 軽量 3WAY雲台 360回転 収納袋付き 旅行用 持ち運びに便利 258

 

2023年5月 1日 (月)

AI版「ポートピア連続殺人事件」を完走してみた

先週、4月24日にリリースされたAI版「ポートピア連続殺人事件」を早速ダウンロードしてみました。

20230424-205610

ちなみにこのゲーム、いきなり評価が低い模様。

まあ、やってみればよく分かりますが、このゲーム、会話式というよりはコマンド入力式のアドベンチャーゲームです。

AIにより、自然な会話ができる……と期待してかかると、えらい目にあいます。ちょっとやってみた感覚では、1980年代のコマンド入力式のAVGが多少マシになった程度。

というのも、本来ならばChatGPTのように何らかの会話に対して生成AIがそれなりの答えを返してくれるもの、と思いがちですが、このゲームのシステムはそうはなっておりません。

受け付けられない文章には「うーん……」「ボス、操作に専念してください」的な定型文を返されるだけで、会話として成り立っておりません。

そういう意味では1980年代、まだ8ビット機が全盛だった時のアドベンチャーゲームと割り切った方がよさそうです。

で、私もその成り立たない会話に苦しんだのですが。

以下のYouTube動画を参考に、クリアしました。

詳細は上の動画に譲るとして、ここでは少しかいつまんで紹介。

20230424-205704

ゲーム開始。場所は花隈町。なお1983年、なはずですが、なぜか今どきの軽自動車、そして2017年に発売されたジャパンタクシーがなぜか道路を走っており……いや、細かいことは無視しましょう。

20230424-205743

現れたのは、間野康彦、通称「ヤス」。コナン君でなくても犯人はバレバレなわけですが、ここではさすがに馬脚を現してはくれません。

てことで、捜査を続けます。

20230430-134021

殺された山川耕造の屋敷にはよく来ます。どういうわけか、電話をかける時はこの応接間がほとんど。捜査本部に電話はないのか?と聞きたくなるほど、電話をかけるためにここへやってくることになります。

20230430-134219

捜査が進むと、なぜか神戸港へやってきて、しかも淡路島の洲本港へやってくることに。

聞き込みをしてみますが、何にも得られません。なんでこんなところにやってきたのか?

こういう唐突な展開、すごく多いです、このゲーム。捜査本部に戻るや、いきなり証言が得られたり、電話番号を教えられたり、云々。

20230430-134328

容疑者の一人である俊之のアパートで、古のプッシュダイヤル式電話機の下にいかにも怪しげなメモが置かれてます。グラフィックがきれいすぎるために、このメモの置き方があざとい。

ちなみに、ここに出てきた「こめいちご」だけは、この部屋の電話でしかかかりません。

20230430-134340

なお、電話のかけ方は「*15」と打ち込んだらかかります。

こんな調子で、一人ひとり容疑者をつぶしていきます。

20230430-134531

ちなみにこの俊之は、事件の日時に麻薬の取引をしていたため、うその証言をしていたことがさっきの電話をかけたことで判明します。

判明するんですが……

20230430-134554

その解決策が、なんと「殴る」。二度殴ると、履いてくれます。昭和ですねぇ。

20230430-134712

同様に、この屋敷で働いていたというこの小宮という男も

20230430-134737

殴りつけてアリバイを吐かせます。

別に犯人というわけではなく、事件のその日に鍵をかけ忘れており、それがために犯人として疑われるのを恐れていた、という証言が出てくるだけです。

20230430-135144

電話をかけるシーンがあるんですが、このスナックぱるというところにかける際は、素直に判明した電話番号をかけるんですが

20230430-135559

紛らわしいのはこの京都にある寺田屋旅館にかける時は、京都の市外局番である「075」をつけないとダメでした。

そんなこと、わかるかい。

20230430-135635

ちなみに、その寺田屋旅館から得られた平田という男の行き先に行ってみたら、何と首をつって死んでいました。

で、そこで唐突にヤスが「捜査を止めろと命令してください」と言ってきます。

もちろん、やめるわけにはいきません。犯人は別にいる!わけですから。

20230430-140105

この新劇に勤めている、川村という男を知るおこいと言う女性が出てきます。

それなりに重要なフラグを立ててくれるんですが、ところでこの「新劇」というのがこれまたとんでもない意味の……80年代には、この言葉って常識だったんですかね?

20230430-140503

で、その川村という男も死んでいて、また捜査を止めろと言ってくるヤス。いや、川村が犯人というには証拠不十分過ぎるでしょう。

焦るヤスに構わず、捜査は続きます。

20230430-140702

どうでもいいですが、随分と昔にいなくなったとされる兄妹のお兄さんの肩に蝶々のあざがついてるなんてこと、どうしてご近所さんが知ってるんですかね?

20230430-140943

その後、なぜか地下室で叫ぶと日記帳の入った隠し金庫が見つかり

その日記帳には、かつて詐欺でだました相手への罪滅ぼし的なことが書かれていて、その相手というのが先の兄妹で……

20230430-141034

そして最後に、捜査本部にてヤスに「服を脱げ」と命じます。

別に、こいつがその兄妹の兄だなんて読める話はなかったんですけどねぇ。

20230430-141049

ですが、あっさりと判明します。で、さらにこいつが犯人だとつらつらと自白し始めます。

20230430-141059

ちなみに、妹の文江もタイミングよく登場。

要するに、兄妹共々捕まったということでしょうね。

20230430-133432

最後に、あっさりとしたエンディングが。

ざっくりと通した感想ですが。

グラフィックは綺麗ですね。というか、写真を使ってるところが多い気もしますが。

おそらくファミコン版をベースに作ったと思われるストーリーのようですね。といっても、地下迷路まではなかったです。

ただ、ファミコン版ではコマンド選択式だったのに対して、こちらは入力式。いくらAIで表現の揺れを吸収できると言っても、およそ満足できるものではないです。ただ、これはまだ初期版とのことで、今後さらに精度アップや機能拡充が図られるようです。そういえばこのゲームはAIの技術デモとしてリリースされたものですし。

今見るとツッコミどころ満載なゲームでしたが、でもまあ、懐かしい内容でした。再び出会えてよかったかな、というのが素直な感想です。しかも、無料で。

こんな感じで「オホーツクに消ゆ」もリリースして欲しいなぁ。ニポポ人形の謎に、もう一度触れてみたい。


往年の名機&名ソフト大集結レトロゲームときめきノスタルジア

« 2023年4月 | トップページ | 2023年6月 »

無料ブログはココログ

スポンサード リンク

ブログ村