« 2023年3月 | トップページ | 2023年5月 »

2023年4月28日 (金)

VAIO type P復活か!?

小型PCへの情熱がほぼ失いかけている今日この頃ですが、とはいえ、Surface Goあたりを愛用しているわけで、完全にその「心」が消滅したわけではありません。
なればこそ、このニュースにビビッと来るんでしょうね。

VAIO P復活!? リファービッシュPCと周辺デバイスで「VAIO第2章」スタート:スクープ! - ITmedia PC USER

なんと「VAIO P復活」という文字が躍っております。この辺りでテンションが上がる御仁は多いのではないでしょうか?
曰く、尖った製品を出したいとの意向がVAIO側にはあるようで、その中に「VAIO P」という言葉が飛び出したようです。
ブログのタイトルには、あえて「VAIO type P」と書いてますが、それは私がVAIO type Pを使っていたからなのですが。

VAIO type P来ました!!: EeePCの軌跡

あれを入手した時の興奮は、今でも忘れられません。やはりデザインがいいですよね、デザインが。
似たような製品は、現在でも売られてはいる(GPD Pocket4等)のですが、なぜだかあれに惹かれることはあまりないですね。何か、吸引力が足りません。

やはり、デザインの力なのでしょう。

もっとも、パワーがなさ過ぎて手放してしまったのですが、あれがサクサクと動くなら今でも使いたいと思えるほどのそんなPCでした。
やっちゃってくれませんかねぇ、VAIOさん。

【 カメラ内蔵 持ち運び便利 13インチ office搭載】VAIO ノートパソコン windows11 VJS131C11N Core i5-6世代 メモリ8GB 高速SSD 《MS Office2019/カメラ内蔵/リカバリー用USB64GB/ZEROセキュリティ》 (整備済み品) (SSD 1TB)

2023年4月22日 (土)

AI版「ポートピア連続殺人事件」が24日にSteamにてリリース

「犯人はヤス!」で有名(?)な「ポートピア連続殺人事件」が、なんとAIを引っ提げて帰ってくるというニュースです。

ファミコンの傑作ADV『ポートピア連続殺人事件』が最新AIを搭載しPCで無料配信! 言葉を入力すると相棒のヤス(AI)が意図を汲んで捜査してくれる。すごい | ゲーム・エンタメ最新情報のファミ通.com

週明けの月曜日、4月24日にスクウェア・エニックスからリリースされるとのことです。

1983年に発売されたポートピア連続殺人事件は、元々はPC版で、カタカナ入力にて「キキコミ シロ」のような決まったコマンドを入力するというもの。それがファミコン版ではコマンド選択式に変わります。私がやったのは、このファミコン版でしたね。

なお、その後に同系列の「オホーツクに消ゆ」があったんですが、あれもなかなか面白かった。友人が持っていたMSXでやった覚えあり。

ところでこのポートピア連続殺人事件ですが、どうやら”自然言語理解”AIを体験するためのソフトという位置づけのようです。このため、無料で配布という太っ腹ぶり。

ですが、全然手を抜いておりませんね。このグラフィック。なかなかです。

リリースされたら、入手してみようかなと。

考えてみたら、ChatGPTなんてものがリリースされるような世の中で、アドベンチャーゲームなるものはほとんど見かけませんね。
今なら自然な会話でゲームを進められるというのに、もったいないことです。

このポートピア連続殺人事件をきっかけに、また盛り上がってくれるといいんですが。

グラフィックやインターフェースが大幅に変わりましたが、やっぱり犯人はヤスなんですかね?

甦る 至上のアドベンチャーゲーム大全 Vol.1

2023年4月20日 (木)

Stable Diffusionを作ったStability AI社が商用利用も可能で無料の文章生成AI「StableLM」を公開したので使ってみた

2週続けて商用利用可能な無料のLLMが公開されているので、こりゃあ今週もまた出てくるんじゃないのかと冗談で話していたんですが。

まさかまさかの、本当に出てきました。

しかも今度は、あのStable Diffusionを作ったStability AI社による言語モデル「StableLM」です。

Stability AI 言語モデル「StableLM Suite」の第一弾をリリース - (英語Stability AI

今のところ、後悔されているのは30億、70億パラメータのモデル(3B、7B)のみのようですが、いずれ650億パラメータのモデルなんかも出てくる模様。

てことで、早速Githubからこいつのコードを入手して実験。

GitHub - Stability-AI/StableLM: StableLM: Stability AI Language Models

と、行きたかったのですが、ここのコード(Jupyter notebook形式)そのままでは、GPUメモリーが不足してますエラーが出て、まるで動きません。

で、すったもんだした挙句、以下のようなコードを作成。

「stableLM_7B.py」


from transformers import pipeline
import torch
import os

os.environ["PYTORCH_CUDA_ALLOC_CONF"] = "garbage_collection_threshold:0.6, max_split_size_mb:128"

model = "stabilityai/stablelm-tuned-alpha-7b"

text = "How can AI be used effectively?"

pipe = pipeline(model=model,torch_dtype=torch.bfloat16,
                trust_remote_code=True,device_map="auto")
generated_text = pipe(text, max_length=128, do_sample=False, no_repeat_ngram_size=2)[0]
print(generated_text['generated_text'])

一つ工夫しているところがあって、「os.environ["PYTORCH_CUDA_ALLOC_CONF"] = "garbage_collection_threshold:0.6, max_split_size_mb:128"」という行で、GPUメモリーが不足するのを防いでます。

20230420-205302

なお、実行中のタスクマネージャーはこんな感じ。

70億パラメータですから、メモリー的には余裕があります。GPUを除いて。

これでなんとなく動くのですが、毎度の質問文「How can AI be used effectively?」に対しては、以下のような回答が返ってきます。

You can start by defining what AI is. Is it a machine that follows instructions? Is a human mind? How can it be both? What is the difference between a computer program and a general AI? These are some of the questions that need to be answered before we can begin to explore how AI can be useful.

One of AI's biggest challenges is that it is difficult to define what makes an AI "good" or "bad". It is a very subjective question. What makes something "artificial intelligence" is also subjective. Some people consider AI to have no value, while others

(Google翻訳)

AI とは何かを定義することから始めることができます。 指示に従う機械ですか? 人間の心ですか? どうすれば両方になることができますか? コンピュータプログラムと一般的な AI の違いは何ですか? これらは、AI がどのように役立つかを探求し始める前に、答える必要があるいくつかの質問です。

AI の最大の課題の 1 つは、何が AI を「良い」か「悪い」かを定義するのが難しいことです。 これは非常に主観的な質問です。 何かを「人工知能」にするのも主観的なものです。 AIに価値がないと考える人もいれば、

悪くない内容です。が、よく見ていただくと分かりますが、文が途中で終わってます。

おそらく、コード中の「max_length=128」を大きくすれば行けるかもしれませんが、この数値を大きくすると、GPUメモリー不足のエラーで落ちます。

残念ながら、我が家の環境ではこれ以上の数値を受け付けそうにありません。

が、70億パラメータ程度でこの文章。なかなか侮れない結果です。

画像生成AIの方(Stable Diffusion)はもはや画像生成AIの標準とまでなりつつある状況ですが、このStableLMも流行るんでしょうか?

ファインチューニングによる独自のモデルを作れるならば、これも流行りそうです。


週刊東洋経済 2023/4/22号(ChatGPT 仕事術革命)

2023年4月18日 (火)

ChatGPTを使う上でやってはいけないこと3つ

最近、ChatGPTを使うか使うまいか、という議論をよく見かけます。

企業によっては禁止しているところもあるんですが、ストレートに言えば禁止は「不可能」でしょう。

今やスマホを持ち歩く時代、たとえ会社のPCが生成系AIにアクセスできないとしても、その手元のスマホから打ち込んでしまえば使えてしまいます。文書丸々は無理でも、機密用語や個人情報を含む文章を書き込むことくらいはできてしまいます。

イタリアのように国ごと禁止されているところならばまだしも、ここ日本ではOpenAIのサイトにつながってしまいますから、使うなと言うのは無理な話です。

ということで、業務利用に関して禁止ではなく、あるルールをもって利用可とするところが出てきている模様です。

ChatGPTを利用する際にやってはいけない3つのこと - ITmedia Mobile

そんなルールの参考となりそうなのが、この記事です。

大雑把に言うと「機密情報や個人情報を書かない」「内容をうのみにしない」「依存しすぎない」の3本です。

一つ目は当然ですが、二つ目のうのみにしない、というのは、やっぱりChatGPTはよく「嘘」を吐くからということが背景にあります。

なにしろ、ChatGPTから宇宙戦艦ヤマト2199の艦長は「古代進」だと告げられた人もいましたから(お……沖田艦長……)。

あと、差別用語やモラルのない文章をつくることもあるようです。作らせた文章を何かに用いる際は、それを受け取った人がしっかりと吟味する必要がある、ということですね。

三つめは、今のところ無料でも使えるChatGPT、Bingチャットですが、利用頻度の増加に伴って有償化されていく可能性があります。

いつまでも無料で使えるわけではないから、注意しましょうという意味のようです。

新しいものに嫌悪感や恐怖感から、それを禁止したくなるという気持ちは、分からないでもありません。

が、一度開けられてしまったパンドラの壺は、もはや閉じられることはないのです。

うまく付き合っていくしかないですね。


生成AI ビジネスを変えるAIの想像力

2023年4月16日 (日)

無料で商用利用可能でわりと賢い?生成系AI「Dolly 2.0」を試してみた

LLM(Large Language Models)の世界では、週単位で新しいモデルが出てくる時代ですねぇ。

つい先日、「一般PC上で商用利用も可能な動き文章生成AI「Cerebras-GPT」を動かしてみた: EeePCの軌跡」という記事を書いたばかりだというのに、そのわずか二日後にはこんな記事が出ておりました。

無料・商用利用可なオープンソースの大規模言語モデル Dolly 2.0(dolly-v2-12b) を試してみた - Qiita

無料で商用利用も可能なオープンソースの大規模言語モデル「Dolly 2.0」をDatabricksが発表 - GIGAZINE

databricks/dolly-v2-12b · Hugging Face

Dolly 2.0というモデルで、これも商用利用が可能なものとして配布されております。

どうやらOpenAIがInstructGPTの13000個の命令、回答セットで学習したということから、このDolly 2.0は15000個ものDatabricks従業員の間でクラウドソーシングされたデータセットを使って学習したものだそうです。
ちなみに、この15000個のデータセットもCreative Common 3.0ライセンスの元で公開されているんだとか。

データセットすらも公開、そんな太っ腹感のあるDolly 2.0ですが、早速使ってみました。

上のQiita記事にサンプルのコードが載ってますが、ブラウザで使うものであるため、コマンドオンリーなコードに直しました。
(dolly2.0-12B.py)


from transformers import pipeline
import torch

model = "databricks/dolly-v2-12b"

text = "How can AI be used effectively?"

pipe = pipeline(model=model,torch_dtype=torch.bfloat16,
                trust_remote_code=True,device_map="auto")
generated_text = pipe(text).replace(".",".\n")
print(generated_text)

Cerebras-GPTの時と比べたら随分と短いコードです。
パラメータ数は、このDolly 2.0で最大サイズのモデルである12B(120億パラメータ)をいきなり使ってみました。
これ、結構使えるコードです。なにせ、4GBしかメモリーを積んでいない我が家のノートPC(GTX1650Ti)でも、GPUが使えます。肝となるのは「torch_dtype=torch.bfloat16」と「device_map="auto"」というやつのようです。

とまあ、そんな話は置いておき、動かしてみます。
なお、ライブラリについては、Cerebras-GPTと同じでOKでした。

> python dolly2.0-12B.py

と、上のコードを直接実行します。

20230416-195446

最初は、24GBほどのモデルをダウンロードし始めます。

なおこのモデルは「C:\Users\(ユーザー名)\.cache\huggingface\modules\transformers_modules\databricks\dolly-v2-12b」に入ってました。
で、一旦落とすと、あとはそれを使い続けます。

20230416-195701

メモリーの使用量が、めちゃくちゃ少ないです。せいぜい40GB程度。代わりにGPUの負荷が高い。
そうそう、日本語は使えないので、相変わらず英語で尋ねるしかありません。

さて、Cerebras-GPTでも尋ねた「How can AI be used effectively?」(AIの効率的な活用法は?)の回答ですが、

AI can be used to automate human tasks, but it is important to understand the limitations of AI. It cannot replace human intuition, common sense, or expert knowledge, and it must be trained on large amounts of data to be effective. For example, recent studies have shown that machine translation algorithm tend to generate nonsensical sentences that fail to parse, and image recognition algorithms perform much better on images of people than animals.

(Google翻訳)
AI は人間のタスクを自動化するために使用できますが、AI の限界を理解することが重要です。 人間の直感、常識、または専門知識に取って代わることはできず、効果を発揮するには大量のデータでトレーニングする必要があります。 たとえば、最近の研究によると、機械翻訳アルゴリズムは解析に失敗する無意味な文を生成する傾向があり、画像認識アルゴリズムは動物よりも人の画像に対してはるかに優れたパフォーマンスを発揮します。

うん、まあまあの回答ですね。

さて、前回尋ねた「スリランカの首都は?」の回答は、そっけなく「首都はコロンボ。」とだけ返ってきました。いやそれ、かなり昔の話ですよ。

その代わりに、Cerebras-GPTでは回答がぶっ壊れた質問を投げかけてみました。

Please list three measures to revitalize an organization that has been idle for many years.
(長年、人の動きのない組織を活性化させるための施策を3つ挙げてください。)

業務的なネタで、こんな質問をしてみました。その回答ですが、

1. Re-skill the employees in new technologies.
2. Assign new projects and start-up initiatives to develop-in-house.
3. Host external workshops and conferences.

(Google翻訳)
1. 従業員に新しいテクノロジーのスキルを再教育します。
2. 新しいプロジェクトとスタートアップ イニシアチブを社内開発に割り当てます。
3. 外部のワークショップや会議を主催する。

ChatGPTほどではありませんが、なかなかに的確な回答です。

さらに調子に乗って、こんな質問まで投げてみました。

Create a plot for a story in which a single scout ship struggles alone.
(偵察艦が孤軍奮闘する物語のプロットを作成して)

で、その回答。

Far beyond the farthest star, a lone scout ship orbits the Galaxy.
Its crew, exhausted from years of deep space travel, marks the long stretches of white light ahead as they grow closer.
But it's not enough to simply light up more areas of space; the crew wants to ensure someone will find them, that they will not be alone in the vastness of space.

As the ship approaches a small system, they greet a new resident: a large, amicable planet with a single moon and an indomitable gravitational pull.
The new arrival is thrilled to have visitors, and the crew is ecstatic to have found a friendly face in the vastness of space.
They spend years getting to know the new residents of Planet Blue, and in time they learn to speak its language.

But Planet Blue is not what it seems.
Beneath its gentle exterior, it hides a deep darkness.
And the crew of the scout ship knows deep space is a harsh teacher, and a harsh master.
As their time with Planet Blue begins to dwindle, they begin to see the darkness within.
And they begin to wonder if they made a mistake in coming here.

Planet Blue is not alone, and it never has been.

(Google翻訳)
最も遠い星のはるか彼方、銀河系の軌道を一隻の偵察船が周回しています。
その乗組員は、何年にもわたる深宇宙旅行で疲れ果てており、接近するにつれて前方に長い白い光が広がっていることを示しています。
しかし、より多くの空間を照らすだけでは十分ではありません。 乗組員は、誰かが彼らを見つけて、広大な宇宙で一人にならないようにしたいと考えています。

船が小さな星系に近づくと、彼らは新しい居住者を迎えます。それは、単一の月と不屈の引力を持つ大きく友好的な惑星です。
新しい到着は訪問者を迎えることに興奮しており、乗組員は広大な宇宙で友好的な顔を見つけて有頂天です.
彼らは何年もかけて、プラネット ブルーの新しい住民と知り合いになり、やがてその言葉を話せるようになります。

しかし、プラネット ブルーは見た目とは異なります。
優しい外見の裏に、深い闇を秘めている。
そして、偵察船の乗組員は、深宇宙が過酷な教師であり、過酷なマスターであることを知っています.
プラネットブルーとの時間が減り始めると、彼らは内なる闇を見始めます.
そして、彼らはここに来て間違いを犯したのではないかと考え始めます。

Planet Blue だけではありません。

なんか最後の一文だけしまりがありませんが、パッと見た目にはよさげな文章です。
(よく読むと、ちょっと支離滅裂感はありますが)

感触としては、Cerebras-GPTよりも賢い気がします。
おまけに、低メモリーなGPUボードでも動く。

ただ、この生成AIは生成時間が不安定でした。

一つ目の質問には5分以内に返ってきたかと思えば、最後のプロットを作ってというやつは20分以上もかかりました。

答えの長さによって、計算時間が変わるんでしょうか?いまいち、挙動がつかめません。

やや不安感を覚える生成系AIですが、今後の発展に期待です。


先読み!IT×ビジネス講座 ChatGPT 対話型AIが生み出す未来

2023年4月11日 (火)

一般PC上で商用利用も可能な動き文章生成AI「Cerebras-GPT」を動かしてみた

いよいよ64GBメモリーが、フル稼働します。

実はメモリーを増設した理由は、文章生成AIを動かしたかったから、なのです。

ChatGPT登場以来、この手の生成系AIが注目されつつありますが、ほぼすべて外部クラウド上にあるものばかりで、いわゆるオンプレミス環境で動かせるものがありません。

これって、結構多くの企業・団体に警戒されてます。クラウド上に間違って機密情報を打ち込んだら、それを利用されてしまうのではないか?と考えるも当然です。

ちょっと違いますが、実際にGithubあたりでプログラムコードを入れると年収診断をしてくれるというので、とある銀行にあるシステムのソースコードを放り込まれてしまった、という事件がありました。あれと同じことをやられてはたまらない、と考えるのも無理はありません。

もっとも、ChatGPTには他に、正しい文章を返してくれるとは限らない、AIに依存して考える力が損なわれる……など、いくつも課題はあるのですが。

と、そんなわけでして、オンプレ環境下で動かせる文章生成AIがあれば、その懸念の一つは消せるんじゃないかと思い、ちょっと探ってました。

で、行きついたのがこの「Cerebras-GPT」です。

cerebras (Cerebras)

名前こそ”GPT”とついてますが、一応関連性はない模様……のはず。

というのも、このcerebras-GPTはオープンソースでモデルが航海された、商用利用も可能なApache 2.0ライセンスなAIだからです。

ちなみにモデルは7種類あって、111Mから13Bまであります。

これはパラメータサイズを現しているようで、Mは百万、Bは十億という意味なので、つまりは1.11億~130億パラメータのモデル、ということになります。

参考までに、GPT-3は1750億、GPT-4は百兆と言われているので、桁が随分と違います。

それはともかく、早速こいつを動かしてみることにしました。

参考にしたサイトは、以下。

SageMakerノートブックでオープンソースの大規模言語モデルCerebras-GPTを試してみた | DevelopersIO

なお、このAIはかなりメモリーを食います。最大モデルの13Bを動かすには、最低でも64GBが必要。
また、動作には2つのライセンス、pytorchとtransformersを予め導入しておく必要があります。
(ちなみにうちでは、Windows版Python 3.10上でpytorch 1.12.1で動かしてます)

それらが導入済みという前提で、話を進めます。

まずは上のサイトを参考に、以下のようなコードを「cerebrasgpt_6.7B.py」という名前で保存します。

from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
import torch

tokenizer = AutoTokenizer.from_pretrained("cerebras/Cerebras-GPT-6.7B", cache_dir="./cache")
model = AutoModelForCausalLM.from_pretrained("cerebras/Cerebras-GPT-6.7B", cache_dir="./cache")

text = "How can AI be used effectively?"

pipe = pipeline("text-generation", model=model, tokenizer=tokenizer, device=torch.device("cpu"))
generated_text = pipe(text, max_length=300, do_sample=False, no_repeat_ngram_size=2)[0]
print(generated_text['generated_text'])

いきなり13Bではなく、6.7Bから動かしました。なお、メモリーサイズのしょぼいGPUしかついてないため、CPUで実行するよう「device=torch.device("cpu")」としてあります。ここを"gpu0"と変えるとGPUが使えるみたいですが、結構なGPUメモリーがいるようなので、うちでは設定不可能です。
4、5行目の「Cerebras-GPT-6.7B」の6.7Bの部分を変えると、他のモデルも読み出せるというものです。
(111M、256M、590M、1.3B、2.7B、6.7B、13B が入ります)
そして7行目の「text = 」の後ろに、いわゆるプロンプトを入れるようになってます。
日本語も受け付けるみたいですが、あまり反応が良くないらしいので、とりあえず「AIの有効な活用法は?」を英語で尋ねます。
このコードのあるフォルダに、予め「cache」という名前のフォルダを作っておきます。ここにモデルがダウンロードされます。

では、動かしましょう。

Windows PowerShell上でこのコードを入れたフォルダに移動した後、

> python cerebrasgpt_6.7B.py

と打ち込むと実行。

20230410-192328

初回実行時のみ、モデルのダウンロードが始まります。
6.7Bだと、モデルのサイズは26GBほどあります。結構時間かかりますね。

20230410-200843

不安になるほど、メモリーがゴリゴリと消費されていきます。6.7Bで58GB!?

20230410-200903

が、しばらくするとMAX-Q(最大動圧点)を超えたのか、一気に下がります。

が、この辺からCPUの負荷が上がります。だいたい70~80%ほど。

しばらくすると、返答が返ってきました。返ってきた文は、以下。
(改行なしの読みにくい文章が返ってくるので、適当に改行してあります)

AI is a powerful tool that can be applied to a wide range of problems.
It can help to improve the quality of life for people, and it can also be a great tool for businesses.
The key to using AI effectively is to understand the problem you are trying to solve, the data you have, how you want to use the AI, what the limitations are, etc.
Then you can decide how to apply AI to your problem. For example, if you wanted to predict the weather, you would need to know the location of the sensors, which would require a lot of data.
If you were trying solve a problem like fraud detection, it would be better to train the model on a large amount of historical data, rather than on the current data from the sensor.
The key is that you need a good understanding of your data and how it is structured.

(Google翻訳)
AI は、さまざまな問題に適用できる強力なツールです。人々の生活の質を向上させるのに役立ち、ビジネスにとっても優れたツールとなります。
AI を効果的に使用するための鍵は、解決しようとしている問題、所有しているデータ、AI をどのように使用したいか、どのような制限があるかなどを理解することです。
その後、問題に AI を適用する方法を決定できます。たとえば、天気を予測したい場合は、センサーの位置を知る必要があり、これには大量のデータが必要になります。
不正検出などの問題を解決しようとしている場合は、センサーからの現在のデータではなく、大量の履歴データでモデルをトレーニングすることをお勧めします。
重要なのは、データとその構造をよく理解する必要があるということです

うん、まあまあ賢いんじゃないですか?

なお、日本語で尋ねたら「英語版は有償になります」みたいな支離滅裂な回答が返ってきました。意味わかんない。。。

てことで、いよいよ最高峰モデルである13Bにチャレンジです。

上のコードの「6.7B」のところを「13B」に変えるだけなんですが、初回実行時は、

20230410-211132

なんと、2つのモデルをダウンロードし始めました。1つ目が29GB、2つ目が21GB、約50GB。

これを落とすだけで1時間は待たされました。

20230410-214206

で、ようやくダウンロードが終わったかと思えば、今度は「Loading checkpoint……」などといいつつ、さっきは見なかったインジケータを表示されます。ここでおよそ8分、待たされます。

20230410-214111

この時がどうやらこのモデルの最大メモリー使用量のようで、マウスカーソルすらまともに動きません。
64GBどころか、スワップして78.9GBまで達してます。
そんな状態が8分ほど続くんですが、それ以降は60GB以下に落ちます。が、今度はCPUパワーが8割ほどに上昇。

そして、ダウンロードが完了してから、およそ14分後。

ようやく、回答が表示されます。

AI is a powerful tool that can be applied to many different industries.
It can help businesses to improve their efficiency and productivity.
The most common use of AI is in the field of data analytics. Data analytics is the process of extracting information from data.
This information can then be analyzed to help companies make better decisions.
AI can also be useful in other industries, such as healthcare, finance, and retail.
For example, AI could be helpful in helping retail stores to better understand their customers.
In healthcare AI may help doctors to diagnose patients more accurately.

(Google翻訳)
AI は、さまざまな業界に適用できる強力なツールです。企業が効率と生産性を向上させるのに役立ちます。
AI の最も一般的な用途は、データ分析の分野です。データ分析は、データから情報を抽出するプロセスです。
この情報を分析して、企業がより適切な意思決定を行うのに役立てることができます。
AI は、ヘルスケア、金融、小売などの他の業界でも役立つ可能性があります。
たとえば、AI は、小売店が顧客をよりよく理解するのに役立つ可能性があります。
ヘルスケアでは、AI は医師が患者をより正確に診断するのに役立つ可能性があります。

先ほどと同じ質問ですが、どうですかねぇ……確かに6.7Bよりは人間らしい文章になった気もしますけど。

ちなみに、13Bに日本語で尋ねたら、こう返ってきました。

AIの有効な活用方法は?

・自分の記憶を書き換えること
・投稿する人のみに追加すれば良い
- 友達のコメントを貼って欲しい人を選ぶ

14分待ってこれです。もぅ、意味わかんない……大あんまき食べよぅ。
つまり結論としては、日本語では使えないってことですね。

とまあ、使えるんだか使えないんだか、よく分からない生成系AIということが分かりました。

いろいろと試したんですが、こいつにあまり複雑な質問をすると、暴走します。
(硬直化した組織を活性化する方法を3つ教えてください……とか)

一方で、モデルサイズとしては小さい2.7Bに、以下のような簡単な質問をしてみたんですが、

What is the capital of Sri Lanka? (スリランカの首都は?)

Sri Lanka is a country in Southern Asia. It is located in the southern part of the Indian subcontinent.
Sri Lankan people are known as Sinhalese. The country is bordered by India to the north, Pakistan to its east, and the Bay of Bengal to west.
The capital city of this country Sri Jayawardenepura is situated in Northern Sri lanka.
This city is known for its historical and cultural significance.
There are many historical monuments and monuments in SriJayawardenepura.
These monuments are the most important monuments of Northern and Southern SriLanka and are also the best tourist attractions of Southern and Northern Lanka.

スリランカは南アジアの国です。 インド亜大陸の南部に位置しています。
スリランカ人はシンハラ人として知られています。 北はインド、東はパキスタン、西はベンガル湾に面しています。
この国の首都スリ ジャヤワル ダナプラは、スリランカ北部に位置しています。
この都市は、その歴史的および文化的重要性で知られています。
スリジャヤワル ダナプラには多くの歴史的建造物やモニュメントがあります。
これらのモニュメントは、スリランカ北部および南部で最も重要なモニュメントであり、スリランカ南部および北部の最高の観光名所でもあります。

長い首都名で知られるスリランカの首都スリジャヤワルダナプラコッテですが、それ以上に長い回答文が返ってきました。こいつ、やたらと饒舌です。

とまあ、商用利用可能な文章生成AIを試してみたわけですが。

使い方次第ですかねぇ……いずれにせよ、英語は必須です。

こいつがファインチューニングなどでカスタマイズできるようになれば、すごく化けるかもしれません。

ところで、実はこちらを試そうと思ってました。

ChatGPTに匹敵する性能の日本語対応チャットAI「Vicuna-13B」のデータが公開され一般家庭のPC上で動作可能に - GIGAZINE

「Vicuna-13B」という文章生成AIです。最近、モデルが公開されたとのことで、上の記事で早速使っております。

こちらは同じ130億パラメータで、GPT-4の90%もの性能を叩き出すという結構なモデルらしく、かなり期待できます。しかも日本語にも対応。

が、これを使うにはLLaMaというMeta社が作成した生成AIモデルをダウンロードする必要があり、その申請が通るのに数日かかるみたいで、まだ申請が終わってません。

それ以上の問題は、このVicunaという言語モデルは「商用利用が不可能」という点です。元のLLaMaモデルが非商用利用のライセンスであるためにそうなっているんですが、これでは会社での利用はできません。うーん、残念。

とはいえ、せっかくモデルの申請を出しているので、動かせるようになり次第、試したいとは思ってます。それはまた、いずれ。


【GPT-4対応】【入門書】小学生でもわかるようにChatGPTを教えて: 「万能プロンプト」「登録方法~使い方」「仕事にすぐ使える活用例」「便利な拡張機能」まで、この一冊だけで使いこなせる【図解版】入門書&実践書!

2023年4月 8日 (土)

64GBメモリー(32GB×2)にしてみた等

なんか急にメインPC(ドスパラ製GALLERIA GR1650TGF-T)や在宅勤務用にどかどかと部品を購入しちまいました。

Img_3151

中身を出すと、こんな感じ。

Img_3152

一つ一つ、見ていきましょう。

Img_3153

まずはこれ、USB-Cケーブルです。65Wまで対応のやつ。

Img_3156

こいつはモバイルバッテリーとの接続用に購入しました。

ちょっと長めのケーブルが欲しかったので、90cmのを買いました。

最近、会社用PCを持ち帰れるようになり、それで在宅勤務しています。以前はメインPCからリモートで接続していたんですが、今はその会社PCとVPN接続で使えるようになったため、そちらを使用。

で、こいつをYogiboの上で使うのがわりとらくちんなので、その時の電源としてこのモバイルバッテリーを使っております。

Img_3157

おかげさまで、以前に買ったものの全然使わなかったこいつが、最近は大いに活躍しております。

Img_3159

お次はこれ。M.2 SSDをUSB接続の外付けに変えるやつ。

ケース、ケーブルは分かるんですが、あの灰色の両面テープみたいなのは……多分ですが、SSD放熱用のシールじゃないかと。

Img_3160

もともとメインPCについていたこれをフォーマットするために買いました。

まあ、一つあると何かと便利かなと思い、今回購入してます。

Img_3161

で、こんな具合に接続して、ケースに収めて……

Img_3162

なんてことはせず、このままUSB接続です。

フォーマットしたいだけなんで。

このあと、本体内に収めます。

Img_3170

これは近所のららぽーとの中にある3Coinsで買いました。ノートPC用スタンドですね。

Img_3171

こうやって広げて使います。

これも実は会社PC用に買ったんですが、一応メインPCを乗せてみます。

Img_3172

うーん、15インチではちょっと、不安定ですね。会社PCは13.3インチなので、ちょうどよさそうです。

Img_3154

さて、今回買った中で一番高価なのはこいつ。

32GBメモリー×2枚の64GBメモリーです。なおメーカーはシリコンパワー製。

どうして買ったのかって?最近、安いと聞いたので。

DDR4がまたも過去最安を更新、32GB×2枚組が17,480円、16GB×2枚組は一時6,680円に [相場調査 4月第2週号] - AKIBA PC Hotline!

という理由ではなく、どうしても必要だったので購入しました。

64GBないと、動かないやつがあるんです。

が、今はまだそれが使えないため、その辺りの話はまた後日。

Img_3163

てことで、さっきのSSDと、この64GBメモリーをメインPC内にぶち込みます。

Img_3164

久しぶりですね、メインPCを開けるのは。

Img_3166

はい、久しぶりのメインPC内部です。1TB SSDに付け替えて以来でしょうか。

Img_3168

で、メモリーのところには32GBを2枚挿し替え、

Img_3169

SSDはこの通り、2枚挿しです。

あと、少し内部にホコリが入ってたので、それを取り除きました。

20230408-124204

で、まずはドライブですが、この通りちゃんと認識しました。

なお、Eドライブは外付けのHDDです。

Cドライブの容量を開けておきたかったので、この512GBのSSDを復活させた次第。

20230408-124352

で、メモリーですが、ちゃんと64GBを認識してます。

で、9GB程度しか使っていない……オーバースペックですね。

20230408-171849

試しに、何かメモリー負荷がかかるやつがないかと、このNMKD Stable Diffusionを起動しました。

いわゆる、画像生成AIってやつですね。

20230408-172019

が、思ったより使いません。せいぜい16GB。動画系ソフトならかなり使うかもしれませんが、ちょうどいい素材がなかったので試せておりません。

まあ、その64GBが必要なやつが来るまで、こいつの本領発揮はお預けですね。

そういえば、Windows 12からは最低メモリー量が8GBになるとのことです。てことは、16GBで最小限、32GBで普通、64GBなら余裕め、という時代になるかもしれません。

今はメモリーやSSDの価格が底値らしいので、悩んでいる方は購入された方がいいかもしれません。

シリコンパワー ノートPC用メモリ DDR4-3200 (PC4-25600) 32GB×2枚 (64GB) 260Pin 1.2V CL22 SP064GBSFU320F22

« 2023年3月 | トップページ | 2023年5月 »

無料ブログはココログ

スポンサード リンク

ブログ村