数値解析系

2025年6月 9日 (月)

状態空間モデル(カルマンフィルタ+トレンド・季節性を考慮したローカルレベルモデルによる予測)を使って、血圧値をフィルターしてみた

最近、ストレスが多いのか血圧が高くなりまして、去年の7月の健康診断で様子見指示、そして今年の1月に「循環器内科に行け」と言われてしまいました。

ただ、循環器内科へ行ったのはこの春の連休の5月1日のことでして、そこからなんとなーく下がったかなぁとは思ってるんですが、どうも血圧の値って乱高下しやすくて、よくわからないんです。
そういえば、その血圧対策のために1月に、サイクリングマシーンを買ってるんですよね。

なぜか急にサイクリングマシーンを買ってしまいまして: EeePCの軌跡

Img_5833

これの効果も出ているのかどうかも含めて、血圧値を評価してみました。

なお、血圧値は去年の7月3日からほぼ毎日2回、朝晩に測定してます。

20250607-173954

こんな感じのフォーマットです。

上の値を見ると分かるんですが、結構変動が激しいんですよね。最高血圧値が150いったり、120を切ってたりと。
こういう誤差の大きな測定値から、正しい「状態」を推測するのが「状態空間モデル」といい、比較的簡単な式でその状態を推測するのが「カルマンフィルター」と呼ばれる手法です。

ということで、早速カルマンフィルターにこの血圧値を通してみようかと思ったのですが、面倒なのでGemini Advancedの2.5 Proに次のようなプロンプトを使って作ってもらいました。

次の血圧値を読み取り、カルマンフィルタを適用してフィルタ適用後のグラフを書くpythonプログラムを記述してください。
【条件】
・パラメータ調整により、フィルタ後のデータを調整できるようにする
・「pykalman」というライブラリを使用する

加えて、

上記のプログラムに、以下の機能を追加してください。
・ 10日先までの波形予測を、ローカルレベルモデルを用いて行う。
・予測波形には、95%信頼幅も表示する
・最後に画像を表示させる。

さらに、

上記のプログラムで、季節性、トレンドを考慮した予測波形を導出するプログラムに変更できますか?

と投げかけて、出てきたプログラムが出力したのが以下のグラフです。

Bp_kalman_bsts_forecast_plot

小さすぎて、分からりにくいですが。
まず上段:最高血圧値、下段:最低血圧値 で、それぞれギザギザしているのが測定値です。
そこから推測される「状態」が、それぞれ赤、黒線であらわされてます。
こうしてみると、測定値は結構変動幅が大きいのがわかります。
なお、1週間の周期性(季節性)がありそうなので、季節性のサイクルを14ステップ(1日2回測るので、7日分の測定値)としました。

で、最後に出てくる線と薄い赤色、緑色で塗られた部分が、今後10日分の予測値となってます。

これを見ると分かることは、

・ 波打ちながらも、徐々に血圧値が上昇気味だったが、真ん中ちょっと過ぎた辺り(2月上旬)からガクッと下がっている
 (サイクリングマシーンを買って半月くらい経った時期)

・ グラフの一番左端から一つ手前の線がちょうど5月1日の線で、そこから緩やかに血圧が下がり、低値安定となっている
 (まさに血圧の薬を飲み始めた後)

でしょうか。

もちろん、気温の上昇で血圧は下がりやすいらしいので、そういう影響もあるんでしょうけど、真夏だったこのグラフの開始点(7月3日)と今を比べても、全然値の高さが違います。
サイクリングマシーンと血圧降下剤の効果が、それぞれ出てるってところですかね。

ただ、今飲んでいる血圧の薬ですが、かなり弱いものだそうです。
ただ下げればいいってもんじゃないらしく、健康診断の結果を見て、腎臓の値が悪いということで、そちらに配慮した薬を選んだ結果、めちゃくちゃ血圧値を下げるものにはされませんでした。

まあ、直前でちょっと下がり気味だったこともあるんですが。

しかし、最後の予測のグラフで薄い赤と緑の領域ですが、95%信頼区間での予測のばらつきを表してます。
このばらつき具合の幅の大きさを見るや、いかに血圧の測定値がばらついてるかがよくわかりますね。

にしても、こういう時はやっぱり生成AI、役に立ちます。特にGemini Advancedの2.5 Proはかなり優秀です。ちょっと手直しはしたものの、ほぼそのままのコードで動きました。
(線種を多少変えたり、カルマンフィルターのパラメーター値を少しいじったくらいです)

ChatGPTとGeminiが競い合ってますけど、個人的にはGeminiの方が使いやすいかなぁと感じてますね。そこは人それぞれでしょうが。
ちなみに会社のCopilotが一番使いにくくて・・・社内のデータを扱える分には便利なんですけど、やっぱりGemini辺りと比べてもちょっと回答精度が悪いんですよね。いつも素っ気ないというか、なかなか音が伝わらないし。
いずれ、改良されていくんでしょうけど、もうちょっと何とかならないかと思ってます。


生成AIと一緒に学ぶ Pythonふりがなプログラミング

2025年5月18日 (日)

Google GeminiでDeep Researchを使ってみた(のついでに、AIについて思うこと)

結構、いろいろ使ってます、Google Gemini Advanced。
年払い(約3万)しちゃったのもあるので、ここは有効活用しようと、画像生成やちょっとした文書作成、小説ネタのヒントなどに使ってましたが。
実は「Deep Research」という便利な機能があるので、ちょっと紹介。

このDeep Research、ひと言で言うと「ネット上にある情報から詳細な報告書を作成してくれる機能」とでも覚えておけば、まあ間違いではありません。
この詳細っぷりがなかなかのものでして、かなりのレポートを作成してくれます。

では、実際にやってみましょう。

で、テーマですが、ずばり生成AIが世界に及ぼす影響とやらを聞いてみることにします。

まず、モデルには「2.5Pro (Preview)」を選んでおきます。

Gemini_deepresarch00

入力したプロンプトは、たったこれだけ。なお、Deep Researchを使う場合は、下にある「Deep Research」のところをクリックして有効にしておきます。

すると「計画」というものが表示されます。こんな感じの調査するけどいいか?という確認です。
Gemini_deepresarch005

「その他」を押すと、より詳細が見られるんですが・・・特に問題はなさそうなので、このまま下にある「リサーチを開始」をクリックします。

Gemini_deepresarch01

すると、なにやら大量のサイトリンク、リサーチの過程が表示されます。
で、待つこと十数分ほど。

Gemini_deepresarch02

レポートが、帰ってきました。
Gemini_deepresarch015

長すぎるので、全部は載せられません。タイトルは「生成AIの台頭:世界への影響に関する包括的分析」とあります。
なかなか、興味をそそりますね。
ただ、プロンプトが曖昧過ぎたせいか、とんでもない量のレポートを作成してきやがりました、こいつ。

Word形式でダウンロードできるんですが、およそ48000文字、61ページ分、そして139個のサイトリンクです。

いつも使う時は、もう少し条件を絞り込むので、だいたい多くて2万文字程度で返ってくるんですが、今回のはちょっと異常に長いです。

ということで、Geminiに300文字程度に概要をまとめてもらいました。
で、このレポートの中身とはすなわち、

生成AIは、文章や画像等を自動生成し、経済や社会に革命的変化をもたらします。雇用市場は自動化と新規職創出で大きく変動し、産業界では生産性向上とビジネスモデル変革が加速。一方で、偽情報拡散、著作権侵害、プライバシー問題といった倫理的課題も深刻化しています。

AI技術は科学技術の発展を促進しますが、国際的な開発競争は地政学的緊張を高める可能性も秘めています。人間の創造性やアイデンティティへの影響も大きく、社会的不平等の拡大も懸念されます。

生成AIの恩恵を最大限に引き出しリスクを抑制するには、人間中心の倫理規範、法整備、国際協調に基づく責任ある開発と利用が不可欠です。

だそうです。
ざっと見ると、生成AIのしくみ、その歴史、そして産業などに与えたインパクトの大きさと、その悪用の事例などなど、メリットだけでなくデメリットもしっかり語っております。
その上で、生成AIとどう付き合うべきかと結論付けている・・・と言ったところでしょうか。

 

ところで最近、社内外でも生成AIが盛り上がってます。つい最近まではChatGPTばかりでしたが、ここにきてGoogle Geminiも追いついてきてます。私が使う分には、なんら問題はないです。会社で使ってるCopilotはやや物足りないところはありますが、それでもOffice文書と連携してくれたりするところは便利ですね。

ただ、使う上では一応、出力結果は疑ってかかることにしています。稀にハルシネーション(嘘情報の生成)をすることがあるというのが生成AIの欠点なので、そこは気を付けねばなりません。

もっとも、Geminiはハルシネーションがかなり少ないモデルらしいので、その辺りはまだいいのですが。
それでも一度、「生成AIは創造を可能としたAI」という間違った情報を書くこともあるので注意。
正確には「生成AIは創造的振る舞いが可能なAI」であって、創造をしているわけではありません。
このあたり、勘違いしている人が多いので要注意ですね。

もっとも、人間も一見、創造をしているようで、他の知識の寄せ集めから「創造的に振る舞っている」場合が多いので、生成AIが人間的に見えてしまうのは致し方ないことかとは思います。

個人的に思うのですが、生成AIの登場で2種類の意見を聞きます。

① 人を多くの無価値な労働から解放し、楽にしれくれる
② AIに頼ると人間、馬鹿になる

この2つ、一見すると逆のことを言っているようで、実は同じ論調です。つまり、AIが人にとって代わってくれる、という前提には変わりありません。

とんでもない話です。

むしろ、これからの人たちは大変だなぁというのが私の本音です。

というのも、AIというのは確かに人の作業や思考を肩代わりし、その部分は楽にしてくれるかもしれません。
が、実は「考える」という仕事は残るんです。AIが出力した結論や作業結果を、人は管理、修正しなくてはならない。
むしろ、その方が大変な事じゃないかと感じてます。

このデジタル化時代、なかなか自動化が進まない背景としては2つあって、

(1)そもそも「作業」を仕事としていた人たちが、抵抗している
(2)自動化というのは、異常が起きれば止まるだけで、その後の対処は人しかできない

という実態があります。
よく(1)は叫ばれてますが、(2)の方がどちらかというと深刻で、異常に対処するということは、なんらかの「決断」を伴うことが多いため、実は機械任せにはできないことが多いのです。

機械が、故障寸前の予兆を出している、このまましばらく様子を見るか、それとも一度ラインを止めてチェック・部品交換すべきかの判断に迫られる・・・

こんなことは、AIには絶対に対処できません。予兆がそのうち異常に変わり、停止するだけです。その結果、稼働率を下げてしまい、何のための自動化なのかが分からなくなります。

実は90年代に、日産のとある工場が高自動化率を達成した工場を作り、世界中から脚光を浴びました。
が、結論から言うとその工場、閉鎖されました。あまりにも稼働率が悪すぎて、結局はある程度、人の介在が必要だということが分かった、ということです。
今のAIはさらに発達しているから、同様のことは起こらない・・・と思ってる人が多いですが、不良品の発見や原因追及は確かに速くはなりましたが、異常となれば止まるというのは、昔と変わりません。

なんか、そういう部分を考えないで称賛・批判をしている人の多いこと、実に嘆かわしいことだと個人的には思ってます。

「人とAIの折り合いをどのあたりでつけるか?」

これがこの先の日本の産業が復活するかどうかにかかっている命題のように思いますね。


生成AI活用の最前線?世界の企業はどのようにしてビジネスで成果を出しているのか

2025年3月20日 (木)

ollamaでオープンモデルでマルチモーダルな生成AI「gemma3」を試してみた

会社ではCopilot、自腹ではGemini Advancedを使っている私ですが、オープンモデルに無関心というわけではありません。
Geminiを提供しているGoogleも、オープンな生成AIモデルとして「gemma」というものを公開してますが、最近、gemma3という、PCでも動かせる軽量でマルチモーダルな生成AIモデルを公開してます。

次世代AI「Gemma3」徹底解説: あなたのプロジェクトを加速させる新たな可能性|りんか | AI情報発信 /ビジネス/研究

マルチモーダル対応ということは、つまり画像を読み込むことも可能ってことで、なんだかワクワクしますね。
ということで、さっそく試してみました。

といっても、いつも通りpythonで使うのは面倒そうなモデルなので、ollamaに頼ることにしました。
以下より、最新のWindows版をダウンロードします。

Download Ollama on Windows

インストールしたら、Windows PowerShellかターミナルを開き、次のように打ちこみます。

> ollama pull gemma3:4b

20250320-205526

モデルをダウンロードし始めました。少なくとも3GB以上はあるので、それなりにかかる場合もあります。覚悟しましょう。

さて、ダウンロードが終わったら、次のように打ちこみます。

> ollama run gemma3:4b

すると、プロンプト入力の待機状態になります。
この時、画像のあるフォルダ内で実行すると、その画像のファイル名を入れることで読み込んでくれます。
試しに、この画像を読ませてみました。

Dsc01389

今からちょうど20年前に行われていた愛知万博での料理です。たしか、トルコ料理の店だったはず。
これを、次のようなプロンプトで認識させてみます。

>> 次の画像について説明してください。./DSC01389.JPG

で、gemma3が返した答えがこちら。

この画像には、さまざまな料理が並べられた食事のセットが写っています。

主な料理は、大きな白い丸い肉料理です。肉は、きのこ、トマト、パプリカなどの野菜と組み合わされています。肉の周りには、
米と細切りなすのサラダがあります。

他に、小さな料理のセットがいくつかあります。
* 2つの小さな料理のセットには、緑色の葉野菜とトマトのサラダがあります。
* 3つ目の料理のセットには、白いスープがあります。
* 最後の料理のセットには、黒い飲み物があります。

全体的に、この食事は、さまざまな料理の組み合わせで、さまざまな味を味わうことができるように見えます。

うん、なかなか鋭いですね。回答も、RTX4060のおかげか、ほぼ数秒で返ってきました。

でも、これだけじゃ面白くないので、別の写真も用意。

Dsc01362

分かる方、いますかね。これ、同じく愛知万博のトヨタパビリオンの画像です。
さすがにこれはちょっと、答えづらいかな。
ともかく、こいつを解釈させたときの答えがこれ。

この画像は、トヨタグループの本社ビルです。

特徴的なのは、格子状のガラスで覆われた独特な形状で、緑の屋根と組み合わせることで、自然との調和を表現しています。背景
には多くの人々がおり、トヨタグループの活動の活気と人気を物語っています。全体的に、現代的なデザインと自然との融合が印
象的な建物です。

うん、当たりではありませんが、ちゃんと「TOYOTA」の文字は認識してますね。
もっとも、トヨタ本社ではありませんが。

ということで、このgemma3はPC上で動く比較的軽量なモデルながら、なかなかの性能を発揮するマルチモーダルなモデルだということが分かります。

昨今、大規模言語モデルも頭打ち状態かなぁと思ってましたが、オープンモデルの発展はまだまだ続いているようです。

なお、gemma3は言語に対してもなかなかの回答を出してくれます。

>>> 興行収入の高いアニメ映画を教えてください。

興行収入の高いアニメ映画は、以下の通りです(2024年5月23日時点)。

1. **『劇場版 鬼滅の刃 無限列車編』** (2020年) - 302.8億円
2. **『君の名は。』** (2016年) - 156.8億円
3. **『新世紀エヴァンゲリオン』** (2021年) - 143.3億円
4. **『ONE PIECE FILM RED』** (2022年) - 143.3億円
5. **『劇場版 呪術廻戦 0』** (2021年) - 133.3億円

これらの作品は、日本国内での興行収入において、アニメ映画の歴史に残る記録を打ち立てています。

2024年中ごろまでのデータで学習させてるもののようですね。にしても、千と千尋の神隠しはどこ行った?という感じですが。

にしても、ollamaってわりと便利ですね。いちいちライブラリのインストールを気にしなくても、最新のモデルが簡単に扱えてしまいます。
もっとも、調べた限りでは、これでRAG環境を作るのはそんなに容易ではない(少なくともWindows環境下では)ようです。やはりUbuntuなどで使うのがもっともリーズナブルみたいです。でも今さらUbuntu PCを構築する気もないので、Windows環境下で頑張ってみようかとは思ってます。

ちなみに、画像ファイルの代わりに大量の文書のテキストファイルを読ませたら、どうなるか?やってみました。

>>> 次のファイルの中身を要約してください。./計算士と空中戦艦01-62.txt

ファイル `./計算士と空中戦艦01-62.txt` の内容を要約します。

このファイルは、**「計算士と空中戦艦」** というSF短編小説のテキストファイルです。

**物語の概要:**

物語は、宇宙を舞台に、高度な技術と複雑な計算能力を持つ「計算士」と呼ばれる存在と、それを巡る空中戦艦の物語です。主人
公は、計算士の能力を悪用しようとする組織「黒曜」に抵抗する「星雲」のパイロット、アキラです。

アキラは、黒曜の陰謀を阻止するため、星雲号に乗り込み、計算士の能力を制御する装置「コア」を奪還する任務に就きます。物
語は、アキラと彼の仲間たちが、黒曜の追撃をかわしながら、コアの奪還を目指す中で、計算士の謎めいた存在と、その能力の危
険性、そして人間の倫理について深く掘り下げていきます。

**主なポイント:**

* **計算士:** 高度な計算能力を持つ、謎めいた存在。その能力は、宇宙の秩序を脅かす可能性を秘めています。
* **黒曜:** 計算士の能力を悪用し、宇宙を支配しようとする組織。
* **星雲号:** アキラが乗る戦闘機。計算士の能力を制御する装置「コア」を搭載しています。
* **コア:** 計算士の能力を制御する装置。その制御を奪還することが物語の鍵となります。
* **アキラ:** 星雲号のパイロットであり、計算士の能力を悪用する黒曜に抵抗する主人公。

**全体として、この物語は、高度な科学技術と倫理、そして人間の存在意義について考えさせられる、SF短編小説です。**

より詳細な情報が必要な場合は、ファイルの内容を直接提供していただければ、さらに具体的な要約を生成できます。

うーん、主人公のカルヒネン曹長はどこ行っちゃった?

元の物語 : 計算士と空中戦艦

膨大なテキストデータを直接与えてRAG化するのは、ちょっと無理っぽいです。


Google Gemini 無料で使えるAIアシスタント 100%活用ガイド 100%ガイド

2025年1月30日 (木)

生成AI系の本を2冊購入

久しぶりの名古屋出張だったので、ゲートタワーにある三省堂書店に行ってきました。

20250130_101111201_ios

で、買ったのはこの2冊。
いずれも「生成AI」の本です。
Google Gemini Advancedに加入しておきながら、それ用の本がないなぁ・・・と思ってたら、さすがは名古屋駅そばの本屋です、ありました。

で、Interfaceから見ていくと、

20250130_101136503_ios

いわゆるLLMだけでなく、画像生成AIも入ってます。

20250130_101150899_ios

中でも気になったのはこの辺り。ラズパイに、ローカルLLMで会話?
それ以外にも、画像認識用のデータ作成に生成AIを使うのはありか?という記事もあります。
それ系の人たちには、気になる記事ですよね。
昔は異常検知の画像を作るために、わざわざ「異常」な状態の写真を撮っていたほどです。
そんなことしなくても、今ではその気になれば生成AIが作ってくれるんですよね。

さて、もう一冊のGeminiの方はといえば、

20250130_101228311_ios

わりと一般的なプロンプトエンジニアリングな記事がほとんどでしたが、こういうのもありました。
言われてみれば、YouTubeもGoogleのサービスの一つですよね。
Gemini、侮れません。

そう言えば最近、中華系AIの「DeepSeek」ですが、あれってどうなんですかね?
安価ながらもChatGPTを越えた、とまで書かれた記事や、オープンソース(MITライセンス)で生成AI界に革命をもたらした、とまで言われておりますが。

しかしそこは中華製、「天〇門」「共〇主義」と打ちこんだ途端、答えられないと回答するそうです。
また、とある官能的な文章を入れたら、ChatGPTと同じ文言の警告文が出てきた、といううわさも聞いてます。

実際に、ChatGPTの規約に反し、ChatGPTを使って学習データを作らせた疑いがある、とまで言われてます。

OpenAIとマイクロソフト、DeepSeekがOpenAIのデータを「抽出」した証拠があると主張(テクノエッジ) - Yahoo!ニュース

まあ、中華ですから、個人的には使いたいとは思いませんし。
ちょっと、評判の広がり方も不自然です。

とまあ、そんな話題がある中、そうはいっても生成AIなしには業務の改革も進まないご時世。
うちの会社でも、Microsoft 365 Copilotを使ってますが、ちょっと前のメールに添付されていた資料を探させたりするのに役立ちます。

なんとなく、こういうほかのアプリケーションとの連携で優れたCopilot一人勝ちになりそうな雰囲気ですが、Googleの方も負けてはいません。個人的には結構、Gemini使ってます。

といっても、小説家になろうの小説ネタをブレストしながらアイデアを出させるのに使ってる、というのがメインですが、いずれはデータ分析手法を探らせたりしたいなぁと思ってます。


Interface(インターフェース) 2025年3 月号

2025年1月 4日 (土)

Windows 11でFORTRANをコンパイルしたい!という方への対処法

正月早々、妙な話題。今どきFORTRANなんて・・・と言っても、実際にそういう相談が来たので仕方ありません。
下記を参照しました。

【Fortran】コンパイラ gfortran のインストール(Windows編)【Hello, World!】 - LabCode

で、やり方ですが、思ったよりは簡単でした。

まず、下記より「minigw-builds」を入手します。これは、CやC++、FORTRAN系のコンパイラがまとまったもののようです。

Releases · niXman/mingw-builds-binaries

一覧の中から、Windows用のバイナリである「x86_64-14.2.0-release-win32-seh-ucrt-rt_v12-rev0.7z」を入手すればよさそうです。このファイル名をクリック。
(「14.2.0」や「v12」などは、バージョンアップなどによって変更されている場合があります。ご注意を)

すると圧縮ファイルがダウンロードされるので、右クリックして「すべて展開」で解凍しておいてください。
解凍後、「mingw64」というフォルダができます。

これを「C:\Program Files(x86)」に入れます。

で、そのままでは動かないので、Pathを通します。

下の検索窓で「環境変数」と打ちこむと、「環境変数を編集」という候補が出てくるので、これをクリック。
その中に「Path」というのがあるので、これをダブルクリック。

20250104-113706

一番下にある空白行をダブルクリックすると編集できるので、ここに「C:¥Program Files (x86)¥mingw64¥bin」というのを追加します。
これで、コンパイル環境の構築は完了。

上の元記事のリンク先のように「Hello World」と書かせてもいいんですが、学生時代に動かしていた派手な解析プログラムを持っているので、こいつを動かしてみました。

スタートメニューから「ターミナル」を開き、cdコマンドでプログラムのある場所まで移動します。例えば、「cd c:¥tmp¥TSFLOW」のような感じで入力し、エンターキーを押します。

20250104-113553

そこで、FORTRANコードを上のように「gfortran **.f」(**.f はプログラムコード)と打ちこみ、エンターキーを押します。
すると、コンパイル開始。

20250104-113606

オプションの指定なしだと、「a.exe」というファイルができるはずです。
そのまま、実行してみます。ターミナル上で「.¥a.exe」と入力してエンターキー。
(./a.exe でもいけます)

20250104-113624

すると、プログラムが無事、実行されました。

20250104-113630

コンパイラ自体はFORTRAN 95に対応しているようですが、FORTRAN 77のコードでも動きますね。

にしてもこのプログラム。1998年当時は実行に数十時間かかったはずですが、今や4分で終了。
マルチコア対応でもないので、たった一スレッドで動かしてこの速度。時代を感じますよね。

なんか昔のFORTRANコードを動かしたくなったなぁ・・・とか、未だにFORTRANを使い続けている人は、ご参考まで。


みんなのFortran?基礎から発展まで?

2024年12月31日 (火)

2024年まとめ記事

個人的には、今年はなんだか思うようにいかないことが多いというか、あまり運のいい年ではありませんでした。

そんな中でもブログは書き続け、物を買い、いろいろとやってます。
てことで、年末恒例の1年間の記事まとめです。

【1月】

東京オートサロン、CARGO BASE & 秋葉原へ行ってきました: EeePCの軌跡

20240113_010437061_ios

2024年の最初は、東京オートサロンへの出張ですかね。しかも、土曜日。イベントが金~日だった上に、金曜日はプレスデーということもあり、一般人の立ち入り時間が短かったんですね。
てことで、土曜日に行ってまいりましたが、大変な人だかりでした。
車のカスタマイズの展示会、といったところですが、まだまだ自動車への関心度の高さがうかがえました。

【2月】

2つのガジェットを購入しました。

Meta Quest 3を買っちまいました(Apple Vision Proに刺激されたので): EeePCの軌跡

Img_4788

一つは「Meta Quest 3」。
ついにVR、MRの世界に足を突っ込みました。
当初はPC画面を寝転がったまま自由な姿勢で使えるように、という目的で、Virtual Desktopというアプリとともに導入したんですが、今や動画再生や癒し系アプリ、スポーツアプリを使うようになりました。
(なんか、ボクシングみたいなのを毎日ちょっとづつやってます)

Raspberry Pi 5 8GBが来たので画像生成AI「Stable Diffusion」と物体検出「YOLOX」を動かしてみた: EeePCの軌跡

Pxl_20240215_055409686

2つ目はこれ。Raspberry Pi 5です。メモリーは8GBのモデル。
が、買ったはいいですが、全然使ってませんね。最近は会社でもArduinoの方が人気があって(PCとつないでデータを取らせる、などの用途で)、全然ラズパイの出番がなかったです。何か使い道を考えねば。

【3月】

Macintosh Plusを出してみた: EeePCの軌跡

Img_4874

Macintosh Plusを久しぶりに動かしました。
結果、FDD排出機構が故障していることが発覚。
さすがに、私の腕では治せそうにありません・・・

【4月】

Meta Quest 3のヒーリングアプリ「Guided Meditation VR」: EeePCの軌跡

Excl8425

東京出張などもありましたが、この「Guided Meditation VR」との出会いが、この月では一番インパクト大きかったですね。
BGMが流れ、様々なVR風景が流れるという、ただそれだけのアプリなんですが、このVRの完成度はなかなかです。
個人的には、ランダムで背景を表示できる機能があると嬉しかったんですが(毎回同じ順番なので、飽きやすい)。あと、音楽や背景をお気に入りに入れる機能があるようなのですが、使い方がさっぱりです。

瞑想のアドバイス(英語)を流すこともできますが、邪魔なだけなので、BGMオンリーですね。
にしても、Quest 3のアプリでは今のところ一番の当たりアプリです。

【5月】

iPhone 15 Plusを購入: EeePCの軌跡

Pxl_20240511_045021644

iPhoneを買い替えました。iPhone 15 Plusという、一回りでかいやつ。
いい加減、USB-Cに統合したかった事と、バッテリーの持ちのいいやつが欲しかった、というのがあります。
半年以上経ちましたが、未だに衰えを知りません。
もっとも、会社iPhoneとAir PodsがLightningのままなので、完全USB-C移行はまだ先になりそうです。

円形計算尺を購入してみた: EeePCの軌跡

Img_5192

最新のガジェットを買ったかと思えば、なんと「計算尺」も買いました。
理由は、「計算尺を駆使する主人公の小説」を書いたからなんですが。

計算士と空中戦艦 - 小説家になろう

こんな地味な話がうけるのかと思いきや、意外にも久々の1000pt越え作品となりました。
本当は「風立ちぬ」にも出てくるようなまっすぐなタイプのが欲しかったんですが、今入手可能なのはこの円形型のみ。
しかも、三角関数は計算できないタイプのやつです。
それでも、ああ、こうやって計算尺って使うんだ、という参考にはなりましたね。

【6月】

ご近所の本屋が閉店します: EeePCの軌跡

20240627_220725168_ios

ご近所の本屋が、閉店してしまいました。
意外にダメージは大きいです。本屋に行く頻度がガクッと減りましたから。
髪の書籍を買うためには、わざわざちょっと離れたららぽーとまで行かないといけません。
ちなみに、跡地は小さな激安スーパーに変わりました。

ElyzaのLlama3ベースの言語モデル「Llama-3-ELYZA-JP-8B」のRAGが予想以上に賢かった件: EeePCの軌跡

このELYZAというローカルLLMは、なかなか強力です。これでRAGができるようにして、自身の文書ファイルを参照させることができるように。
他にもいろいろと試しましたが、このELYZA LLama3を超える日本語版ローカルLLMはまだ出てこないですねぇ。

【7月】

この月は、本当にいろいろとありました。

まずはこちら。

ASUSのゲーミングPC「TUF Gamin A15FA507NV-R5R4060A」を購入: EeePCの軌跡

Img_5299

ゲーミングPCを買いました。しかも、ASUS製。「EeePC」というASUSの製品名を掲げたブログの分際?で、ASUS製のPCを使っていないという事態に終止符を打った、そんな瞬間でした。
さすがにRTX4060の威力は大きく、ローカルLLMなどは今までよりも軽々と走ってくれます。
ちなみに、メモリーは64GBに増設、SSDも2TBのをDドライブに追加しておきました。
実は電源を入れると、一発で起動しないことが多く、その度に電源長押し→起動しなおし、をするというちょっと問題ありなPCなのです。何が悪いのやら・・・

Apple Watch SEを買いました: EeePCの軌跡

Pxl_20240727_025701771

Apple Watchも買い替えた年でしたね。
買ったモデルはSEですが、私には全然十分なモデルです。
睡眠状態なども記録できるうえに、何よりも今までよりも速くなりました。画面も大きくて見やすい。
もっと早く買い替えればよかったと思うほどです。

一応、国内メーカー製の100W USB充電器を購入: EeePCの軌跡

Img_5428

100WのUSB電源も買いました。時々、出張に使ってますが、まだ100Wを使いきるところまでは使えてません。45Wで間に合う程度の使い方しかしてませんね。もったいない。

なお、これがあれば、先のASUSゲーミングPCを充電することも可能です。可能、という程度ですが。使う機会があるのかといえば、うーん。

【8月】

Apple Watch SEを使って10日ほど経過(ついでに東京旅行記): EeePCの軌跡

20240803_042043967_ios

20240805_011145000_ios

Apple Watchの使用レビューと一緒に載せてますが、東京巡りをしてきました。
2万歩以上歩きましたが、全然バッテリーは持ちましたね。

磁石でクルッとまとまるUSB-Cケーブル「magtame 60W USB-Cケーブル」: EeePCの軌跡

Img_5447

この磁石で引っ付くケーブル、なかなかの当たり商品でした。
今や出張での必須品です。本当に、巻取りが楽。ほんっとに楽!
いろんなUSB-Cケーブルを買いました。が、この巻取りというのは悩みの種で、これを解決したこの製品、侮れません。
CIOも最近、同様の製品を発売しましたし、今後、増えるんじゃないでしょうかね?

【9月】

小説家になろうで連載中の「計算士と空中戦艦」最終章書き上げ & 最近読んだ本など: EeePCの軌跡

20240901_011011204_ios

小説の宣伝のついでに、最近買った本を列挙してます。
「なぜ働いていると本が読めなくなるのか」「実は、拙者は」の2冊がなかなかヒット作でした。
架空戦記物も、随分と久しぶりに買いましたね。

【10月】

なろう戦歴作成くんで自分の「戦歴」を調べてみた: EeePCの軌跡

Senreki_img_-2

「小説家になろう」に投稿した全作品のポイントが2万を、文字数も800万を超えました。
気づけばもう、初投稿から7年になるんですね。
ちなみに今年の「ネット小説大賞」では2作品、1次を通過しましたが、2次は・・・シクシク・・・

【11月】

EeePCの軌跡: 2024年11月

Pxl_20241110_112421515

USB-Cの電力計を買いました。
どこまで正確かは分かりませんが、何かいろいろと調べるのに使えそうです。

【12月】

Googleの生成AI「Gemini Advanced」に入ってみた: EeePCの軌跡

20241201-163931

とうとう生成AIのサービスを使うことにしました。
で、入ったのは上の記事にもある通り、Google Gemini Advanced。
早速、いろいろと使ってます。「データ分析」はまだですが、小説のアイデア出し、プログラムコード作成では大活躍です。
会社ではCopilotを使ってますけど、Pythonコードが一発で動くものを作れるのは、今のところGeminiの方。
といっても、あちらも今後、どんどん進化していくでしょうからどうなるかわかりませんが、当面はGeminiを使っていく予定です。

激安パカケー「ZTE Libero Flip」を購入: EeePCの軌跡

20241222_022931019_ios

今年最後のガジェットはこいつでした。
パカケーなんて・・・と思ってたのに、まさか今年の終わりに買うことになろうとは。

バッテリーのもちが悪いと、その後のレビュー記事で書いてますが、アップデートがあって、それからは少しマシになりました。

ただ、正直に言うと、パカパカ開けるのが面倒です。開けっ放しでもいいんですが、画面が弱そうなので使わないときは閉じちゃいます。

やっぱり、普通のスマホでいいかな、というのが現時点での所感です。

とまあ、記事数も減ってる中、それでも結構今年もいろいろと買ったなぁというのが印象。
PCもスマホも、主力機を変えてますからね。加えて、生成AIまで契約しました。
来年こそは、これをバネにして飛躍したいところです。

今年も小説投降は続けたいので、その分、本も読みたいですね。買ったものの、読んでいない本が数冊あります。この休みを利用して読んでいこうかと思ってます。
ネット時代、生成AI時代ですが、書籍から得られる栄養というものも、まだ確かに存在しております。
にしても、小説家になろう歴ももう8年目だから、あわよくば、来年こそ自分の書籍を・・・なにわのことも、夢のまた夢。

皆さま、よいお年を。


なぜ働いていると本が読めなくなるのか (集英社新書)

2024年12月23日 (月)

どこに視線を向けているかを可視化してくれる物体検出器

PINTOさんの投稿を見ていると、時々、面白いものが出てきますね。
先日出てきたのは、こちら。

PINTO_model_zoo/462_Gaze-LLE at main · PINTO0309/PINTO_model_zoo · GitHub

この方、人体のみならず、手足や目、口などを検出する学習器をせっせと作っているお方ですが、今度のは「視線」です。
人がどこを見ているのか、そのデータって意外と有用です。
例えば、運転や機械操作などでどこを注視しているかを知ることは、事故防止や使いやすさにもつながります。また、陳列した商品でどのあたりが注目されているのか、それを知ることも可能となれば商品の並べ方を工夫することもできます。
まさに、今どきのAIらしい使われ方です。

ということで、こいつを動かすようにするんですが、まずは上のリンクの「demo」にある「demo_yolov9_onnx_gazelle.py」をダウンロードしておきます。
仮に、これを「C:¥ml¥gaza-lle」という名前のフォルダに入れたとします。

次にやるのは、モデルのダウンロード。
人体の検出と視線の推定のため、2つのモデルが必要です。
以下のリンク先から、2つの圧縮ファイルをダウンロードしてください。

1.https://s3.ap-northeast-2.wasabisys.com/pinto-model-zoo/462_Gaze-LLE/resources.tar.gz
2.https://s3.ap-northeast-2.wasabisys.com/pinto-model-zoo/459_YOLOv9-Wholebody25/resources_e_withpost.tar.gz

どちらもたくさんのモデルが入っているんですが、1.のファイルからは「gazelle_dinov2_vitb14_inout_1x3x448x448_1xNx4.onnx」を、2.のファイルからは「yolov9_e_wholebody25_post_0100_1x3x480x640.onnx」のみを取り出します。

※ 7-Zipを使うか、あるいは最近のWindows 11ならtar.gzの中身を直接覗けるので、上の指定ファイルを取り出してください。

なお、必要なPythonのライブラリは、onnx 1.16.1以上、onnxruntime-gpuなどです。ライブラリについては、先のリンクを参照願います。

ちなみにうちではなぜかGPUではなく、CPUでしか動きませんでした。CUDAやライブラリのバージョンの組み合わせはシビアみたいですね。

実行方法ですが、Windows PowerShellやコマンドプロンプトを開いて、プログラムのあるフォルダに移動します。

cd C:¥ml¥gaza-lle

その後に、

python demo_yolov9_onnx_gazelle.py -v 0 -gm gazelle_dinov2_vitb14_inout_1x3x448x448_1xNx4.onnx -dvw

と入力してエンターキー。
(なお、最後の「-dvw」を抜くと、動画ファイルとして残せます)

こんな感じの画像が出てくるはず。

20241217-152739

スマホをガン見してるところですが、ちゃんと「注視」している場所を当ててますね。
なお、1枚当たり1131msもかかってますが、これは単にGPU処理がうまく動かなかっただけです。
実用性がありそうなら、頑張って環境構築の見直しをしたいところです。

最近は世の中、生成AIが主流になりつつありますが。そうはいっても、物体検出や画像認識系の手法もまだまだ活用すべき領域がたくさん残されています。
この辺を使って、何か実用的なものを考えだしたいところです。


ゼロから作るDeep Learning ?Pythonで学ぶディープラーニングの理論と実装

2024年12月 8日 (日)

生成AI解説書籍「ChatGPT & 生成AI」という本を買った

今さらですが、生成AI系の解説本を買いました。

20241208_045006517_ios

いわゆるムック本です。お値段は1200円弱。

先日も書いた通り、私が契約したのはGoogle Gemini Advancedであって、ChatGPTではないのですが、それだけの情報でもないし、プロンプト部分や使用例などは共通だからいいかなと思い購入。

20241208_045128557_ios

まさにGeminiにやらせたいことがうえの4つですね。文章生成、データ分析、画像作成、コード作成。
といっても、画像生成を本気でやるならStable Diffusion+LoRAあたりを極めた方がよさそうですが、そこまでの需要は今のところ、ありません。

20241208_045211875_ios

事例と、そのプロンプトが例として載せられてますね。これは分かりやすいかなぁと。
上のは企画を考える際の支援事例ですが、他にもメール作成などがありました。
個人的に期待したデータ分析事例は、残念ながら載ってませんでした。

20241208_045459168_ios

ところで、この本を選んだのは、後半にある他の生成AIの紹介ページも理由の一つです。
ChatGPT Plusだけじゃねえぞ、という具合です。ある用途特化のAIを探したいときには非常に便利です。

そういえば、OpenAIが最近「ChatGPT Pro」という研究者向けの生成AIをリリースしましたね。

月額200ドルの「ChatGPT Pro」登場。複雑な問題に対応可能 - PC Watch

ここを読む限りでは、データサイエンス分野などで使う人向けに、かなり強化されたもののようです。
今でも結構使える、という話でしたが、Kaggleあたりでトップを張り合えるほどの性能でも備えてるんでしょうかね・・・気にはなります。
が、月額約3万円だそうで、今の10倍。さすがに、自腹でそのお金は出せない。
にしても、その価格に見合うほどの何かが得られるんでしょうか?その辺りは気になります。


ChatGPT&生成AI 最強の実践活用術 (POWER MOOK)

2024年12月 1日 (日)

Googleの生成AI「Gemini Advanced」に入ってみた

入ったばかりの月は無料ですが、そのまま継続し、月額2900円を払うつもりでGoogleの生成AI「Gemini Advanced」を使うことにしました。

Gemini

といっても自腹なので、仕事で使うわけではない・・・といいつつ、仕事そのものではないものの、仕事で使う分析の手法などを提示させることに使えないかなぁと思い、契約することに。

実際、私の知ってる分析者も、かなり生成AIを自腹で使ってます。一番多いのがOpenAIのChatGPT Proですが、私はあえてGoogle Gemini Advancedにしました。
話によると、ChatGPTの方が何かと賢いようです。が、こういうのはGoogleってすぐに追いついてくることが多いので、ここはGeminiにするかと思い、決めた次第。
以前に「notebookLM」を使って好印象だったこともありますが。
(Googleの生成AI「Gemini 1.5 Pro」を使ったサービス「notebookLM」がすごいらしいので試してみた: EeePCの軌跡)

てことで、せっかくだから分析っぽいことをやらせてみることにしました。何か手ごろなデータがないかと思って探してみましたが、出てきたのは「血圧値.csv」というデータです。

7月の健康診断以来、毎日朝晩、安静時の値を測り続けてます。
まあ要するに、健康診断の血圧で引っかかったわけで、そろそろ血圧の薬を飲まなきゃいけないのかなぁと覚悟しているところです。
それで毎日、血圧を記録するよう言われております。

さて、わざわざそんなデータがあるので、そのCSVを読み込ませて、ちょっと分析っぽいことをやらせてみました。

最初に打ち込んだプロンプトは、以下。

次の時系列データを読み込み、分析・予測を行ってください。
「days」列が、時間を表します(単位は日)
「MAX_blood_pressure」が最高血圧値
「min_blood_pressure」が最低血圧値
このデータを用いて、最大血圧値、最低血圧値それぞれの1週間おきの平均値、最大値、最小値を求め、グラフ化してください。

で、出てきたのは以下のようなグラフ。

20241201-160614_20241201164201

上の3本が「最高血圧」、下が「最低血圧」と呼ばれるものです。それを週ごとの平均値、最大値、最小値をグラフ化したものです。
特に11月くらいからですが、最高血圧値が上昇傾向にあるなぁと思い始めてます。
ということで、次のようなプロンプトを打ってみました。

最高血圧値について、どのような傾向にあるかを考察してください。

で、帰ってきた答えは以下。

グラフから、最高血圧値は週によって変動があるものの、全体的には上昇傾向にあることが分かります。
また、最低血圧値は、週によって変動があるものの、全体的には横ばい傾向にあることが分かります。

実際には、上の週ごとの平均グラフを最高血圧、最低血圧の両方を書き出した上で、上のような結論を述べておりました。
そこで、今あるデータ(0~22週)に基づいて、30週目(今から2か月後くらい)に最高血圧値がどれくらいになるか、予測させてみました。

最高血圧値は上昇傾向とありますが、30週目にはどれくらいの値になるか、予測できますか?
また、予測に用いる手法も提示してください。

返ってきた答えはこちら。

30週目の最高血圧値を予測するために、時系列データ分析の手法であるARIMAモデルを使用します。
ARIMAモデルを用いて予測した結果、30週目の最高血圧値は約137.66と予測されました。
ただし、この予測はあくまで参考値であり、実際の値とは異なる可能性があります。
また、ARIMAモデルの次数(p, d, q)はデータによって異なるため、自己相関関数(ACF)や偏自己相関関数(PACF)などを用いて適切な次数を判断する必要があります。
ここでは仮に(5, 1, 0)としています。

137.66かぁ・・・安静時の最高血圧値が135、最低血圧が85を越えると「循環器内科へ行くように」と勧められるのが弊社ですが、こりゃあもうダメそうですね。そろそろフォローが来るはずなので、先に行っておこうかな、などと考えている最中です。

という生々しい話は置いておき、ここでは「ARIMAモデル」という手法を使っていると書いてありました。
あまり聞いたことがない手法ですが、いかに解説があります。

【気象データで時系列解析⑥】ARIMAモデル #Python - Qiita

分かったような、分からんような感じですが、こんな手法があるんだなぁということを教えられました。
なお、Pythonのコードを裏で作っているようで、それも入手することが可能です。
今度、時系列データを解析することがあったら、使ってみようかなと。

社内やグループ会社で、データ分析に関する問題解決の教え役みたいなことをやってるんですが、いろいろなデータが出てきて、そのたびに専門外のことも含めていろいろと聞かれます。
こういう時はググってどうにか探してましたが、そのテーマと似たようなダミーデータを作るか、公開データを利用して、分析手法などを聞き出すということをさせてみたいと思ってます。

他の人も、そういう使い方をさせているみたいです。

が、私の場合はもう一つ使い道がありまして、それが「小説のアイデア作成」です。
まあ要するに、もやっと思い浮かんだアイデアを入れて、プロットを書かせてみたりするわけです。

20241201-163931

もっとも、これに小説そのものを書かせようという気はなくて、あくまでもアイデアや設定の参考を書かせるというものです。
実際に小説を書かせてはみたのですが、やはりこちらが意図したとおりのものを書いてくれるわけではない上に、文章も短すぎる。飛躍が多い。
想像しながら文字化するので、あくまでもその「想像部分」を膨らませるのが目的です。

なお、架空の地名や名前を考えさせるのは便利ですね。
ただ、とある作品で名前の付け方が変だ、という騒ぎが海外で起きたことがある(日本語的には「関西人」みたいな名前)ので、そういうのに陥らないようにある程度調べて使うつもりですが。

そういえば会社ではCopilotの企業版を使っておりますが、あれがあまり賢くない。
画像生成も可能なので「草原を走るハ〇エース」なるものを書かせてみましたが、どうもいまいちな感じ。
CopilotのImage Createrって、いかにもAIとわかる絵柄なんですよね。ちょっと写実的とは言い難い。イラストに近い感じ。

同じものを、Gemini Advancedにも書かせてみました。

Gemini_generated_image_5mqkoy5mqkoy5mqk

こちらの方が、より写実的な絵ができました。なんかちょっと中央ラインが・・・という気もしますが、一発でここまで描けるのは大したものです。

ということで、生活の一部に、本格的に生成AIを入れていこうという話でした。
いいサービスが出てきたら、また乗り換えることもあるかもしれませんが、しばらくはGemini Advancedかなぁ。


小説を書く人のAI活用術 AIとの対話で物語のアイデアが広がる

2024年9月14日 (土)

Tanuki-8Bの4ビット量子化ggufモデルでRAGをやってみました

なんかRAGネタ増えてますが、まあ、お付き合いください。
それくらい、最近のローカルLLMの進化が激しいってことです。

前回の記事(純日本産なローカルLLM「Tanuki-8B」を試してみた: EeePCの軌跡)でgguf版を落としたけど支離滅裂な挙動だったと書きましたが、あれは嘘だ。

というか、ちゃんとした(?)gguf版を下記から落としたら、ちゃんと使えました。

team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GGUF at main

で、落としたのは「Tanuki-8B-dpo-v1.0-Q4_K_M.gguf」という4ビット化されたもの。

前回の記事(純日本産なローカルLLM「Tanuki-8B」を試してみた: EeePCの軌跡)のモデルを「Tanuki-8B-dpo-v1.0-Q4_K_M.gguf」に置き換えてみましたが。

Q

おすすめの名古屋飯を5つ教えてください。

A
名古屋市(なごやし)は、愛知県に位置する都市で、美味しいご当地グルメが豊富です。以下に、名古屋市でおすすめのおすめしを5つご紹介します。

1. 名古屋コーチンのひつまぶし:

名古屋コーチンは地元産の鶏肉で、その旨味と柔らかさが特徴です。特に「ひつまぶし」として提供されることが多く、まずはそ のまま食べてから、薬味や出汁をかけて楽しむことができます。
2. みそカツ:

味噌ダレをたっぷりかけたトンカツで、サクサクとした衣と濃厚な味噌の風味が絶品です。ご飯と一緒に食べることで、さらに満 足感が増します。
3. 名古屋カレーうどん:

カレーライスのようにルーがかかったうどんで、名古屋特有の甘辛いカレールーが特徴です。寒い季節には体を温める一品として おすすめです。
4. ひつまぶし風のうなぎ丼:

うなぎ(鰻)は名古屋市の名物で、特に「ひつまぶし」スタイルで提供されることが多いです。蒲焼にしたうなぎとご飯を一緒に 食べることで、贅沢な味わいが楽しめます。
5. 名古屋おでん:

愛知県では「名古屋おでん」として知られる独自のおでんがあります。薄口醤油ベースの出汁に、こんにゃくやちくわ、卵などが 入り、具材も多種多様です。寒い季節には特におすすめです。

これらの名古屋飯は、それぞれ異なる魅力があり、名古屋を訪れる際にはぜひ試してみてください。...

名古屋おでんなんてあったかな?とは思いましたが(しかも味噌が使われていないし)、思ったよりはいい回答でした。

てことで、こいつのRAG版をやってみました。

なお、環境構築もコードもデータも、以下の記事のものをそのまま使ってます。

大規模言語モデル「ELYZA-7b」と自作小説「計算士と空中戦艦」で「RAG」をしてみた: EeePCの軌跡

その中で「model_path = 」の後ろを「models/Tanuki-8B-dpo-v1.0-Q4_K_M.gguf」に変えただけです。

で、質問に関しては以前の記事「ElyzaのLlama3ベースの言語モデル「Llama-3-ELYZA-JP-8B」のRAGが予想以上に賢かった件: EeePCの軌跡」と同じものを使い検証します。

では、いきなり結果を列挙します。

Q
カルヒネン曹長の恩師の名前は?

A
カルヒネン曹長の恩師の名前についてですが、文脈から判断すると、その恩師はラハナスト先生である可能性が高いです。ラリヴァ ーラ少佐やエクロース准将との会話の中で、ラハナスト先生が計算術を教えた人物として言及されています。したがって、カルヒネン曹長の恩師の名前はラハナスト先生であると推測されます。

Q
イーサルミ王国はなぜオレンブルク連合皇国と戦争をすることになったのですか?

A
イーサルミ王国がオレンブルク連合皇国と戦争を始めた理由は、主に以下のような背景があります。まず、現皇帝の即位後に圧政が 敷かれ、高い税負担や言論統制、駐留軍による暴挙などが行われたことが挙げられます。これにより、イーサルミ王国内で不満が高まり、独立を求める動きが強まりました。

さらに、オレンブルク連合皇国は富国強兵策の一環として軍事力を増強しており、その影響でイーサルミ王国に対する圧力が増しました。特に、ヘリウムという重要な資源を独占していたことが、オレンブルク軍にとって大きな負担となっていました。このヘリウム不足が連合皇国側にも影響を及ぼし、最終的には水素への転換を余儀なくされました。

また、オレンブルク連合皇国は広大な湿地帯と山脈に囲まれており、陸路での侵攻が困難でした。そのため、イーサルミ王国に対する直接的な攻撃が難しくなり、結果として奇襲や海上封鎖などの手段を取ることになりました。

これらの背

Q
イーサルミとオレンブルクの戦いは、この先どうなると思いますか?

A
イーサルミとオレンブルクの戦いについて、今後の展開を予測するためには、いくつかの要素を考慮する必要があります。以下にス テップバイステップで回答します。

### 1. 現在の状況分析
- オレンブルク軍の圧政: 現在、オレンブルク皇国は圧政を敷き、ヘリウム採取井戸を独占しています。これが連合皇国にとって大きな経済的負担となっています。
- イーサルミ王国の反撃: イーサルミ王国は独立を宣言し、オレンブルクに対して反攻を開始しました。特にヘリウム採取井戸の確保が重要です。
- 戦闘の激化: 両軍ともに激しい戦闘を続けており、塹壕戦や機関銃による射撃が続いています。

### 2. 国際情勢と外交
- フロマージュ共和国の仲介: 連合皇国とイーサルミ王国の間で和平交渉が進んでいることが示されています。これは重要な転機となり得ます。
- 他国の影響: 他の列強諸国や国際機関がこの戦争にどのよう

ご覧いただくと、それほど回答精度は悪くありません。
が、気になる点はたった一つ。
それは「回答が途切れてしまう」問題です。
これは、ELYZA-JPのggufでも同じでした。ある一定以上の文字数を吐き出してはくれないんですよね。
パラメータをいじったり、それ用のものがないか探したりしたんですが、文字数については増やしようがありませんでした。

このために8ビット版も試したんですが、あまり精度向上も文字数アップも見られず。

特にこのTanuki-8Bというモデルは、長文の回答を返したがります。にもかかわらず、文字数が解けない。

量子化モデルでは、ダメなんですかねぇ。

ちょっとした回答をさせる分には悪くないモデルです。それどころか、最後の質問なんて結構いいとこ突いてます。この先が、知りたかった。

これの回答文字数を増やす手段がわかれば、多分、最強のローカルLLMによるRAGが構築できそうです。


LLMのファインチューニングとRAG ?チャットボット開発による実践?

より以前の記事一覧

無料ブログはココログ

スポンサード リンク

ブログ村