結構、いろいろ使ってます、Google Gemini Advanced。
年払い(約3万)しちゃったのもあるので、ここは有効活用しようと、画像生成やちょっとした文書作成、小説ネタのヒントなどに使ってましたが。
実は「Deep Research」という便利な機能があるので、ちょっと紹介。
このDeep Research、ひと言で言うと「ネット上にある情報から詳細な報告書を作成してくれる機能」とでも覚えておけば、まあ間違いではありません。
この詳細っぷりがなかなかのものでして、かなりのレポートを作成してくれます。
では、実際にやってみましょう。
で、テーマですが、ずばり生成AIが世界に及ぼす影響とやらを聞いてみることにします。
まず、モデルには「2.5Pro (Preview)」を選んでおきます。

入力したプロンプトは、たったこれだけ。なお、Deep Researchを使う場合は、下にある「Deep Research」のところをクリックして有効にしておきます。
すると「計画」というものが表示されます。こんな感じの調査するけどいいか?という確認です。

「その他」を押すと、より詳細が見られるんですが・・・特に問題はなさそうなので、このまま下にある「リサーチを開始」をクリックします。

すると、なにやら大量のサイトリンク、リサーチの過程が表示されます。
で、待つこと十数分ほど。

レポートが、帰ってきました。

長すぎるので、全部は載せられません。タイトルは「生成AIの台頭:世界への影響に関する包括的分析」とあります。
なかなか、興味をそそりますね。
ただ、プロンプトが曖昧過ぎたせいか、とんでもない量のレポートを作成してきやがりました、こいつ。
Word形式でダウンロードできるんですが、およそ48000文字、61ページ分、そして139個のサイトリンクです。
いつも使う時は、もう少し条件を絞り込むので、だいたい多くて2万文字程度で返ってくるんですが、今回のはちょっと異常に長いです。
ということで、Geminiに300文字程度に概要をまとめてもらいました。
で、このレポートの中身とはすなわち、
生成AIは、文章や画像等を自動生成し、経済や社会に革命的変化をもたらします。雇用市場は自動化と新規職創出で大きく変動し、産業界では生産性向上とビジネスモデル変革が加速。一方で、偽情報拡散、著作権侵害、プライバシー問題といった倫理的課題も深刻化しています。
AI技術は科学技術の発展を促進しますが、国際的な開発競争は地政学的緊張を高める可能性も秘めています。人間の創造性やアイデンティティへの影響も大きく、社会的不平等の拡大も懸念されます。
生成AIの恩恵を最大限に引き出しリスクを抑制するには、人間中心の倫理規範、法整備、国際協調に基づく責任ある開発と利用が不可欠です。
だそうです。
ざっと見ると、生成AIのしくみ、その歴史、そして産業などに与えたインパクトの大きさと、その悪用の事例などなど、メリットだけでなくデメリットもしっかり語っております。
その上で、生成AIとどう付き合うべきかと結論付けている・・・と言ったところでしょうか。
ところで最近、社内外でも生成AIが盛り上がってます。つい最近まではChatGPTばかりでしたが、ここにきてGoogle Geminiも追いついてきてます。私が使う分には、なんら問題はないです。会社で使ってるCopilotはやや物足りないところはありますが、それでもOffice文書と連携してくれたりするところは便利ですね。
ただ、使う上では一応、出力結果は疑ってかかることにしています。稀にハルシネーション(嘘情報の生成)をすることがあるというのが生成AIの欠点なので、そこは気を付けねばなりません。
もっとも、Geminiはハルシネーションがかなり少ないモデルらしいので、その辺りはまだいいのですが。
それでも一度、「生成AIは創造を可能としたAI」という間違った情報を書くこともあるので注意。
正確には「生成AIは創造的振る舞いが可能なAI」であって、創造をしているわけではありません。
このあたり、勘違いしている人が多いので要注意ですね。
もっとも、人間も一見、創造をしているようで、他の知識の寄せ集めから「創造的に振る舞っている」場合が多いので、生成AIが人間的に見えてしまうのは致し方ないことかとは思います。
個人的に思うのですが、生成AIの登場で2種類の意見を聞きます。
① 人を多くの無価値な労働から解放し、楽にしれくれる
② AIに頼ると人間、馬鹿になる
この2つ、一見すると逆のことを言っているようで、実は同じ論調です。つまり、AIが人にとって代わってくれる、という前提には変わりありません。
とんでもない話です。
むしろ、これからの人たちは大変だなぁというのが私の本音です。
というのも、AIというのは確かに人の作業や思考を肩代わりし、その部分は楽にしてくれるかもしれません。
が、実は「考える」という仕事は残るんです。AIが出力した結論や作業結果を、人は管理、修正しなくてはならない。
むしろ、その方が大変な事じゃないかと感じてます。
このデジタル化時代、なかなか自動化が進まない背景としては2つあって、
(1)そもそも「作業」を仕事としていた人たちが、抵抗している
(2)自動化というのは、異常が起きれば止まるだけで、その後の対処は人しかできない
という実態があります。
よく(1)は叫ばれてますが、(2)の方がどちらかというと深刻で、異常に対処するということは、なんらかの「決断」を伴うことが多いため、実は機械任せにはできないことが多いのです。
機械が、故障寸前の予兆を出している、このまましばらく様子を見るか、それとも一度ラインを止めてチェック・部品交換すべきかの判断に迫られる・・・
こんなことは、AIには絶対に対処できません。予兆がそのうち異常に変わり、停止するだけです。その結果、稼働率を下げてしまい、何のための自動化なのかが分からなくなります。
実は90年代に、日産のとある工場が高自動化率を達成した工場を作り、世界中から脚光を浴びました。
が、結論から言うとその工場、閉鎖されました。あまりにも稼働率が悪すぎて、結局はある程度、人の介在が必要だということが分かった、ということです。
今のAIはさらに発達しているから、同様のことは起こらない・・・と思ってる人が多いですが、不良品の発見や原因追及は確かに速くはなりましたが、異常となれば止まるというのは、昔と変わりません。
なんか、そういう部分を考えないで称賛・批判をしている人の多いこと、実に嘆かわしいことだと個人的には思ってます。
「人とAIの折り合いをどのあたりでつけるか?」
これがこの先の日本の産業が復活するかどうかにかかっている命題のように思いますね。

最近のコメント