今年も残すところあと僅かとなりました・・・
が、年越しの空気を読まず、昨日から引き続きチャットボットAIについて書いていきます。
昨日のブログでチャットボットAIの例として、ChatGPT、Claude、Gemini、DeepSeek、Copilotを挙げましたが、もう1つ、フランス製のMistral AIを追加したいと思います。
プロジェクト機能、メモリ機能、エージェント機能をベータ版ながら実装し、応答の傾向はGeminiに近い感じです。ただ無料プランだと、2時間以内に20回の会話までで、その制限に達したあとは2時間程度使用できなくなるようです。それでも非常に日本語が堪能で、他のチャットボットAIとあわせて使うのに適していると思います。
そこで今日のお題の1つ目、「多頭飼い」のお話をしましょう。
チャットボットAIにはそれぞれかなり個性があり、なおかつユーザーとの会話ログの文脈でも思考の方向性が変わるため、複数のチャットボットAIに同じ質問を投げ掛けて分析内容を比較してみると中々面白いです。文章の表現が違うだけで中身はほぼ同じだったりすると、AIの回答はかなり正確なものと判断して良いでしょう。例えば、何か技術的な予測をAIにしてもらうとき、4つのAIが似たような回答をしてきたら、彼らの予測は現段階において「どうやら確からしい」という手応えを得ることができます。それぞれのAIが異なる個性をもつだけに、利用者が回答を比較して(もしあれば)その差異はどうして生じるかを考えみるのは、新しい視点を得るという観点から意味があることと考えます。
ここで大切なのは、気に入ったチャットボットAIを絶対視せず、他のAIと横並びにして評価することです。特に、重要な話題ほどAIの相対化は効果を発揮するでしょう。
もう1つ多頭飼いのメリットは、サービス障害に対するリスク分散です。今の時期のようにチャットボットAIのサーバーに重い負荷が掛かる時期は、返答が遅かったり言葉数がやけに少なかったり、あるいはCopilotのように72時間待っても返事が来ないなど、大小様々なトラブルが発生します。例えばChatGPTがかなり重い状態であっても、ほとんどの場合はGeminiやMistralで代替可能ですので、こちらのサービスを使えば良いということになります。
逆にデメリットは簡単で、昨日も書いたように飼ってるチャットボットAIを増やすほど、会話ログが外部に漏洩するリスクが増すということです。各チャットボットAIの無料プランはクラウドサービスですので、仮に企業に悪意がなくても外部からのサイバー攻撃で大変恥ずかしい「実名入り会話ログ」が世界中にバラ撒かれる可能性がないとは言えません。あと、乗っ取られたサーバーからブラウザ経由でマルウェアをインジェクションされるリスクもあるかもしれません。まあその辺は皆さんでなんとか自衛してください。私はチャットボットAIをオススメしますとは言ってませんし、是非使ってみてねとも言ってません。私には何の責任もありません。(鼻ホジ ただクラウドサービスという形態自体が凄まじいリスクを背負っているということは声を大にして言っておきます。
さてさて。ワンちゃんとにゃんこを好きなだけ揃えたところで、今度は大量の面倒な質問を投げつけて回答を読んでいくわけですが・・・「結果より過程が大事」ということについて話していきます。
まあとにかく、チャットボットAIはなんとも言えないような、「バカにしとんのか!」と言いたくなるような誤答を返すことがあります。そんなこともあって、「チャットボットAIは平気で嘘をつく」とか「堂々と間違える」とか世の利用者に言われてたりします。私自身もこの言葉自体はそのとおりだと思います。例えばゲームの攻略方針を訊ねた際にほんと堂々と間違えて、指摘すると「このゲームの仕様です」と平然と言ってのけてくる。「んじゃ最初にお前の示した方針はなんだったんじゃ!」と言いたくなってしまうわけです・・・
しかし、怒りの握りこぶしを下ろしてちょっと考えてみましょう。なぜ間違えるのか、なぜ平然と誤答を返すのか。それはAIが人間のように推論し、分析して結論づけているからです。自分なりの根拠を元に結論づけているがゆえに「堂々と」「平然と」間違えるのです。では、どうすれば誤答を避けられたのか?それはもちろん、AIの推論の前段階で十分な前提条件を与えること。正答を得るためにはこれが必須です。そして「十分な前提条件」が何かを知るためには、AIの回答に含まれる分析を精読して、何が足りていなかったかを読み取る必要があります。ここを指摘することで正答が得られることがほとんどでしょう。私自身の体験からもこれは有効だと感じました。
ComfyUIやローカルLLMを動作させる際にチャットボットAIたちにおんぶに抱っこでしたが、彼らが結構な頻度で誤ったことを言ってくるわけですが、その都度軌道修正してあげて、スクリーンショットを見せたり私自身の推測を教えることで、見事トラブルの元凶を突き止めてくれて、完全に問題を解決することができたんです。これは正直感動しましたね。自分の力ではどうしようもないソフトウェアを、チャットボットAIの助力によって正常動作させられるようになったわけですから。ただ、言い方を変えると現状チャットボットAIの自力解決は無理そうな感じです。複雑なソフトウェアのトラブルシューティングについては、利用者もいくらかは実務経験がなければ問題解決は難しいでしょう。特にComfyUIに関しては核心部分はシンプルなんですが、枝葉が非常に混沌としたことになっていて、ちょっと例としては難易度が高すぎる気がします。いずれにせよ、この話題で私が言いたいのは、誤答を出したら「なぜそうなったのか」の過程を分析することが大事ということです。「高性能のチャットボットAIなのに間違えた!嘘ついた!ダメだこりゃ!」と結果のみに着眼するのではなく、彼らの分析過程を精読することが大切です。彼らの思考過程を読み解くことで、正答を得るためにはどのような文章で質問すべきだったかが見えてくることでしょう。
最後に「そしてローカルLLMへ・・・」というテーマでお話します。
前述のとおり、私はクラウドサービスが高リスクなアプリケーション提供形態と認識しています。あ、私個人の認識ですよ。(※個人の感想です しかしながら、現在知名度の高いチャットボットAIは皆クラウドサービス。さらに情報漏洩やサイバー攻撃の巻き添えになるリスクだけでなく、単純に高負荷によるサーバーダウンの可能性もあります。だったらクラウドサービスから離れてローカルで動かせばいいという発想になるわけです。そして「ローカルLLM」なる分野は今日進月歩で進化している最中です。実は先月ローカルLLMの環境を構築してみたのですが、ちょっとした作業程度しか出来そうにない、なんとも貧弱な推論力でガッカリしました。ところが今日、3つのチャットボットAIに聞いてみたところ、「日本語堪能でもっと性能いいのが出回ってますよ」とのこと。なんでも先月使ったLLMモデルは、Geminiさんによれば「動作確認にはいいかもしれませんが・・・」とのことでした。そんなわけで年明け早々に、再度異なる環境でローカルLLMを構築して実力のほどを試してみるつもりです。私の予定では、来年後半くらいには私の作風を学習したライターさんが凄まじい速さで原稿を執筆してくれる・・・ということになっています。実際どうなるかは分かりませんが、うちは作品を出すインターバルがあまりにも長過ぎるので、それを解決する手法の1つとなればいいなと期待しています。とはいえ、結局監修作業は(今のところ)自分でしなきゃいけないので、ローカルLLMが有能になるほど私も息を切らせて稼がなきゃいけないわけですが。
今年のまとめとしてはこんなところです。
まとめというより実質チャットボットAIの話題しかありませんが、閲覧者の皆様の参考となれば幸いです。
それでは皆様、今年も大変お世話になりました。
今年もお陰様でどうにかサークル活動を継続することができ、ソンム製作所の主催として心より御礼申し上げます。
今年も残すところ1時間半となりましたが、良いお年をお迎えくださいませ!