clock2026.05.07 08:03
SERVICE
home

人格AIに何を求めるべきか|tagahikoGPTを作ってみた(2/3)

AUTHOR :   ギックス

前回に引き続き、社内向けカスタムGPT「tagahikoGPT」について、作成者である田中に聞きました。


GPTのバージョンアップで挙動が変わる

―初期バージョンをチューニングして、それなりに動くようになった、とお伺いしました。その後はどうなったのでしょう?

田中:
ほどなくGPT-4oがでてきましたので、そちらで試してみたところ、まったく挙動が変わってしまいました。メンバーからも「タガヒコさんっぽくない」というコメントが多く寄せられ、「推論モデルが違うと、厳しい」という感覚を持ちました。いまとなってはモデルによって挙動が変わるのは至極当たり前の話なのですが、そのタイミングでは、「こんなに違うのか」という感じでしたね。驚きました。
いろいろと試行錯誤してみたのですが、4oでは、まったく「それっぽさ」が出せなくて苦戦していました。しばらくしてGPT-5がリリースされたので、改めて本腰を入れてチューニングしました。
正直、いまいち芯を食わない印象はありましたが、調整を繰り返していくうちに、一定動くようになってきましたので、社内に「tagahikoGPT_v1.3(GPT5版)」として展開した直後に、GPT5.1が出てきまして。

―元の木阿弥になってしまったんですね。

田中:
そうですね。正直困ったなぁと思ったのですが、むしろ、この機会にちゃんと立ち止まって考え直すべきだと捉えました。
というのも、v1.0(o3版)をベースに、つぎはぎで構築してきたのが、v1.3(GPT-5版)だったんですね。つまり、増改築を繰り返している迷路みたいな家になってしまっているのでは、と思い至ったわけです。
その状態でうまくいかないのであれば、いっそ新築でイチから建て直した方が最新技術をしっかりと活用できるのではないかと考えました。

―構築し直した結果、どうなりましたか?

田中:
劇的に良くなり、tagahikoGPT_v2.0(GPT5.1)として、社内に展開しました。初のメジャーアップデートです。
なぜもっと早く「スクラップ&ビルド」を考えなかったのかと反省しました。

―具体的には、どのような点が変化したのでしょうか?

田中:
個人的な体感ではありますが、「素(す)のGPTが賢くなっている」という部分が極めて大きかったです。論理的で合理的で話が早い。
したがって、いろいろ調整をしなくても「コンサルタントっぽい」動きをしてくれるんですね。
その結果、指示文が大幅にシンプルになりました。直前のバージョンと比べると、半分程度になってると思います。

―かなり少なくなりましたね。

田中:
はい。「え、“僕を、僕たらしめているもの”って、こんなに少ないの?」という気持ちになりました。

―それはショックですね(笑)

田中:
ショックでしたよ。僕って、そんなに普通なの?差別性がないの?という。
ただ、v1.0(o3版)に手を加えていくうちに、どんどん指示文が複雑化していったのも事実です。そこから目を背けていたことが、先ほどの「早くスクラップ&ビルドに踏み切るべきだった」という反省にもつながります。

これは、イリナ(と名付けられたサポートAI人格)を信頼しすぎた、いうことも一因です。「どう直したらいい?」「こう直しましょう。必要なら、それを踏まえた指示文を作成します」「ありがとう。よろしく」というステップでのチューニングを繰り返した結果、「複雑な増改築」が行われてしまいました。

―AIを過信したのが問題だったということですか?

田中:
過信したのが問題とまでいうと極端ですが、AIとの役割分担を見誤った、とは言えると思います。
AIに限らず、情報は「減らす」方が難しいです。人間で言えば、今あるものを削るのは勇気が必要です。反対に、ないものを追加する方が、心理的ストレスが低いですね。正直「仕事している感じ」がするじゃないですか、何かを足すと。
もちろん、AIがそのような感覚を持っているわけではないですが、基本的に「存在する情報は、是として扱う」という傾向はあると思います。
インプットとして与えられてしまうと、それをベースに考えてしまう。
システム開発で言えば、既存のコードを与えて改修させるのか、新たに要件を渡してコードを書かせるのかの違いだと思います。
どちらが良いかは、時と場合に依りますが、常に前者が最適ということにもならないと思います。

―なるほど。tagahikoGPTに話を戻しましょう。すでに、GPT-5.5がリリースされていますが、現在はどういう状況なのでしょうか。

田中:
いい質問ですね。実は、僕自身が飽きてしまって、v2.0のままなんです。社内に展開していますが、利用者からも特に不満の声も聞かないので、「それなりに動いている」もしくは「もう使われていない」のどちらかだろうと思っていたんですが…

―何かあったのでしょうか?

田中:
つい先日、弊社代表取締役CEOの網野から「tagahikoGPTに聞いてみた結果」なるものが共有されてきまして、「え、使ってるんですか?」ということになったんですね。
しかも、そのアウトプットを見ると、正直、「僕っぽさ」が薄くなっていることがわかりました。驚いて若手メンバーにも意見を聞いてみたところ「GPT-5.3のあたりから、まったくタガヒコさんっぽくないです」と言われまして。「皆早く言ってよ…」と心から思いました。

―では、そろそろバージョンアップをはかるのでしょうか?

田中:
はい。ゴールデンウィークもありますし、どこかでチューニングしようと思います。v3.0(GPT-5.5版)を目指します。(※このインタビューは4月後半に行われました)
ただし、こうした調整を永遠に繰り返すのは現実的ではないため、本来実用的なサービスにしようとするのならば、やはり「LLMのバージョンを固定する」という選択肢を選ばなければいけないでしょうね。
つまり、Local-LLM環境を構築していくということになります。
ですが、tagahikoGPTに関しては、社内向けの実験的な取り組みというところもあるので、そこまでは行わないと考えていますが、人格を模倣したAIを商用サービスとする点においては、重要なポイントになると思います。
あきらかに、挙動が変わりますので。

―ガードレール(AIシステムが不適切な出力をしないよう制御する仕組み)などの話でしょうか?

田中:
tagahikoGPTの場合は、多少の嘘をついても困らない社内に限定された「用途」のため、ガードレールやハルシネーションの予防などについては大きな懸念はありません。ただ、一般的な生成AI活用においては、この点は極めて大切な論点になってきます。

ですが、これは要するに「どの業務に、どのように生成AIを嵌め込みたいのか」という業務設計の話だと思っています。
少しでも間違いがあっては困る業務で使う場合と、多少の誤りが許容される業務で使う場合とでは、作成方法も管理方法も運用方法も変わります。tagahikoGPTは後者ですが、前者の場合は、AIだけでなく、様々なことに配慮して業務を設計しなければいけません。

このあたりの話を、僕は、「AI-BPR」と読んでいます。AIを活用するという前提で、BPR(業務プロセスの再設計)をどうするのか、という視点です。これはAIの設計・開発技術だけでは不十分で、AIが組み込まれた業務を設計しないと、実業務では活用できないと考えています。
今後は、いや、今まさに、そのようなことを考えられる「AI-BPR人材」が求められています。そういった人材は、AI活用において重要な役割を果たします。

AIだけで完結できる仕事は、AIを開発することで対応できますが、何らかの意思決定・判断をするような状況では、どうしても「人間」が関与するので、BPRの視点が大切になると思うんですよね。
ギックスでは、AI-Informedという言葉も使っていますが、やはり、人が関わる世界は、当面なくならないと考えています。

続く


※記載内容は2026年4月時点のものです。

SERVICE