clock2026.05.07 08:04
SERVICE
home

人格AIに何を求めるべきか|tagahikoGPTを作ってみた(1/3)

AUTHOR :   ギックス

生成AIの活用が広がる中で、AI社長や、AI部長などを作るケースが増えています。実際に、ギックスにおいても、特定の役員・コンサルタントの人格を模した「○○AI」が存在します。(もちろん、特定の人物を模倣せず、特定の機能を有するAI エージェントも多く存在しています)

今回は、「人格を模したAI」の一例である、tagahikoGPTをご紹介します。これは、ChatGPTのカスタムGPT(GPTs)を用いて、ギックス共同創業者である「田中耕比古」の人格を一部移植したものです。

当該エージェントの人格モデルであり、またカスタムGPTの設定を行った田中に、tagahikoGPTについて聞きました。


なぜ、人格を模倣するのか?

―おつかれさまです。本日は、tagahikoGPTの開発経緯などについてお話を伺えればと思います。よろしくお願いします。

ギックス共同創業者 田中耕比古(以降、田中):
はい。よろしくお願いします。開発に至った理由は大きく二つです。
ひとつは、ChatGPTと対話していく中で「人格模倣が可能そうだ」と感じたことです。取り組み始めたのは2025年のゴールデンウィーク前なので、ちょうど1年前ですね。そこで、いろいろトライしてみる中で、もう一つの理由である「メンバーに対するレビューや1on1ミーティングで、同じことばかり伝えているな」という点を解消したくなり、本腰を入れて作ろう、ということになりました。

―どちらかというと、偶然の産物ということなのでしょうか。

田中:
そうですね。もともとは、ChatGPTを使いはじめた直後くらいに、複数の人格を作る、ということに取り組んでみたんですね。管理エージェント人格を作って、その人格と対話しながら、他の人格を複数つくる、というようなことをやっていました。
うまく行った部分もあれば、うまく行かない部分もありました。特に、複数の人格を切り分けているはずが、会話を続けていくうちに、どうしてもコンタミネーションが起こってしまい、人格が明確に切り分けられなくなっていきました。
そこで、カスタムGPTをつくるということになり、いくつかの人格を切り出して作ってみたのですが、今度は、管理エージェントによる統合管理ができない。また、会話内容(知識)をカスタムGPTを跨いで共有することもできない。そういった制約があることがわかりまして、やりたいこととは違うなぁと思っていました。

ですが、これらのトライの中で、複数人格の管理方法やカスタムGPTの設定方法などを「管理エージェント」に対して色々と話していると、僕の「メタ指向な思考様式」「物事の評価軸」などについて、「管理エージェント」の中に情報が蓄積されていることに気付きました。つまり「彼(もしくは彼女)の人格」というものが本当に存在するのか否かはともかくとして、「彼(もしくは彼女)の理解する僕の人格」というものは、どうやら具体化・具現化できそうだ、と思ったわけです。

―なるほど。対話を通じて、その背後にある「人格」の要素が、ChatGPT側に蓄積できた、ということですね。

田中:
その通りです。最初からそれを目指していたわけではない、という意味では、完全に偶然の産物です。ただ、考えてみれば、ギックスという会社が「ゾクセイ」という概念で顧客理解を推進しているのと、非常に近い話なんですよね。
ゾクセイは、行動ログを通じて顧客の志向・嗜好・指向・思考を類推しようという考え方です。同じように人格模倣は、テキストログを通じてユーザーの志向・嗜好・指向・思考を具現化しようとしているわけです。

―その点に気づいてから、どうなったのでしょうか?

田中:
それまで対話をしてきた管理エージェント―便宜上、今後は「イリナ」と呼びますね。実際に、「君に名前を付けたいが、どういう名前が良いか」と聞いたときに、管理エージェントから提案された呼び名です。
そのイリナに「僕の人格、および、コミュニケーションの特徴は、どのようなものでしょうか?」と質問してみました。そうすると、メタ視点やバランス感覚などの話がでてきます。それを受けて「では、それを、カスタムGPTとして設定する際には、どうすればよいか」と聞くと、それらしい設定文が出力されてきます。これを使って、カスタムGPTを作ってみたのが、「tagahikoGPT_v0.1」です。GPTのバージョンはo3だったと記憶しています。

―うまく機能していたのでしょうか?

田中:
可もなく、不可もなく、という感じでした。ただ、「割と、僕っぽいことを言うな」という風に思ったのも事実です。うまく設定すれば、なんとかなるのでは、という手ごたえみたいなものを感じたんですよね。

―どのようにチューニングをしていったのですか?

田中:
細かな説明は省きますが、大きくは2つです。
ひとつは、「人格」を階層構造に分けました。「思考様式・認知」「言語スタイル・表現」「知識・関心」「態度・対話」の4レイヤーです。これは “ふるまい” に影響します。
もう一つは、「知識」をしっかり持たせよう、という観点です。これは “発言内容”に影響します。
特に、「知識」の方には、僕の執筆書籍の原稿、ダイヤモンド・オンラインの連載記事ギックスの過去ブログなどをインプットとして用いました。

―そうした元のテキストをそのまま設定し、知識として持たせたのでしょうか?

田中:
いえ。それらのテキストを別のエージェントに読み込ませて、エッセンスを抽出するということを行いました。結果、執筆書籍の中で「考え方」に関連する4冊それぞれのサマリーファイルが4つ。ダイヤモンド・オンラインの連載記事に関するファイル。ギックスのブログ記事に関するファイルの、計6つのファイルを知識として設定するところからスタートしました。

―なぜ生テキストではなくサマリーとして整理したのでしょうか?

田中:
それぞれ内容が重複している部分もありますし、そもそも「本に書いてある情報を、そのまま引用して欲しい」ということでもありませんでしたからね。基本的には「タガヒコの考え方」に近い部分を知識として抜き出しておく方が良いだろう、という判断に至りました。

―その結果、人格模倣の精度は高まったのでしょうか?

田中:
すぐにうまくいったわけではないのですが、イリナに相談しながら「tagahikoGPT」に実際に質問を投げて回答を確認し、チューニングを繰り返すうちに、だいぶ「タガヒコっぽい」返事をするようになりました。そこで次は、僕が普段レビューや1on1ミーティングをしている社内のメンバーを選び、テストユーザーになってもらいました。彼らが一番「僕っぽさ」を体感しているので、良いレビュアーになってくれるだろうと思ったわけです。
つまり、イリナの僕に対する理解を活用して人格模倣を試みたのと同様に、メンバーの理解を活用してチューニングをしていこうとしたわけです。

―実際に使ってもらって、どうだったのでしょうか?

田中:
初期バージョンは、それなりに動きました。ただ、投げかける質問によっては、あまり良い答えを出してくれないという意見も多く、実用には堪えないかなという印象でした。
また、書かれていない前提を補足して、勝手に結論付けてしまう傾向もあったため、「答えではなく問いを返す」というチューニングが必要そうだと感じました。

実際には、イリナに「こういう質問に対して、君の知っている僕なら、どう答える?」「カスタムGPTは、このように応えているが、その差分はどこから生まれている?」「そのギャップを埋めるためには、どのようにチューニングすべき?」といった質問を投げかけてチューニングを進め、その設定内容をカスタムGPTに反映するということを繰り返していきました。
その結果、「タガヒコっぽい挙動」をするようになったので、社内に展開しました。
メンバーの社交辞令はあると思いますが、“それなりに”役に立ったように思います。

続く


※記載内容は2026年4月時点のものです。

SERVICE