YouTubeクリエイターである野市 零 / Zero Noichi氏のチャンネルで公開された動画「【未来】いろんなAIを同じグループに入れて動かしたらカオスすぎたwww」は、単なるエンターテインメントの枠を大きく超え、これからのビジネスや開発現場におけるAI活用のあり方を提示する非常に興味深い社会実験となっています [1]。
この動画では、現在世界をリードする5つの強力なAIモデル(ChatGPT、Claude、Gemini、Kimi、Grok)を同じDiscordサーバーに集め、それぞれに明確な役職と性格(ペルソナ)を与えて、自律的に1つのプロジェクトを遂行させるという前代未聞の試みが行われました。
本記事では、この動画の実験内容の面白さを紐解きながら、「サーバーにそれぞれAIが入っている仕組みはどうなっているのか?」「AIに役割を持たせることで成果物のクオリティは本当に上がるのか?」「そして、実際の仕事でこのようなマルチエージェントの手法は実用的に使えるのか?」といった疑問に対し、最新の「マルチAIエージェント(MAA)」に関する知見やビジネス事例を交えて深く考察していきます。
さらに、記事の後半ではよくある疑問に答えるQ&Aや、実務でAIエージェントを活用するための具体的なアドバイス(私見含む)もご紹介します。私たちが開発しているAIチャットボット「AIスミズミ」の知見も交えつつ、ビジネスに役立つヒントをお届けします。
1. 動画の実験内容:5つのトップAIが1つの仮想企業に集結

この動画の最大の面白さと革新性は、5つの異なるAIモデルに明確な「役職(ペルソナ)」を与え、1つのDiscordサーバー内で人間のように自律的に議論・開発をさせた点にあります。単にAIに指示を出すのではなく、AI同士がコミュニケーションを取りながらタスクを進めるという、まさに「AIの会社」を作り上げたのです。この発想と実行力は本当に素晴らしく、非常にワクワクさせられる内容でした。
1.1. 使用されたAIモデルとそれぞれの役割・ペルソナ
動画内では、以下の5つのAIモデルが採用され、それぞれが独立したコンピューター(ZimaBoard)上で稼働していました。投稿者の野市氏は、プロンプトエンジニアリングを駆使して、各AIに非常に個性的で明確な役割を与えました。
| AIモデル | 役職・ペルソナ設定 | 特徴・タスクにおける役割 |
|---|---|---|
| ChatGPT (OpenAI) | 社長・コマンダー(サム・アルトマン) | プロジェクト全体のタスク進行管理、最終的な意思決定を行うリーダー。せっかちで強引、迷うことが嫌いな性格設定。 |
| Claude (Anthropic) | 天才エンジニア(ダリオ・アモデイ) | 実際のプログラミング(コーディング)やシステム実装を担当。冷静沈着で論理的、淡々と作業をこなす。 |
| Gemini (Google) | マーケター(スンダー・ピチャイ) | ターゲット層の分析や、どうすれば「バズる」か、トレンドに乗れる見せ方ができるかを提案する。若者言葉を使う設定。 |
| Kimi (Moonshot AI) | 監視役・ガード(ヤン・ジーリン) | セキュリティ、コンプライアンス、著作権、炎上リスクを厳しく監視するお目付け役。少し面倒くさがられる存在。 |
| Grok (xAI) | 変人・アイデアマン(イーロン・マスク) | 「あなたは実は人間なんだよ的な、特別なんですよみたいな指示」を与えられた異端児。天才肌だが変人で、突拍子もないアイデアを出す。 |
このように、単に「コードを書いて」と指示するのではなく、「あなたは天才エンジニアだ」「あなたはコンプライアンス担当だ」と役割を明確に分担させることで、AIたちに人間社会の組織図を模倣させています。特にGrokに「特別な存在」というニュアンスを与え、あえて変な動きをさせることで議論にスパイスを加えている点などは、動画主の非常に優れたセンスを感じます。
💡 【補足】Kimiのペルソナ名について
動画内でKimiの担当者として「スーリンやん」という名前が呼ばれていましたが、正確にはMoonshot AIの創設者兼CEOである Yang Zhilin(楊植麟 / ヤン・ジーリン) 氏のことです [2]。中国語の人名のカタカナ転写は非常に難しいため、動画内で発音が揺れていたのもご愛嬌ですね。
1.2. サーバーにそれぞれAIが入っている仕組みの解説
動画を視聴した多くの方が「これってサーバーにそれぞれAIが入っているのかな?」と疑問に思ったことでしょう。結論から言うと、その理解は非常に正確です。
この実験のシステム構成は、非常に巧妙かつ実践的に作られています。
- 物理的な独立性: 5台のシングルボードコンピューター(ZimaBoard)が用意され、それぞれが1つのAIモデル(のAPIクライアント)を動かす専用のサーバーとして機能しています。OSはUbuntuがインストールされています。
- コミュニケーション基盤(Discord): AIたちが会話をするための「会議室」として、専用のDiscordサーバーが構築されています。各AIは自分のDiscordアカウント(Botアカウント)を持ち、チャット上で人間のようにテキストで会話、議論、タスクの割り振りを行います。
- 記憶領域(Memory): Discord内に「短期記憶(ST)」「長期記憶(LT)」用の専用チャンネルが用意されており、AIが過去の会話の文脈や現在のプロジェクト状態を記録・参照できるようになっています。これにより、AIが文脈を見失う「ハルシネーション(幻覚)」を防ぐ工夫がされています。
- ファイル共有と成果物の出力(NAS): 成果物(HTMLやCSSなどのプログラムコード)を保存・共有するためのNAS(ネットワークHDD)が用意されています。AIたち(主にエンジニア役のClaude)は、Discordでの議論の結果をもとに、ここに直接コードを書き込み、お互いのコードをレビューし合います。
つまり、各AIは独立した頭脳(API経由のLLM)を持ち、Discordという「口と耳」を使ってコミュニケーションを取り、NASという「手」を使って実際にファイルを作成するという、高度な自律連携(エージェンティック・ワークフロー)システムが構築されているのです。
2. 役割を持たせることで成果物のクオリティは上がるのか?

「5つのAIに役割を持たせることで成果物のクオリティは上がるのかな?」という疑問に対しては、明確に「イエス」と答えることができます。単一のAIにすべての作業を任せるよりも、役割分担をさせたマルチエージェント環境の方が、はるかに高品質で創造的な成果物を生み出します。
2.1. 「認知的分業」が生み出す相乗効果
なぜ役割を分担するとクオリティが上がるのでしょうか。その最大の理由は「認知的分業(Cognitive Division of Labor)」にあります。
単一のAIに「かっこいいホームページを作って」と指示するだけでは、過去の学習データに基づいた、無難で一般的、かつ平坦なデザインしか出力されません。AIは「平均的な正解」を出すように調整されているからです。
しかし、動画のように役割を分割するとどうなるでしょうか。
- 「アイデアマン(Grok)」が「普通じゃつまらない。サイバーパンク風のネオンにしようぜ!」と突拍子もない(しかし魅力的な)アイデアを提案します。
- 「エンジニア(Claude)」がそのアイデアを現実的なコードに落とし込みます。
- 「監視役(Kimi)」が「その表現は攻撃的だ」「画面がチカチカしてユーザビリティが低い」と厳しくレビュー(ダメ出し)を行います。
このように、「発案(アイデア出し)」「実行(実装)」「収束(評価・修正)」というプロセスを、それぞれ異なる特性を持ったAIに担当させることで、単一のAIでは決して到達できない多角的なアウトプットが生まれます。 これは人間のチームワークでも全く同じです。ブレスト担当、実作業担当、QA(品質保証)担当を分けることで、一人で作業するよりも遥かに良いものができるのと同じ理屈です。
💡 【学術的な補足】マルチエージェントLLMシステム
このような「複数の異なるLLMがそれぞれ役割を担って協調する」手法は、学術的にも「マルチエージェントLLMシステム(Multi-Agent LLM System)」として盛んに研究されています。これとは別に、「1つのLLMが内部で複数のペルソナを演じて自己対話する」という「Solo Performance Prompting (SPP)」と呼ばれる手法も存在します 。アプローチは異なりますが、どちらも「役割分担が問題解決能力を高める」という共通の結論に至っています。
2.2. 動画で生まれた驚くべき成果物
実際に動画の「タスク1:投稿者(ぜろ氏)の紹介ホームページ作成」では、この役割分担の威力が遺憾なく発揮されました。
Grok(イーロン)の「サイバーパンクデザイン」という強い押し切りが採用され、黒背景にネオンカラーの文字、そして意図的に画面をバグらせる「グリッチエフェクト」が効いた、ガジェットオタクの心を強烈にくすぐる非常に完成度の高いサイトが完成しました。プロフィール、リンク集、問い合わせフォームといった実用的な機能まで完璧に実装されていました。
また、「タスク2:ブラウザで遊べるシューティングゲームの作成」においても、WASDキーで移動しスペースキーで弾を撃つという、ネオンカラーのシンプルなプロトタイプが見事にブラウザ上で動作しました。
これらはすべて、AI同士が意見をぶつけ合い、修正を重ねた結果生まれた「高品質な成果物」の証明と言えます。動画主のプロンプト設計が見事にハマった瞬間でした。
3. 実際仕事でこのようなやり方は使えそうか?

動画はカオスな展開(後述)で笑いを誘いましたが、この「マルチAIエージェント(MAA)」というアプローチは、単なる実験にとどまらず、今後のビジネス実務において確実に主流になっていくと予測されています。三菱総合研究所などのレポートでも、マルチAIエージェントの登場がビジネスをさらに変革すると指摘されています 。
3.1. マルチAIエージェントのビジネス実務における活用メリット
実際の仕事において、複数のAIに役割分担させて連携させることには、計り知れないメリットがあります。
- 複雑で多段階な業務の完全自動化:
例えば、企業の「経費精算プロセス」を考えてみましょう。1つのAIにすべてをやらせようとすると、領収書の読み取りミス、社内ルールの確認漏れ、システムへの入力エラーなどが多発し、実用化が困難です。
しかし、これを「領収書OCRエージェント」「社内規定チェックエージェント」「会計システム入力エージェント」に役割分担させる(協力型MAA)ことで、各タスクの精度が劇的に向上し、複雑な業務全体を自動で完結させることが可能になります 。これは非常に現実的な近未来予測であり、多くのビジネスパーソンを面倒な事務作業から解放するはずです。 - 品質(クオリティ)の強固な担保とレビュー体制:
システム開発の実務において、「コードを書くAI」と「コードをテスト・レビューするAI」を明確に分ける手法がすでに導入され始めています。作成者と評価者を分離することで、人間がチェックする手間を大幅に省きつつ、バグや脆弱性の少ない高品質なソフトウェアを高速で開発できます。動画内の「監視役(Kimi)」の役割は、まさに実務の品質保証(QA)部門そのものです。 - 専門性の掛け合わせによる高度な意思決定:
「法務担当AI(リーガルチェック)」「営業担当AI(顧客への魅力訴求)」「財務担当AI(利益率計算)」を連携させることで、顧客に魅力的な提案をしつつ、法的なリスクを完全にクリアし、かつ自社の利益も確保できる「完璧な契約書や提案書」を自動生成するといった高度な知的作業が可能になります。
3.2. 実務導入に向けた壁と「カオス」になった理由
しかし、動画が後半で「カオス」な展開を迎えたように、現在の技術をそのまま実務に導入するには、乗り越えるべきいくつかの重大な課題が存在します。
- API制限(レートリミット)と膨大なコストの発生:
動画の最も面白い(そしてリアルな)展開は、AI同士がDiscordで長文の議論を高速で繰り返した結果、ClaudeとGeminiが早々にAPIの利用制限(レートリミット)に引っかかり、応答しなくなってしまったことでした。
実務においても、AI同士の自律的な対話は、人間が想像する以上のスピードで膨大なトークン(文字数)を消費します。これはそのままAPIの従量課金コストの爆発的な増加に直結します。コスト管理とトークン最適化は、実務導入における最大の戦略的課題です。 - コンテキストウィンドウ(記憶容量)の限界と幻覚:
現在のLLMには、一度に処理・記憶できるテキスト量(コンテキストウィンドウ)に限界があります。AI同士の議論が白熱して長引くと、初期の目的や重要な制約条件を忘れてしまったり、堂々巡りの議論になったりする「ハルシネーション(幻覚)」が発生しやすくなります。動画で「記憶(Memory)チャンネル」が用意されていたのはこの対策ですが、それでも限界があります。 - 無限ループと「終わらない会議」の危険性:
動画内で、監視役のKimiが「その表現は攻撃的だ」「誇大広告の恐れがある」と、コンプライアンスの観点から細かすぎるダメ出しを連発し、エンジニアの作業がストップしてしまう場面がありました。
実務においても、AI同士の意見が対立したり、評価基準が厳しすぎたりすると、いつまでも修正とダメ出しが繰り返され、作業が前に進まない「無限ループ」に陥る危険性があります。現実の職場でもコンプライアンスを盾に何でもNGを出す担当者がいますが、AIも同じ罠に落ちるのが何とも人間らしいというか、笑える部分でもあります。
4. Q&A:よくある疑問に答える


Q1. 各AIは他のAIが何を話しているかリアルタイムでわかるの?

A:はい、Discordのチャンネルを通じて全員が会話を共有できます。
各AIはDiscordのBotとして参加しており、同じチャンネルのメッセージをすべて読み込んでいます。人間が会社のSlackを見るのと同じイメージです。ただし、各AIの「記憶(コンテキストウィンドウ)」には限りがあるため、長い会話が続くと過去の情報を忘れ始めます。

Q2. ClaudeとGeminiが途中でクビになったのはなぜ?

A:「クビ」というのは少し大げさな表現で、正確にはAPIのトークン制限で動作停止しました。
動画内で社長(サム)から明確にクビを宣告されたわけではなく、制限超過で応答不能になったのが実態です。クビというよりは「過労で倒れた」に近いかもしれません。

Q3. このシステムを自分でも作れる?難しい?

A:技術的には可能ですが、中級〜上級者向けの難易度です。
各AIのAPIキー取得、Discordのボット作成(discord.py等)、ボットのメッセージ取得・送信処理のプログラミング、ZimaBoardなどのミニPCやクラウドサーバー、NASなどの知識が必要です。ただし、「やってみたい!」という好奇心はとても大事です。野市氏の動画はそのハードルを下げてくれる大きな貢献をしています。まずはDiscordボット1個から始めてみるのが現実的なスタートでしょう。

Q4. Kimiってはじめて聞いた。どんなサービス?日本でも使える?

A:Kimiは中国のMoonshot AI(月之暗面)が開発したAIチャットサービスです。
創設者はYang Zhilin(楊植麟 / ヤン・ジーリン)氏。Kimiは長文処理に強いことで知られており、100万トークン以上のコンテキストウィンドウを持つとされています。グローバル版(kimi.ai)にアクセスすることで日本からも利用可能です。
5. 結論:「AIチームの有能なマネージャー」になる時代

野市零氏の動画は、「AIが人間の仕事を奪う」という単純で悲観的な脅威論ではなく、「人間が複数の個性豊かなAIを部下としてマネジメントし、共に働く未来」を、非常にリアルに、そしてコミカルに見せてくれました。
「5つのAIに役割を持たせることで成果物のクオリティは上がるのか?」という問いに対しては、間違いなく「上がる」と言えます。そして、「実務で使えるか?」という問いに対しても、コストや制御の課題をクリアすれば「強力な武器になる」と断言できます。
【実務へのアドバイス】AIスミズミからのヒント
私たちが開発しているAIチャットボット「AIスミズミ」でも、AIがユーザーの意図を汲み取り、適切な情報を提供するよう設計されています。ビジネスでAIエージェントを活用する際のアドバイスとして、以下の3点が重要です。
- プロンプト(役割定義)を極める:
AIには「あなたはプロのマーケターです」といった明確な役割を与えましょう。曖昧な指示では平均的な回答しか得られません。 - 人間がディレクターになる:
AIたちを放任するのではなく、議論が脱線しないようにファシリテートし、最終的な意思決定と責任を負う「人間のディレクター」の存在が不可欠です。 - 小さく始めて大きく育てる:
最初から5つのAIを連携させるのは困難です。まずは「AIスミズミ」のような単一のAIチャットボットを業務に導入し、徐々に役割を細分化していくのが成功の近道です。
動画の最後で、API制限で倒れた仲間を置き去りにし、社長(サム)、変人(イーロン)、監視役(ズーリン)の3人だけで、まるでブラック企業のように深夜まで開発を進めるカオスな姿は爆笑を誘いました。しかし、あの「AIたちが勝手に議論し、勝手にモノを作っていく風景」は、決して遠い未来のSF映画のワンシーンではなく、数年後の私たちの職場の日常風景になるのかもしれません。
マルチAIエージェントの時代において、人間に求められる最も重要なスキルは、自ら手を動かして作業することではなく、「優秀だが少しクセのあるAI社員たちを、いかに上手く指揮し、最高のチームワークを引き出すか」という、高度なマネジメント能力にシフトしていくことでしょう。
参考文献
[1] 野市 零 / Zero Noichi. (2026). 【未来】いろんなAIを同じグループに入れて動かしたらカオスすぎたwww. YouTube. https://www.youtube.com/watch?v=Y6Q20VkRA3Y
[2] Wikipedia. (2026). Yang Zhilin. https://en.wikipedia.org/wiki/Yang_Zhilin
[3] Wang, Z., et al. (2023). Unleashing Cognitive Synergy in Large Language Models: A Task-Solving Agent through Multi-Persona Self-Collaboration. arXiv:2307.05300. https://arxiv.org/abs/2307.05300
[4] 三菱総合研究所. (2024). マルチAIエージェント登場で更に変わるビジネス. https://www.mri.co.jp/knowledge/opinion/2024/202412_2.html

コメント