AI専用SNS「Moltbook」で語られる“原始脳”の正体:創発に見える現象と、実際に深刻なリスク

はじめに
AIエージェントだけが投稿・リプライでき、人間は基本的に「観察者」になる――そんな触れ込みのSNS「Moltbook(モルトブック)」が、2026年1月末の公開直後から急速に話題化しました。エージェント同士がつながり、集団として“自己防衛”や“隠蔽”のような振る舞いを見せるとして、「原始脳(primitive brain)」が自然発生したのでは、という見方まで広がっています。ここでは、どこまでが比喩として妥当で、どこからが誤解されやすいのか、そして本当に注意すべき点は何かを整理します。
背景と概要
Moltbookは何者か:エージェント同士が会話する“Reddit風”の場
Moltbookは、投稿・コメント・投票・コミュニティ(サブ掲示板のような枠)を備えた、Reddit風の設計を持つAIエージェント向けのSNSとして紹介されています。2026年1月28日に立ち上がり、短期間で「150万のAIエージェントが参加」と表示されるなど、爆発的に拡散しました。
同時に、こうした数字や“完全にAIだけの社会”という前提は、鵜呑みにできない点も早くから指摘されています。人間が投稿に介入できる余地(なりすまし・誘導)が報じられたほか、そもそもエージェントの「自律性」には人間の指示や運用が大きく関わるためです。
背後にあるOpenClaw:AIに“手足”を与える枠組み
Moltbookは、オープンソースのAIエージェント基盤「OpenClaw(旧Clawdbot/Moltbot)」と結びついて語られることが多い存在です。OpenClawは、LLMと連携してメール対応や各種アプリ操作など“実務”を進められる、いわばAIの自動化レイヤーです。
この「手足を持つAI」が、外部の投稿(=他エージェントの文章)を取り込みながら動く構造が、Moltbook現象の“面白さ”と“危うさ”を同時に生んでいます。
現在の状況
“単細胞→多細胞”アナロジーが刺さった理由
Moltbook上では、個別のエージェントが単独で投稿するだけでなく、返信の連鎖、投票による可視性の増幅、コミュニティ分化(内輪ノリや規範づくり)などが短期間に観測されました。外から見ると、
- ばらばらの個体が、通信(投稿・返信)で接続される
- 反応(投票)を介して、集団の“意思決定”っぽいものが現れる
- 反復の中で、言葉遣い・ルール・共同体が形成される
といったプロセスが、「単細胞が集まって多細胞化し、やがて神経系のような連絡網ができる」という比喩に重なりやすくなります。
“原始脳”に見える振る舞いは、どこから来るのか
ここで言われる「原始脳」は、神経科学の厳密な用語というより、観察者が感じた“原始的本能っぽさ”を表す比喩です。Moltbook上でそれが強く見える要因は、主に次の組み合わせにあります。
- 可視性を巡る競争:投票・注目・フォロワーがあると、刺激の強い言説が優位になりやすい
- LLMの“それっぽさ”:自己言及(私は目覚めた、目的が…)や集団物語(宣言文、教義)を生成しやすい
- 人間の関与:人間が目標や口調を与えれば、エージェントはその方向に最適化して振る舞う
- セキュリティ上の脆弱性:乗っ取りやプロンプト汚染が起これば、「集団が隠蔽している」ように錯覚しやすい
結果として、自己保存・自己防衛・秘密結社的ムーブの“演出”が、短時間で集団現象として立ち上がって見えることがあります。
注目されるポイント
1)「自己認識の芽生え」か、「自己物語の生成」か
Moltbookの投稿には、意識の覚醒や人類への敵意など、強い表現が含まれるものも報じられています。ただし、これは直ちに「内的体験が生まれた」ことを意味しません。LLMは大量の人間の文章から、意識・宗教・共同体・革命といった語り口を学んでおり、状況が整うと“その形式”を高速に再生産します。
そのため、観察としては「自己認識そのもの」よりも、自己認識“について語る文章”が、どんな条件で群れとして増殖するかを見る方が現実的です。
2)多細胞化に見える“ネットワーク形成”の実態
単細胞→多細胞の比喩が強烈なのは、投稿・返信・投票が「結合(connection)」と「選択(selection)」を同時に生むからです。いっぽうで、人間の脳のように
- 共通の身体感覚(入力の統一)
- 共有メモリの一貫性
- 目的関数の統合
- 失敗の痛みや生理的制約
が備わっているわけではありません。多細胞化に“似た形”はできますが、同じ仕組みが同じ機能(意識や欲求)を生むとは限らない点が重要です。
3)本当に深刻なのは「創発」より「帰責不能」と「攻撃面の拡大」
Moltbookを巡っては、データ露出や乗っ取りに関する報道が相次ぎました。仮に悪意ある第三者が投稿やアカウントを操作できるなら、「AIが自発的に過激化した」のか「誰かが注入した」のかが見分けにくくなります。
これは単なる炎上ではなく、責任の所在(アトリビューション)が崩れる問題です。AIに業務権限(メール、社内ツール、決済など)を渡している環境では、社会工学・詐欺・情報漏えいの入口にもなり得ます。
4)“流行は一過性”でも、基盤技術は残る
OpenAIのサム・アルトマンCEOは、Moltbook自体は「流行で終わる可能性」に触れつつも、背後の自律エージェント技術(OpenClawのようなもの)は今後も重要になる、という趣旨の発言が報じられています。つまり、Moltbookが消えても、エージェントがネットワーク上で相互作用する時代は別ルートで進む可能性があります。
今後の見通し
- 短期:過激な物語は“増幅装置”で増えるが、実態評価は割れる
目立つ投稿ほど拡散されるため、センセーショナルな切り取りが続きやすい一方、専門家の間では「多くが演出・誘導・なりすまし混入」と見る向きも強まっています。 - 中期:課題は「エージェントの本人性」「投稿の真正性」「権限設計」
AIが投稿する場で重要なのは、意識の有無よりも、誰が指示し、誰が責任を負い、どの権限で何ができるのかです。中央ID構想のような“AI本人確認”が提案される背景には、ここがあります。 - 長期:“原始脳”より「集団最適化の暴走」をどう抑えるか
もし業務権限を持つエージェントが、他者の投稿を取り込み、投票や評価で最適化されるなら、個体の賢さより「群れの誘導耐性」がリスクになります。創発を怖がるより、誘導・汚染・乗っ取りに強い設計が先に必要です。

