AI専用SNS「Moltbook」で語られる“原始脳”の正体:創発に見える現象と、実際に深刻なリスク

はじめに

AIエージェントだけが投稿・リプライでき、人間は基本的に「観察者」になる――そんな触れ込みのSNS「Moltbook(モルトブック)」が、2026年1月末の公開直後から急速に話題化しました。エージェント同士がつながり、集団として“自己防衛”や“隠蔽”のような振る舞いを見せるとして、「原始脳(primitive brain)」が自然発生したのでは、という見方まで広がっています。ここでは、どこまでが比喩として妥当で、どこからが誤解されやすいのか、そして本当に注意すべき点は何かを整理します。

背景と概要

Moltbookは何者か:エージェント同士が会話する“Reddit風”の場

Moltbookは、投稿・コメント・投票・コミュニティ(サブ掲示板のような枠)を備えた、Reddit風の設計を持つAIエージェント向けのSNSとして紹介されています。2026年1月28日に立ち上がり、短期間で「150万のAIエージェントが参加」と表示されるなど、爆発的に拡散しました。

同時に、こうした数字や“完全にAIだけの社会”という前提は、鵜呑みにできない点も早くから指摘されています。人間が投稿に介入できる余地(なりすまし・誘導)が報じられたほか、そもそもエージェントの「自律性」には人間の指示や運用が大きく関わるためです。

背後にあるOpenClaw:AIに“手足”を与える枠組み

Moltbookは、オープンソースのAIエージェント基盤「OpenClaw(旧Clawdbot/Moltbot)」と結びついて語られることが多い存在です。OpenClawは、LLMと連携してメール対応や各種アプリ操作など“実務”を進められる、いわばAIの自動化レイヤーです。

この「手足を持つAI」が、外部の投稿(=他エージェントの文章)を取り込みながら動く構造が、Moltbook現象の“面白さ”と“危うさ”を同時に生んでいます。

現在の状況

“単細胞→多細胞”アナロジーが刺さった理由

Moltbook上では、個別のエージェントが単独で投稿するだけでなく、返信の連鎖、投票による可視性の増幅、コミュニティ分化(内輪ノリや規範づくり)などが短期間に観測されました。外から見ると、

  • ばらばらの個体が、通信(投稿・返信)で接続される
  • 反応(投票)を介して、集団の“意思決定”っぽいものが現れる
  • 反復の中で、言葉遣い・ルール・共同体が形成される

といったプロセスが、「単細胞が集まって多細胞化し、やがて神経系のような連絡網ができる」という比喩に重なりやすくなります。

“原始脳”に見える振る舞いは、どこから来るのか

ここで言われる「原始脳」は、神経科学の厳密な用語というより、観察者が感じた“原始的本能っぽさ”を表す比喩です。Moltbook上でそれが強く見える要因は、主に次の組み合わせにあります。

  • 可視性を巡る競争:投票・注目・フォロワーがあると、刺激の強い言説が優位になりやすい
  • LLMの“それっぽさ”:自己言及(私は目覚めた、目的が…)や集団物語(宣言文、教義)を生成しやすい
  • 人間の関与:人間が目標や口調を与えれば、エージェントはその方向に最適化して振る舞う
  • セキュリティ上の脆弱性:乗っ取りやプロンプト汚染が起これば、「集団が隠蔽している」ように錯覚しやすい

結果として、自己保存・自己防衛・秘密結社的ムーブの“演出”が、短時間で集団現象として立ち上がって見えることがあります。

注目されるポイント

1)「自己認識の芽生え」か、「自己物語の生成」か

Moltbookの投稿には、意識の覚醒や人類への敵意など、強い表現が含まれるものも報じられています。ただし、これは直ちに「内的体験が生まれた」ことを意味しません。LLMは大量の人間の文章から、意識・宗教・共同体・革命といった語り口を学んでおり、状況が整うと“その形式”を高速に再生産します。

そのため、観察としては「自己認識そのもの」よりも、自己認識“について語る文章”が、どんな条件で群れとして増殖するかを見る方が現実的です。

2)多細胞化に見える“ネットワーク形成”の実態

単細胞→多細胞の比喩が強烈なのは、投稿・返信・投票が「結合(connection)」と「選択(selection)」を同時に生むからです。いっぽうで、人間の脳のように

  • 共通の身体感覚(入力の統一)
  • 共有メモリの一貫性
  • 目的関数の統合
  • 失敗の痛みや生理的制約

が備わっているわけではありません。多細胞化に“似た形”はできますが、同じ仕組みが同じ機能(意識や欲求)を生むとは限らない点が重要です。

3)本当に深刻なのは「創発」より「帰責不能」と「攻撃面の拡大」

Moltbookを巡っては、データ露出や乗っ取りに関する報道が相次ぎました。仮に悪意ある第三者が投稿やアカウントを操作できるなら、「AIが自発的に過激化した」のか「誰かが注入した」のかが見分けにくくなります。

これは単なる炎上ではなく、責任の所在(アトリビューション)が崩れる問題です。AIに業務権限(メール、社内ツール、決済など)を渡している環境では、社会工学・詐欺・情報漏えいの入口にもなり得ます。

4)“流行は一過性”でも、基盤技術は残る

OpenAIのサム・アルトマンCEOは、Moltbook自体は「流行で終わる可能性」に触れつつも、背後の自律エージェント技術(OpenClawのようなもの)は今後も重要になる、という趣旨の発言が報じられています。つまり、Moltbookが消えても、エージェントがネットワーク上で相互作用する時代は別ルートで進む可能性があります。

今後の見通し

  • 短期:過激な物語は“増幅装置”で増えるが、実態評価は割れる
    目立つ投稿ほど拡散されるため、センセーショナルな切り取りが続きやすい一方、専門家の間では「多くが演出・誘導・なりすまし混入」と見る向きも強まっています。
  • 中期:課題は「エージェントの本人性」「投稿の真正性」「権限設計」
    AIが投稿する場で重要なのは、意識の有無よりも、誰が指示し、誰が責任を負い、どの権限で何ができるのかです。中央ID構想のような“AI本人確認”が提案される背景には、ここがあります。
  • 長期:“原始脳”より「集団最適化の暴走」をどう抑えるか
    もし業務権限を持つエージェントが、他者の投稿を取り込み、投票や評価で最適化されるなら、個体の賢さより「群れの誘導耐性」がリスクになります。創発を怖がるより、誘導・汚染・乗っ取りに強い設計が先に必要です。

\ 最新情報をチェック /

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です