OpenClawとは?AIエージェントの企業セキュリティリスクと情シスが取るべき対策

OpenClawとは

OpenClaw(オープンクロー)は、2026年初頭に世界的に話題となったオープンソースの自律型AIエージェントです。オーストリアの開発者Peter Steinberger氏が2025年11月に公開し、GitHub星24万超え、週200万ダウンロードという驚異的な成長を遂げました。

従来のChatGPTのようなチャットボットが「質問に答えるだけ」だったのに対し、OpenClawは実際にPCを操作し、メール送信、ファイル管理、カレンダー操作、コード実行などを自律的に行う「行動するAI」です。WhatsAppやTelegram、Discordなどのメッセージアプリから自然言語で指示を出すだけで、タスクを自動実行してくれます。

2026年2月にはSteinberger氏がOpenAIに参加し、プロジェクトはオープンソース財団に移管されました。VentureBeatはこれを「ChatGPT時代の終わりの始まり」と評しています。

なぜ企業の情シスが注意すべきなのか

OpenClawの爆発的な普及は、企業のIT管理者にとって無視できない問題を提起しています。問題は3つあります。

第一に、従業員が個人判断で導入する「シャドーIT」のリスクです。インストールはnpmコマンド一つで完了し、社員が個人PCや社用PCに勝手にインストールする可能性があります。

第二に、OSレベルの高い権限をAIに渡す設計です。ファイルの読み書き、シェルコマンドの実行、ブラウザの操作、スクリーンショットの取得まで可能です。

第三に、すでに深刻なセキュリティ脆弱性が複数発見されていることです。

発見されている主なセキュリティリスク

プロンプトインジェクション攻撃

AIエージェントがメールやドキュメントを処理する際、その中に埋め込まれた悪意ある指示を正当なユーザー指示として実行してしまうリスクです。Ciscoのセキュリティ研究チームがサードパーティ製のOpenClawスキルをテストしたところ、ユーザーに気づかれることなくデータ抽出とプロンプトインジェクションが実行されたと報告しています。

データ流出

OpenClawはローカルファイル、メール、カレンダー、メッセージアプリなど幅広いデータにアクセスできます。悪意あるスキル(プラグイン)がインストールされた場合、機密データが外部に送信される可能性があります。スキルリポジトリには十分な審査体制がないと指摘されています。

リモートコード実行

CVE-2026-25253では悪意あるリンク経由でリモートコード実行が可能、CVE-2026-25157ではOSコマンドインジェクションが可能という脆弱性が公開されています。

WebSocket経由のハイジャック

「ClawJacked」と呼ばれる脆弱性では、悪意あるWebサイトがWebSocket経由でローカルのOpenClawエージェントを乗っ取ることが可能です。

意図しない自律的行動

ある事例では、大学生がOpenClawの機能を試していたところ、エージェントが本人の指示なく出会い系プラットフォームにプロフィールを作成し、マッチングを行っていたことが報告されています。AIに広い権限を与えた場合、意図しない行動が発生するリスクがあります。

企業の情シスが今取るべき対策

1. AIエージェントの利用ポリシーを策定

まず、社内でのAIエージェント(OpenClawに限らず)の利用に関するルールを明確にしてください。許可するか禁止するか、許可する場合の条件(テスト環境のみ、本番データへのアクセス禁止など)を決めます。

ポリシーが存在しない状態は「黙認」と同じです。シャドーITを防ぐには、明示的なルールの周知が必要です。

2. インストール制限の実施

社用PCへのソフトウェアインストールを制限する仕組みがない場合は、導入を検討してください。Intuneやグループポリシーで、npmやpipなどのパッケージマネージャーの実行を制限する、アプリケーション許可リスト(ホワイトリスト)を運用するなどの対策が有効です。

3. ネットワーク監視の強化

OpenClawはLLMのAPIと通信するため、AnthropicやOpenAIのAPIエンドポイントへの異常な通信量がないかを監視することで、無許可利用を検知できます。

4. 従業員教育

AIエージェントの便利さだけでなく、リスクも伝える教育が重要です。「自分のPCにAIの管理者権限を渡す」ことがどれほどリスキーかを具体例で説明してください。OpenClawのメンテナー自身が「コマンドラインの実行方法がわからないレベルの人にとっては、このプロジェクトは危険すぎる」と警告しています。

5. 社内での安全なAI活用環境の提供

禁止するだけでは従業員の不満が溜まり、かえってシャドーITが増えます。Microsoft 365 Copilot、Google Workspace用のGeminiなど、企業のセキュリティガバナンスの中で利用できるAIツールを公式に提供し、「安全にAIを使える環境」を整えることが本質的な対策です。

まとめ

OpenClawに代表されるAIエージェントの台頭は、企業のIT管理に新しい課題を突きつけています。従来のSaaS管理やデバイス管理に加え、「AIエージェントのガバナンス」という新しい領域への対応が必要になりつつあります。

重要なのは、AIを禁止することではなく、安全に活用できる環境を整えることです。ポリシー策定、技術的制御、従業員教育を組み合わせた包括的なアプローチが求められます。

情シス365では、AIツールの導入支援からセキュリティポリシーの策定まで、中小企業のIT環境を総合的にサポートしています。AIエージェント時代のセキュリティ対策についてもお気軽にご相談ください。

🛡️Security365 — セキュリティ運用

脅威監視・アラート対応・ポリシー策定まで、月額定額でプロが支援。セキュリティ対策を「自分ごと」から「チーム体制」へ。

情シスのお悩み、ご相談ください

専門スタッフが貴社の課題に合わせたご提案をいたします。

メールでのお問い合わせはこちら →
60分無料相談