Vibe Codingのセキュリティリスク — AI生成コードを業務利用する前に知るべきこと
Vibe Codingとは
Vibe Codingとは、AIに対して自然言語(日本語や英語)で「こういうツールを作って」と指示するだけで、コードの詳細を理解しなくてもソフトウェアを作成できる手法のことです。Andrej Karpathy(OpenAI共同創業者、元Tesla AI責任者)が2025年2月に命名し、急速に広まりました。
GitHub Copilot、Cursor、Claude Code、Devinなどのツールがこの流れを加速させています。プログラミング経験のないビジネスパーソンでも、AIとの対話だけで業務ツールや自動化スクリプトを作れる時代になりつつあります。
なぜ情シスが注目すべきか
「非エンジニアのコード生成」というシャドーITの新形態
情シスにとってVibe Codingが重要なのは、これが「シャドーITの新しい形態」だからです。
従来のシャドーITは、各部署が勝手にSaaSを契約するパターンが主流でした。Vibe Codingの登場により、新たなパターンが生まれています。マーケティング担当者がChatGPTでデータ集計スクリプトを作成する、営業担当者がCursorで簡易CRMツールを構築する、経理担当者がCopilotで請求書処理の自動化ツールを作る、といった具合です。
これらのツールは情シスの把握外で作られ、業務データを処理し、場合によっては社内システムと接続されます。コードの品質やセキュリティは検証されていません。
具体的なセキュリティリスク
リスク1:脆弱性を含むコードの生成
AIが生成するコードには、セキュリティ上の脆弱性が含まれることがあります。スタンフォード大学の研究では、AIコード生成ツールを使用した開発者のコードには、使用しなかった開発者と比較して脆弱性が多く含まれる傾向が報告されています。
代表的な脆弱性パターンとして、SQLインジェクション(ユーザー入力をそのままSQLに埋め込む)、ハードコードされた認証情報(APIキーやパスワードをコード内に直接記述)、不適切なエラーハンドリング(内部情報がエラーメッセージから漏洩)、暗号化の不備(非推奨のアルゴリズムや不適切な実装)が挙げられます。
プログラミング経験のないユーザーは、これらの脆弱性を自分で発見・修正できません。AIに「セキュリティを強化して」と指示しても、すべての脆弱性が解消される保証はありません。
リスク2:依存パッケージの安全性
AIが生成するコードは、外部ライブラリ(npm、pip等のパッケージ)に依存することが多くあります。ここに2つのリスクがあります。
1つ目は、実在しないパッケージの指定です。AIがハルシネーション(もっともらしい嘘)により、実在しないパッケージ名をコードに含めることがあります。攻撃者がこの「存在しないはずのパッケージ名」を先回りして悪意あるパッケージとして公開する「パッケージ幻覚攻撃」が実際に確認されています。
2つ目は、既知の脆弱性を持つバージョンの指定です。AIの学習データは過去のある時点のものです。学習時点では安全だったパッケージに、その後脆弱性が発見されている場合、AIは古い(脆弱な)バージョンを指定する可能性があります。
リスク3:機密データの外部送信
Vibe Codingの過程で、ユーザーはAIに対してコンテキストとしてさまざまな情報を渡します。データベースのスキーマ、APIの認証情報、社内システムの構成情報、顧客データのサンプルなどが、AIサービスのプロンプトとして送信されるリスクがあります。
多くのAIコード生成ツールは、プロンプトをモデルの改善に利用しないことを明示していますが、送信されたデータの取り扱いはサービスごとに異なります。機密情報がAIサービスに送信されること自体がコンプライアンス上の問題になる場合があります。
リスク4:ライセンス違反のリスク
AIが生成するコードが、学習データに含まれるオープンソースコードに酷似している場合、ライセンス違反のリスクがあります。特にGPL(GNU General Public License)のコードが混入した場合、自社のソフトウェア全体をオープンソースとして公開する義務が生じる可能性があります。
業務用の内部ツールであれば実務上の影響は限定的ですが、顧客に提供するソフトウェアや、将来的に外部公開する可能性があるコードについては注意が必要です。
リスク5:AIツール自体の脆弱性
コード生成AIツール自体にセキュリティ上の脆弱性が発見される事例も増えています。2026年にはMicrosoft Copilotでデータ漏洩につながりうる脆弱性(CVE-2026-26144)が報告されました。AIツールが社内データにアクセスする権限を持つ場合、ツール自体の脆弱性が情報漏洩に直結します。
企業としての対策
対策1:AI利用ポリシーの策定
Vibe Codingに限らず、AI利用全般に関するポリシーを策定してください。最低限、以下の項目を定める必要があります。
利用を許可するAIツールのリスト(ホワイトリスト方式)、AIに送信してよいデータの範囲(機密情報・個人情報の送信可否)、AI生成コードを業務環境にデプロイする際の承認フロー、インシデント発生時の報告・対応手順を明文化しましょう。
対策2:承認フローの導入
非エンジニアがVibe Codingで作成したツールを業務利用する場合、情シスまたは開発チームによるレビューを必須としてください。レビュー観点として、セキュリティ上の脆弱性がないか、依存パッケージに既知の脆弱性がないか、機密データの取り扱いが適切か、ライセンス違反がないか、を確認します。
すべてのコードをレビューするのは現実的ではない場合は、リスクベースのアプローチを取ります。外部API接続や社内データベースへのアクセスがあるコードは必須レビュー、ローカルで完結する簡易スクリプトはセルフチェックリストの提出、といった段階分けが有効です。
対策3:技術的な防御策
MDM(Intune等)で未許可のAIツールのインストールを制限する、CASBで未許可のAIサービスへのアクセスをブロックする、DLP(データ損失防止)でAIサービスへの機密データ送信を検知・ブロックする、といった技術的な対策を講じましょう。
対策4:教育・啓発
Vibe Codingを全面的に禁止するのは現実的ではありません。利便性が高いため、禁止すれば地下に潜るだけです。むしろ、安全な利用方法を教育し、組織として管理できる状態にすることが重要です。
「AIが作ったコードは必ず人間が確認する」「機密情報をAIに渡さない」「作ったツールは情シスに報告する」という3つの基本ルールを、全社に周知してください。
まとめ
Vibe Codingは業務効率を大幅に向上させる可能性を持つ一方、セキュリティ上の新しいリスクを企業にもたらします。特に「非エンジニアが検証なしにコードを業務利用する」点が、従来のシャドーITとは異なる新しい脅威です。
禁止ではなく管理を。AI利用ポリシーの策定、レビューフローの導入、技術的な防御策の実装を通じて、Vibe Codingのメリットを享受しつつリスクを最小化しましょう。
情シス365では、AI利用ポリシーの策定支援からMDM・CASBの導入・運用まで、中小企業のAIセキュリティ対策を一括で支援しています。
→ Copilotデータ漏洩リスクの解説 → AIエージェントのセキュリティリスク → SaaS管理ガイド(シャドーIT対策含む)