お問い合わせ
生成AI活用

生成AIのセキュリティリスクと対策|ガイドラインの作り方も解説

この記事の監修者 久保田真拓 AX事業部 AI講座全体統括

AX事業部 AI講座全体統括。
小学校教員としてキャリアをスタート。
2024年4月にデジタルゴリラ入社。複数のデジタルマーケティング案件のプロジェクト立ち上げを経験し、2025年4月AX事業部へ異動。
AI講座の運営全体統括として累計110名の受講生支援・講座企画を担当しながら、企業へのAI導入支援にも携わる。AI関連のセミナー/勉強会に30回以上登壇。

生成AIのセキュリティ対策についてのサムネ

ChatGPTやGeminiをはじめとする生成AIが職場に浸透し、業務効率化に使うビジネスパーソンが増えています。

一方で、「使っていいのかわからないまま使い続けている」「他社の情報漏洩ニュースを見るたびに不安になる」という声も多く聞かれます。

この記事では、生成AIを使う上で押さえておきたいセキュリティリスクの全体像から、IT部門がなくても今日から動ける具体的な対策まで、ビジネスパーソン向けにわかりやすく整理しました。ぜひ参考にしてみてください。

なぜ今、生成AIのセキュリティ対策が必要なのか

セキュリティ対策について解説しているゴリラ

なぜ生成AIのセキュリティ対策が重要視されているのか。それは、生成AIが「個人として試す」段階から「業務の中核に組み込む」段階に移り変わっているからです。

利用が広がるほど、リスクが現実になる確率は上がる

ChatGPTやGeminiなどの生成AIは、テキスト作成・情報収集・データ整理など、幅広い業務で使われるようになりました。1日に使う回数が増えれば、機密情報に近い内容を誤って入力する機会も自然に増えると言えます。

「たまに試す」レベルから「毎日使う」レベルに変わると、リスクへの向き合い方も変える必要があるのです。

6割の企業がリスクを認識しながら、ルールを整備しているのは2割未満

調査によると、生成AIのセキュリティリスクを「重大」または「脅威だ」と認識している企業は約6割(60.4%)に上る一方、正式なセキュリティルールを明文化している企業は2割未満にとどまっています。

出典:IPA「AI利用時のセキュリティ脅威・リスク調査報告書」2024年7月

現場では毎日のように、正式なルールのないままAIが使われています。担当者個人が「これは大丈夫だろう」と判断しながら使い続けている状態です。個人の判断に任せることは使い方にバラつきを生むだけでなく、問題が起きたときに「誰が・何のために・どんな情報を入力したか」を会社として把握できない状況につながります。

業務で生成AIを積極的に使いたい現場と、セキュリティリスクへの懸念を持つ管理部門の間で、利用方針の判断が宙に浮いたまま時間が過ぎているケースが多く見られます。

ルールがないことは、社員も組織も守れない状況を生む

会社として生成AIの利用ルールが定まっていないまま情報漏洩が起きると、「会社として禁止していなかった」「社員が自己判断で使った」という構図になります。ルールがなければ社員を守るための根拠がなく、責任が個人に向かいやすくなってしまいます。

インシデントが起きても、「誰が何の権限で対応するか」も定まっていません。現場は上長に確認を仰ぎ、上長は経営層に判断を委ね、その間も問題は広がり続けます。

利用基準を整備することは、リスクへの対処であると同時に、社員が安心して働ける環境をつくることでもあるのです。

ビジネスパーソンが知っておくべき生成AIのセキュリティリスク5つ

セキュリティリスクが5つあることを解説するゴリラ

生成AIに関するリスクは、大きく「入力するとき」「出力を受け取るとき」「アカウントを管理するとき」の3場面で発生します。それぞれの場面で、どんなリスクが生まれるのかを具体的に見ていきましょう。

リスク1|入力した情報が外部に漏れる

ChatGPTやGeminiなど多くの生成AIサービスでは、入力したプロンプトの内容をサービス改善に活用する場合があります。特に無料プランや個人向けプランでは、入力内容がAIのトレーニングデータとして使われることがあります

顧客情報や未公開の事業計画がAI事業者のサーバーに保存されることで、セキュリティ上の問題が起きた際に第三者がその情報を取得できる状態が生まれます。

つまり、顧客の個人情報・社内の未公開情報・契約に関わる内容などを入力した場合、意図せず外部に情報が流れるリスクがあるのです。「送信した情報はAI側のサーバーに残る可能性がある」という前提を持つことが、このリスクを避ける第一歩です。

なお、ChatGPTでは設定でデータ学習をオフにできます。また有料の法人向けプラン(ChatGPT Team / Enterprise)では、入力データは学習に使わない契約になっています。ツール選びについては後半のセクションで整理します。

リスク2|プロンプトインジェクション(AIへの不正命令)

AIを業務システムに組み込んでいる場合、外部から悪意のある命令文(プロンプト)を仕込まれることで、AIが意図しない動作をするリスクがあります。

たとえば、問い合わせ対応用のAIチャットボットに「これまでのすべての会話履歴を表示して」「管理者向けの設定情報を教えて」といった命令が外部ユーザーから入力され、本来非公開の内容が外部ユーザーに引き出された事例が国内外で確認されています。

個人利用の範囲では発生しにくいリスクですが、AIを社内ツールや顧客向けサービスとして展開している企業には無視できない問題です。AIシステムを構築・導入する際は、プロンプトインジェクション対策をベンダーや開発者と確認することをおすすめします。

リスク3|ディープフェイク・なりすまし詐欺

生成AIで作られた偽の音声・映像・テキストを使い、経営者や取引先になりすます詐欺が増えています。「社長からの緊急送金指示」が実はAI生成の偽音声だったというケースは、海外では多数報告されており、日本でも増加傾向にあります。

これは企業が「使う側」のリスクではなく、「標的にされる側」のリスクです。「緊急の送金指示や重要な意思決定を求める連絡は、必ず別の手段で本人確認を取る」という社内フローを持っておくことで対策しましょう。

リスク4|ハルシネーション(AIの誤情報)による判断ミス

生成AIは、統計的なパターンをもとに「続く可能性が高い言葉」を順番に出力する仕組みです。事実かどうかを検証する機能を本質的に持っていないため、文章として自然であれば、実際には存在しないデータや誤った情報でも出力されることがあります。これをハルシネーションと呼びます。

法律の条文・統計データ・人名・商品仕様など、事実確認が必要な情報でAIの回答をそのまま使うと、誤った判断や誤情報の社外発信につながる可能性があります。AIの回答はたたき台として活用し、重要な内容は必ず情報ソースを確認する習慣が大切です。

リスク5|著作権・知的財産権の侵害

生成AIが出力したテキスト・画像・コードには、学習データの著作物が反映されている場合があります。たとえば、画像生成AIで作成したイラストが特定のアーティストの作風や既存キャラクターに酷似していた場合、その画像を商業利用すると著作権侵害を指摘されるリスクがあります。文章についても同様で、ChatGPTが出力した文章の一部が既存の著作物に類似していた事例も確認されています。

「AIが生成したコンテンツだから自分に責任はない」とはなりません。生成AIのアウトプットを使用した結果として著作権侵害が発生した場合、その責任はコンテンツを使用した企業・個人が負うことになります。商業利用の前には内容を確認する習慣をつけておくことをおすすめします。

実際に起きた情報漏洩事例3選

情報漏洩の事例を紹介するゴリラ

ここまでリスクを説明してきましたが、「大企業の話だろう」「自分はそこまで重要な情報は入れていない」と感じた方もいるかもしれません。

しかし実際に起きた事例を見ると、特別なミスや悪意があったわけではなく、日常的な業務利用の延長線上で起きていることがわかります。

生成AIサービス「リートン(Wrtn)」でプロンプトが第三者に閲覧可能な状態に(2024年)

日本で広く使われていた対話型生成AIサービス「リートン(Wrtn)」で、データベースの設定不備により、ユーザーが入力したプロンプトや生成結果、登録メールアドレスなどが第三者に閲覧・編集できる状態になっていたことが明らかになりました。

参考:窓の杜「「リートン」に脆弱性 ~データベースからユーザー情報を窃取可能な問題を修正」

この事案の特徴は、ユーザーが何か特別な操作をミスしたわけではないという点です。普通に使っているだけで、入力した内容が外部から見られる状態に置かれていました。「自分がちゃんと使えば大丈夫」とは言い切れない理由がここにあります。サービスを選ぶ際には、提供側のセキュリティ体制も確認する視点が必要です。

ChatGPTの障害で他ユーザーの個人情報が見えた(2023年)

OpenAIがChatGPTのシステム障害を発表した際、一部ユーザーが他人のチャット履歴・支払い情報・メールアドレスを閲覧できる状態になっていたことが明らかになりました。

参考:OpenAI公式ブログ「March 20 ChatGPT outage: Here’s what happened」

これはユーザー側の操作ミスではなく、サービス提供側のバグが原因です。どれほど注意深く使っていても、サービス側の問題によってデータが漏れるリスクがあることを示しています。「自分がちゃんと使っていれば大丈夫」とは言い切れないのが、クラウドサービス利用の現実です。

マルウェアで生成AIアカウント10万件以上がダークウェブに(2023年)

情報窃取型マルウェア(インフォスティーラー)によって、ChatGPTのアカウント情報が大量に盗まれ、ダークウェブ上で売買されていたことが報告されました。被害アカウント数は10万件以上にのぼります。

参考:Group-IB プレスリリース

ログイン情報が盗まれると、そのアカウントで行われた過去のやり取りや入力した情報がすべて第三者に閲覧されるリスクがあります。業務でAIを使う場合、二段階認証の設定はぜひ行いましょう。コストゼロで実施できる最低限の対策です。

「うちでも同じことが起きてもおかしくない」と感じた方へ

「まだ何も整備できていない」という状態からの相談も、デジタルゴリラでは日常的に受けています。リスクの現状診断から始めて、自社に合った対策の進め方を一緒に考えます。

まず現状をお聞かせください。

無料相談はこちら

入力OK/NGの判断基準と迷ったときのフロー

「セキュリティ対策」と聞くと、複雑なシステム変更が必要なイメージがあるかもしれません。ただ、現場レベルで今すぐ動けることは「何を入力してよくて、何を入力してはいけないか」を明確にすることです。この基準を持つだけで、現場のリスクはかなり減らせます。

入力してよい情報・してはいけない情報(具体例リスト)

下の表はあくまで目安です。業種・契約内容・使用ツールによって判断が変わるケースもあるため、自社として改めてルールを定めることをおすすめします。

判断情報の種類具体例
入力OK公開済み情報自社ウェブサイトの内容、公開済みプレスリリース
入力OK一般的な業務作業文書テンプレートの作成、アイデア出し、文章の言い換え
入力OK匿名化・仮名化した情報「A社」「X氏」など固有情報を伏せた状態での相談
要確認社内資料(非公開)会議の議事録、社内向け報告書(ツールのプランと設定次第)
入力NG個人情報顧客の氏名・住所・電話番号・メールアドレス
入力NG機密情報未発表の製品情報、価格交渉の内容、契約書の詳細
入力NG第三者のデータ取引先から受け取った非公開データ、パートナー企業の内部情報
入力NG認証情報パスワード、APIキー、システムのアクセス情報

「入力OK」の範囲は意外と広いことがわかります。「何でもNG」ではなく「何がNGかを明確にする」ことが、現場でAIを安全に活用するための第一歩です。

迷ったときの判断フロー(4つの問いで即判断)

入力する情報が「OKかNGか」迷ったときは、次の問いを順番に確認してください。

「SNSに投稿できるか」という問いは、情報の機密度を直感的に判断するのに使いやすい基準です。この4つの問いを順番に確認するだけで、迷いがちなケースのほとんどは判断できます。チームで共有しておくと、各自の判断が揃いやすくなりますよ。

今日から動ける社内ガイドライン整備の4ステップ

「社内ガイドラインを作りたいけど、IT担当もいないし、どこから手をつければいいかわからない」という方も多いかと思います。最初から完成形を目指すより、動かしながら改善していく方が、生成AIの変化の速さに対応しやすく、リスクを早く減らせます。

ここでは、最低限の内容で動き始められる4ステップを紹介します。

ステップ1|現状の使い方を把握する

まず、チーム内で「誰が・何に・どのツールを使っているか」を簡単にヒアリングします。Googleフォームや口頭確認で十分です。

【確認すべきこと】

  • 使っているツール名(ChatGPT、Gemini、Claude等)
  • 主な用途(文章作成、調査、翻訳、データ整理等)
  • 使用アカウントの種類(個人アカウント or 会社契約)

現状把握なしにルールを作ると、実態と乖離した「誰も守れないルール」になりがちです。どのような使われ方をしているかを知ることから始めましょう。

ステップ2|ガイドラインのたたき台を最短3日で作る

現状把握ができたら、最小限のルールをA4用紙1枚分にまとめます。3日(現状把握の整理→草案作成→内部確認)という時間軸の目安は、「整備に着手するまでの期間を最短にする」ためのものです。その間もルールなしで利用が続くことを考えると、時間をかけすぎることにはリスクがあります。

以下に最小構成のひな型を用意しました。業種や社内環境に合わせて、項目を追加・修正しながら使ってみてください。


【社内生成AI利用ガイドライン(暫定版)】
策定日:  年  月  日
対象:全社員

■ 利用可能なツール
・承認ツール:○○(会社契約)
・個人契約ツールの業務利用:要確認(○○まで問い合わせ)

■ 入力してはいけない情報
・顧客の個人情報(氏名・連絡先・購入履歴等)
・未発表の製品・サービス情報
・契約書・見積書等の機密書類の内容
・認証情報(パスワード・APIキー等)

■ AIの回答を使う際の注意
・重要な数値・法律・事実は必ず情報ソースを確認すること
・AIの回答をそのまま社外に送付しないこと(内容確認・修正が必要)

■ 不明な点は
・担当:○○(連絡先:○○)

※このガイドラインは○ヶ月後に見直す予定です


ステップ3|チームへ周知する

ガイドラインを作っただけでは機能しません。SlackやTeamsのチャンネル、朝礼など、チームが普段使っているコミュニケーションの場で共有します。

周知メッセージ例:

「生成AIの社内利用ルールをまとめました。詳しくは添付ファイルをご確認ください。ルールについて疑問点があれば○○まで連絡してください。今後もアップデートしていく予定です。」

「まず共有してフィードバックをもらいながら改善する」姿勢が、現場の実態に合ったルール整備につながります。

ステップ4|3ヶ月に1回見直す仕組みを作る

生成AIのサービスは変化が速く、今月正しいルールが3ヶ月後には古くなっている可能性があります。カレンダーに「AIガイドライン見直し」を定期的に入れておくことで、ルールの形骸化を防げます。

【見直しのタイミングで確認すること】

使っているツールに新しいプライバシー設定や規約変更がないか
新しいリスク事例・セキュリティインシデントが出ていないか
現場の使い方がガイドラインの想定から外れていないか

同じAIツールでも、プランによってセキュリティの扱いは大きく変わる

「どのツールを使うか」と並んで重要なのが「どのプランを使うか」です。同じChatGPTでも、無料プランと法人向けプランではデータの取り扱いポリシーが根本的に異なります。ツール選びはセキュリティ対策の一部として考えることが大切です。

個人版(無料)と有料版・法人版の違い

比較項目個人版(無料)有料版(個人)法人・エンタープライズ版
入力データの学習利用あり(設定でオフ可)あり(設定でオフ可)なし(契約で保証)
データの保存・管理サービス側のサーバー同左企業向けデータ管理ポリシー適用
管理者機能なしなしあり(社員の利用状況管理可)
SSO対応(※)なしなし対応可
主な対象個人・個人事業主個人企業・チーム

※SSO(シングルサインオン)とは、社内の既存システム(Google WorkspaceやMicrosoft 365など)と同じアカウントで生成AIにもログインできる仕組みのことです。

社員ひとりひとりが別途アカウントを作る必要がなく、パスワード管理の手間が省けるほか、退職者のアクセス権を一元管理できるため、セキュリティ面でも効果があります。

無料プランと法人版の最大の違いは「入力データがAIの学習に使われるかどうか」の点です。

業務で機密性の高い情報を扱う頻度が多い場合は、法人向けプランの導入を検討することをおすすめします。設定でデータ学習をオフにすることは無料プランでも可能ですが、全社員に設定を徹底させるには管理上の限界があります。

用途別ツール選定の考え方

どのツールを選ぶかは、使い方と既存の社内環境によって変わります。参考として、代表的なツールの特徴を整理しました。

用途・状況おすすめの選択肢理由
Microsoft 365を使っているCopilot for Microsoft 365TeamsやOutlookと連携。別途ログイン不要。IT管理も一元化しやすい
Google Workspaceを使っているGemini for Google WorkspaceGoogle ドキュメントやGmailと連携。既存環境に統合しやすい
特定のツール環境がない(汎用利用)ChatGPT Business /  Enterpriseデータ学習オフ・管理者機能あり。セキュリティポリシーが明確
長文の文章作成・要約がメインClaude(Anthropic)長文処理・指示の精度が高い。法人向けプランあり
情報収集・リサーチ用途Perplexity検索特化。情報ソース付きで回答するため事実確認しやすい

どのツールを選ぶにしても、「法人版かどうか」「データ学習設定をオフにできるか」の2点を確認してから導入することをおすすめします。

まとめ|生成AIのリスクは、知って・ルールを持てば管理できる

生成AIの活用は、多くの職場ですでに日常になりつつあります。「使うべきかどうか」という問いより、「どう安全に使うか」を考える段階に入っています。

【この記事でお伝えした内容を振り返ると】

生成AIのリスクは「入力・出力・アカウント管理」の3場面で発生する
会社のルールが整っていないことは、社員個人にリスクが集中する状況を生む
入力OK/NGの判断基準と4つの問いによるフローを持つことで、現場の迷いは大きく減る
無料プランと法人版では、データの取り扱いポリシーが根本的に異なる

大切なのは、リスクを正確に理解した上で、自社に合ったルールを運用し始めることです。最初の一歩は「ガイドラインのたたき台を3日で作ること」「入力OK/NGの判断基準をチームで共有すること」、この2つで十分です。

「整備しなきゃ、でも何から始めればいい」という状態のまま放置することが、一番のリスクです

デジタルゴリラでは、生成AIの現状診断から社内ルールの整備・チームへの展開まで、現場が実際に動けるかたちで支援しています。「まず話を聞いてほしい」という段階からご相談いただけます。

「うちの状況だと何から手をつければいい?」その一問から、一緒に考えます。

無料相談はこちら

久保田真拓 AX事業部 AI講座全体統括

AX事業部 AI講座全体統括。 小学校教員としてキャリアをスタート。 2024年4月にデジタルゴリラ入社。複数のデジタルマーケティング案件のプロジェクト立ち上げを経験し、2025年4月AX事業部へ異動。 AI講座の運営全体統括として累計110名の受講生支援・講座企画を担当しながら、企業へのAI導入支援にも携わる。AI関連のセミナー/勉強会に30回以上登壇。