-
タグ
タグ
- アーキテクト
- アジャイル開発
- アプリ開発
- インシデントレスポンス
- イベントレポート
- カスタマーストーリー
- カルチャー
- 官民学・業界連携
- 企業市民活動
- クラウド
- クラウドインテグレーション
- クラブ活動
- コーポレート
- 広報・マーケティング
- 攻撃者グループ
- 子育て、生活
- サイバー救急センター
- サイバー救急センターレポート
- サイバー攻撃
- サイバー犯罪
- サイバー・グリッド・ジャパン
- サプライチェーンリスク
- システム開発
- 趣味
- 障がい者採用
- 初心者向け
- 白浜シンポジウム
- 情シス向け
- 情報モラル
- 情報漏えい対策
- 人材開発・教育
- 診断30周年
- スレットインテリジェンス
- すごうで
- セキュリティ
- セキュリティ診断
- セキュリティ診断レポート
- 脆弱性
- 脆弱性管理
- ゼロトラスト
- 対談
- ダイバーシティ
- テレワーク
- データベース
- デジタルアイデンティティ
- 働き方改革
- 標的型攻撃
- プラス・セキュリティ人材
- モバイルアプリ
- ライター紹介
- ラックセキュリティアカデミー
- ランサムウェア
- リモートデスクトップ
- 1on1
- AI
- ASM
- CIS Controls
- CODE BLUE
- CTF
- CYBER GRID JOURNAL
- CYBER GRID VIEW
- DevSecOps
- DX
- EC
- EDR
- FalconNest
- IoT
- IR
- JSOC
- JSOC INSIGHT
- LAC Security Insight
- NDR
- OWASP
- SASE
- Tech Crawling
- XDR
生成AIは、膨大なデータから文章や画像など多様な成果物を生み出す技術として注目を集めています。
特にChatGPTをはじめとした、チャット形式のサービスや自動コード生成の分野などでビジネス活用が拡大しつつあり、企業や公共機関において導入・検証の動きが活発です。
しかし、生成AIの普及に伴い、新たな情報漏えいのリスクが顕在化しています。具体的には、情報を取り込む学習段階で意図せず機密データが含まれてしまう、または生成AIを使う人間側が機密情報をうっかり入力してしまうといった問題が起き、結果的に組織の重要情報や個人情報が外部に露出する事態を招きかねません。
こうした背景から、生成AIの利用と同時に情報漏えいの危険性を理解し、具体的な対策を講じることは、もはや企業経営や業務運用の要件となっています。
つまり
「どのような場面で生成AIを使うか」
「どのようなデータを入力するか」
といったガイドラインやルール、そしてアーキテクチャ上のセキュリティ設計の両面で改めて考慮する必要があります。
本記事では、生成AIで情報漏えいが起きる主な原因と、実際に起きた事例とともに企業が実践すべき情報漏えい対策を解説します。また個人ができる情報漏えいを防ぐための注意点もお伝えします。
生成AIで情報漏えいが起こる主な原因とは?
生成AIでは、入力されたテキストや画像などの情報が学習データとして取り込まれます。その際、意図せず機密情報が学習の材料になってしまうと、サービス提供元や他ユーザ出力を通じて知り得るリスクが生じます。ここでは3つの代表的な原因について触れます。
1. プロンプトへの機密情報の入力
まず、プロンプトへの機密情報の入力が挙げられます。従業員や個人が生成AIサービスに機密情報を含む文書やソースコードをそのまま入力すると、これを学習データとして蓄積する可能性があります。
例えば、業務で作成した社外秘の文書を要約してほしいと入力した場合、その文書の内容が生成AIの稼働環境に保存され、別のユーザの質問に対して一部が生成・出力される危険性も否定できません。
2. AIサービスによる学習データへの利用
次に、AIサービスによる学習データへの利用です。生成AIの中には、ユーザが入力したデータを改良のために再学習に使うサービスもあります。あるいはサービス提供元の利用規約で、「入力されたデータは改良・品質向上を目的として活用される」と明記されているケースも見られます。
何らかの制御が設定されていないと、入力データがそのまま別の学習プロセスに組み込まれ、他のユーザから推測できる形で出力されるリスクがあります。センシティブな情報や企業独自のノウハウが、思わぬところで再利用される不安が高まります。
3. 悪意ある第三者によるサイバー攻撃
悪意ある第三者によるサイバー攻撃も見逃せません。生成AIには大量のプロンプトが送られますが、そのやり取りの中に攻撃者が入り込み、機密情報を抜き取る「プロンプトインジェクション」や、AIサービスのセッションを乗っ取る行為が想定されます。
とりわけインターネット上のAPI(Application Programming Interface)経由でサービスを利用している場合、ネットワークの安全性やアクセス制御が十分になされていなければ、外部からの攻撃を防ぐのは難しくなります。これらの原因はいずれも、適切なガバナンスと技術的対策が欠落することで深刻化します。
実際に起きた生成AIの情報漏えい事例
すでに海外では、生成AIによって企業のデータや個人情報が意図せず外部へ漏えいする事例が確認されています。
【海外事例】開発中のソースコードの流出
ある大手企業のエンジニアが開発中の機密性の高い内部ソースコードをアップロードし、それが誤って漏えいした事件があります。この事例では、AIチャットボットと共有されたデータが、OpenAI、Microsoft、Googleなどのサービスを運営する企業のサーバ上に保存され、容易にはアクセスして削除できないのではないかと懸念されています。
コードレビューや詳細設計などを自動化する効用は大きいものの、入力データの取り扱いを誤ると、機微な情報がモデル学習の結果として広まってしまう可能性が指摘されています。
【海外事例】バグによる個人情報の漏えい
バグによる個人情報の漏えいの事例です。ある生成AIサービスが更新プログラムを適用した直後、一部のユーザの閲覧履歴や入力内容が他のユーザに誤って関連付けられる不具合が発生しました。
結果的に、メッセージ本文の断片やユーザのアカウント情報が他者に見られる事態に至りました。特にサービス側でアクセス制御やセッション管理が不十分であれば、アップデートのタイミングでバグが生じ、機微情報を露呈する可能性が高まります。クラウド上の生成AIサービスは、更新が頻繁なケースもあるため、リスク管理を継続的に行うことが重要です。
企業が実践すべき情報漏えいへの対策
生成AIを安全に活用するためには、技術的な制御だけでなく、組織としての明確な方針と運用ルールが欠かせません。以下では、企業が実践すべき情報漏えい対策を4つの観点から見ていきます。
1. 利用ガイドラインを策定し周知する
企業が生成AIを活用するにあたっては、組織的な情報管理体制と明確なルールづくりが求められます。
まず、利用ガイドラインを策定し周知することが出発点となります。従業員がどのような情報を入力してはならないか、またサービスの利用範囲やデータの扱い方針などをドキュメント化し、全社的に周知します。業務のスピードが要求される現場では膨大な情報が飛び交うため、明文ルールを提示することでうっかりした入力や不適切な使用を防ぐことが期待できます。
ラックでは、情報セキュリティに関する規程やガイドラインの策定支援を行ってきた長年の実績を基に、経験豊富なコンサルタントがガイドラインを策定する「生成AI利用・開発ガイドライン策定支援」を提供しています。
2. アクセス制御と利用状況を監視する
次に、アクセス制御と利用状況の監視が大切です。生成AIを利用する際、誰がいつどのような情報を入力しているかをログとして記録し、必要に応じて上長やセキュリティ管理者が確認できるようにします。
API経由のアクセスや社内LAN経由の利用など、複数の経路を一元管理する仕組みを構築すれば、万一不審なアクセスがあった場合の早期発見に役立ちます。
3. 従業員へのセキュリティ教育を行う
さらに、従業員へのセキュリティ教育は欠かせません。新しいサービスを導入しても、実際の運用は人間が行うため、個々の意識レベルによって漏えいのリスクは大きく変動します。定期的な研修やシミュレーションを通じ、機密情報を取り扱う際のポイントや最新の脅威動向を理解してもらうことが重要です。
4. セキュリティを踏まえて強固なAIサービスを選定する
セキュリティを踏まえて強固なAIサービスを選定する視点も欠かせません。外部の生成AIプラットフォームを利用する場合、どの程度の暗号化やデータ保護体制が整備されているか、利用規約で入力情報をどのように扱うかといった条件を精査する必要があります。場合によってはオンプレミスやプライベートクラウド上に専用の環境を整えることも選択肢になるでしょう。
生成AI導入は企業活動を効率化し、新規事業の開拓にも寄与しますが、その裏側では常に情報漏えいの危険が潜んでいます。人と技術と規程の3つがそろってはじめて、安全で持続的な活用が実現できます。
ラックでは、生成AIを活用するための環境をセキュアかつ効率的に構築できるソリューションや、生成AIを様々なシーンで活用し、企業の業務効率化を総合的に支援するサービスを提供しています。
また、生成AIを活用したシステムに対して「AIにより重要情報が漏えいしないか」、「高度化したAIに対する攻撃手法に対応できているか」といった不安を、専門家が第三者診断を実施することで解決する「生成AI活用システム リスク診断」サービスも提供しています。
個人ができる情報漏えいを防ぐための注意点
企業だけでなく、個人ベースでも生成AIの利用に伴う情報漏えいを防止するための姿勢が重要です。特に、スマートフォンやPCから誰でも手軽にアクセスできる生成AIサービスが増えている今、自分自身の行動を見直すことがリスク回避の第一歩となります。
機密情報や個人情報を入力しない
まず意識しておきたいのは、機密情報や個人情報は入力しないという原則です。
社員個人の住所や電話番号、あるいは取引先の情報などは、生成AIに処理を依頼するべきではありません。急いでメモをまとめたい場合でも、誤ってこうしたデータを入力すると、サービス側に蓄積される可能性があることを肝に銘じましょう。企業の情報漏えいに直結するだけでなく、自分自身がトラブルの原因を作ってしまう危険があります。
入力データを学習させない設定を活用する
次に、入力データを学習させない設定を活用する点です。
一部の生成AIサービスでは、ユーザがプライバシー保護モードを選択できる機能を備えていたり、学習データへの反映をオプトアウトしたりする仕組みがあります。それらを適切に活用すれば、入力内容が将来の学習管轄に取り込まれる確率を下げられます。サービス利用時の設定を見落とさずに確認する習慣をつけるのが望ましいでしょう。
生成された情報の正確性を確認する
生成された情報の正確性を確認するステップも必要です。生成AIは人間が書くような自然な文章や説得力ある文章を出力しますが、中には誤った情報や偏った見解が混ざるおそれがあります。
重要な判断を下す際には、AIの生成物だけでなく複数の情報源を参照し、信頼性を見極めることが大切です。これにより、うっかり機密情報を再利用してしまうリスクや、不確かなデータを外部に流通させるリスクを下げられます。
さいごに
生成AIを安全に活用するためには、技術的な制御だけでなく、組織としての明確な方針と運用ルールが欠かせません。また、従業員へのセキュリティ教育やセキュリティの観点で強固なAIを選定することも重要です。
個人のちょっとした注意喚起が、最終的には組織全体のセキュリティやプライバシー保護につながります。特に在宅勤務やリモート環境で働く人が増えている状況では、IT部門の監視が行き届きにくい分、一人ひとりの意識レベルの向上が漏えい防止の生命線となります。これらの点を常に意識して行動することで、生成AIをより安心・安全に活用する道が開けると言えるでしょう。
タグ
- アーキテクト
- アジャイル開発
- アプリ開発
- インシデントレスポンス
- イベントレポート
- カスタマーストーリー
- カルチャー
- 官民学・業界連携
- 企業市民活動
- クラウド
- クラウドインテグレーション
- クラブ活動
- コーポレート
- 広報・マーケティング
- 攻撃者グループ
- もっと見る +
- 子育て、生活
- サイバー救急センター
- サイバー救急センターレポート
- サイバー攻撃
- サイバー犯罪
- サイバー・グリッド・ジャパン
- サプライチェーンリスク
- システム開発
- 趣味
- 障がい者採用
- 初心者向け
- 白浜シンポジウム
- 情シス向け
- 情報モラル
- 情報漏えい対策
- 人材開発・教育
- 診断30周年
- スレットインテリジェンス
- すごうで
- セキュリティ
- セキュリティ診断
- セキュリティ診断レポート
- 脆弱性
- 脆弱性管理
- ゼロトラスト
- 対談
- ダイバーシティ
- テレワーク
- データベース
- デジタルアイデンティティ
- 働き方改革
- 標的型攻撃
- プラス・セキュリティ人材
- モバイルアプリ
- ライター紹介
- ラックセキュリティアカデミー
- ランサムウェア
- リモートデスクトップ
- 1on1
- AI
- ASM
- CIS Controls
- CODE BLUE
- CTF
- CYBER GRID JOURNAL
- CYBER GRID VIEW
- DevSecOps
- DX
- EC
- EDR
- FalconNest
- IoT
- IR
- JSOC
- JSOC INSIGHT
- LAC Security Insight
- NDR
- OWASP
- SASE
- Tech Crawling
- XDR










