なぜ社外に出していない情報がAIの回答に現れるのか。インターコムは、生成AIの利用に伴う情報漏洩の典型パターンと実被害につながるリスク構造を明らかにしています。学習機能により入力内容が回答生成の材料になる点と、外部サーバーへの保存が管理外となる点が本質です。社名や会議情報の入力が問題視され、利用禁止に踏み切った事例も示されています。最悪のケースでは、保存先の外部サーバーが攻撃を受ける恐れがあります。業務現場で起きうる流出経路を可視化し、対策設計の起点を整理します。
学習で混入、保存で拡散という二層の漏洩経路を把握し、入力統制と保存先の制御で封じる
インターコムは、生成AIではユーザーからの入力内容が学習され、第三者への回答に活用される可能性を指摘しています。入力した機密情報が、後の別ユーザーの指示に対する回答に含まれるリスクがあると説明しています。生成AIは、ユーザーからの入力内容を学習して回答の参考にします。このメカニズムゆえ、センシティブな記述を含むテキストを投入すると、将来的に回答へ混入する経路が生じます。加えて、入力した内容が生成AIのデータベースに保管され、利用されること自体が情報漏洩のひとつのパターンになるとしています。保存された外部サーバーが攻撃を受け、悪意ある第三者に渡る可能性にも触れています。
事例として、サムスン電子は従業員がChatGPTにソースコードや社内会議の内容を入力した行為を問題視し、社内でのChatGPTの使用を禁止しました。重要情報がコントロールできない状態で外部に保存されているだけでも、情報漏洩とみなせる考え方が提示されています。これらの論点は、生成AIの利便性と表裏一体のリスクであり、入力段階の統制と保存先の制御が対策の両輪になります。入力してよい情報の範囲を明文化し、個人情報や未公表の機密の投入を禁止する必要があります。保存や学習の設定を選べるサービスであれば、学習オプトアウトやログの自動削除など、保存期間や用途を最小化する設計が求められます。
技術面では、企業側でプロキシやAPIゲートウェイを介し、送信内容を自動マスキングする仕組みの導入が有効です。外部の生成AIに送る前に、氏名やソースコード、会議名などの特定子を置換することで、学習や保存による漏洩の起点を減らせます。さらに、社内向けに閉域運用が可能な生成AIや、ログ保全と暗号化、データ主権を担保するソリューションの採用が検討対象になります。ポリシー面では、利用目的、入力禁止事項、保存の可否、ログ閲覧権限、違反時の対応を含んだ運用基準を整備します。研修を通じて、チャット欄がそのまま「社外提出物」になる前提を周知することが、現場での抑止に直結します。
見解として、学習と保存の二重リスクを前提に、入力統制、マスキング、学習オフ、保存最小化の順で対策を積み上げることが現実的です。禁止一辺倒ではなく、用途別の許容範囲と技術ガードレールを併用する運用が持続可能と考えます。
詳しくは「株式会社インターコム」の公式ページまで。 レポート/DXマガジン編集部






















