ChatGPTの情報漏洩リスクとは?安全に使うための対策も解説

Check!

  • ChatGPTは企業の業務効率化に役立つが、情報漏洩のリスクもあるため注意が必要
  • プロンプトの内容を学習することがあるため、機密情報は入力してはいけない
  • 企業で安全にChatGPTを利用するには、社内ルールの構築や研修の実施などが有効

ChatGPTは高性能な生成AIとして企業でも導入が進められていますが、情報漏洩のリスクもあるため、利用に際しては注意が必要です。この記事では、ChatGPTで起こり得る情報漏洩のケースや、安全に利用するための対策などについて解説します。

目次

開く

閉じる

  1. ChatGPTには情報漏洩のリスクがある
  2. ChatGPTで起こり得る情報漏洩のケース
  3. ChatGPTで情報漏洩を防ぐための対策
  4. ChatGPTを社内で安全に利用するためのポイント
  5. まとめ

ChatGPTには情報漏洩のリスクがある

ChatGPTは、人が話すような自然な会話ができるOpenAIが提供するAIチャットサービスです。ビジネスシーンでも大幅な業務の効率化が期待できるツールとして注目され、2022年11月の発表以来一気に各企業に広がり、さまざまな方法で活用されています。

一方で情報漏洩のリスクもあるため、導入に躊躇している企業も多い現状もあります。そこで、本記事では、ChatGPTで起こり得る情報漏洩のケースや安全に利用するための対策などについて解説します。

ChatGPTは情報漏洩対策をしっかり施せば安心して利用できるツールです。万全な対策をしたうえで効果的に運用して、業務の効率化とともに企業の生産性の向上を図りましょう。

参考:ChatGPT – OpenAI

ChatGPTとは?メリット・デメリット、始め方などを解説

ChatGPTとは、2022年11月に公開されたAIチャットサービスです。無料で利用でき、人間のような自然な受け答えができることから話題となりました。この記事ではChatGPTのメリット・デメリットや始め方、気になる危険性などについて解説します。

ChatGPTで起こり得る情報漏洩のケース

今までのChatGPTを起因とする情報漏洩には、下記の2つのケースがありました。ここでは、これらのケースがどのようにして起こったのかその原因を解説します。

\気になる項目をクリックで詳細へジャンプ/

プロンプトの内容が他人の回答に転用される

ChatGPTは、大量にあるインターネット上のデータを学習するだけでなく、ユーザーがプロンプトに入力した指示や質問も学習しています。そして、学習した結果を第三者の指示や質問に対する回答を生成する際に参照します。

そのため、第三者の指示や質問の回答に自社が入力したプロンプトの内容が参照され、回答に転用されたというケースが実際に起こりました。しかしChatGPTは、プロンプトの内容を学習することによって、より正確な回答の生成を可能にしているという一面もあります。

現在のChatGPTは、無料プランであってもプロンプトの内容を学習させないための設定ができるようになっています。機密情報や個人情報を扱う場合は、必ず学習しない設定にしておきましょう。

バグによってチャット履歴が他人に表示される

ChatGPTの利用において、2023年3月にチャット履歴や個人情報が他ユーザーに表示される可能性があったという問題が発生しました。その原因は、ChatGPTが利用しているオープンソースソフトウェアのバグであったことが発表されています。

OpenAIは、問題の把握と同時にChatGPTサービスを停止してバグの修正を行い、数時間後に正常復帰されました。ChatGPTは非常に大きなシステムであるため、今後もバージョンアップなどの仕様変更によるバグで、情報流出が発生する可能性はゼロではありません

 

ChatGPTで情報漏洩を防ぐための対策

ChatGPTは、情報漏洩対策をしっかりと施せば、企業の業務の効率化に非常に役立つツールです。ここでは、ChatGPTで情報漏洩を防ぐために効果的な下記の6つの対策について解説します。

\気になる項目をクリックで詳細へジャンプ/

Web版では機密情報を入力しない

多くのChatGPTは、ユーザーが入力したプロンプトの内容をAIに学習させるかどうかを設定できる機能を搭載しています。しかし、Web版のChatGPTは、その機能が搭載されていないため、プロンプトに入力した内容が他人の回答に転用される可能性があります。

したがって、Web版を利用する際には、企業の機密情報や個人情報をプロンプトに入力しないように規定を設け、情報漏洩を防ぐ必要があります。

また、プロンプトに入力した内容は、原則ChatGPTのサーバーに保存されます。そのため、そこから情報が流出する可能性もあるため注意しましょう。

パスワードを定期的に変更する

ChatGPTは、一般的にIDとパスワードでログインします。もしIDとパスワードが第三者に漏れてしまうと、誰でもログインできてしまいます。しかしChatGPTでは、登録時に作成したIDの変更はできず、変更できるのはパスワードのみです。

したがって、万が一IDとパスワードが漏洩した場合に不正アクセスを防ぐには、パスワードの迅速な変更が必要です。過去にはアカウント情報が売買されていた事例もあるため、パスワードの定期的な変更を心がけましょう。

APIや企業向けプランを利用する

ChatGPTからの情報漏洩を防ぐには、無料公開されているAPIを利用するのも1つの方法です。APIとは、異なるアプリ同士をつなげる役割を果たすもので、APIを仲介してChatGPTと自社アプリをつなぐことによって、入力した情報がAIの学習に利用されなくなります

また、「ChatGPT Enterprise」や「ChatGPT Team」といった企業向けプランも、入力した情報が学習データに利用されないため、情報漏洩の防止になります。どちらも、企業での利用を想定した高レベルなセキュリティ対策が施されています。

「ChatGPT Enterprise」は、カスタマイズ性が高く規模の大きな組織でも運用できるプランで、「ChatGPT Team」はメンバー管理や課金の管理ができるチーム利用に適したプランです。

参考:ChatGPT for enterprise

参考:ChatGPT for teams

過去のやり取りを保存しないようにする

ChatGPTでは、「Chat history & training」機能をOFFにすることによって、ChatGPTとのやり取りの履歴を保存しない設定にできます。OFF設定を行うことで、自社の質問内容が第三者の回答に転用されるリスクがなくなり、情報漏れを防げます。

Chat history & trainingは、初期設定ではONになっているため注意が必要です。また、過去の履歴の完全削除や、30日間での自動削除の設定も可能です。履歴を保存する場合でも長期間の保存は情報漏洩のリスクが高まるため、短期間での削除をおすすめします。

DLPを導入する

DLP(Data Loss Prevention)は、機密情報や重要データを自動的に特定して監視・保護するシステムです。ほかの情報漏洩防止対策と違って、データそのものを監視することにより、データにアクセスした人やしようとした人の特定ができます。

DLPは、事前に定められた基準でChatGPTへのアクセスを制限したり、機密情報の要約などをブロックしたりできます。また、アップロード制限・機密情報の持ち出し制限・Webサイトへのアクセス制限などのさまざまな制限で情報漏洩から企業を守ります。

Azure OpenAI Serviceを利用する

ChatGPTをセキュアな環境で運用するには「Azure OpenAI Service」を利用するのもおすすめです。Azure OpenAI Serviceは、Microsoftが提供している法人向けAIサービスのため、ChatGPTの単独利用よりも高セキュリティな環境でのデータ保護が行えます

Azure OpenAI Serviceを利用すれば、自社のChatGPTが学習した情報はAzureの自社データとして保存され、ChatGPTのサーバーには残りません。そのため、第三者の回答生成に参照されることなく、入力情報は守られます。また、不正アクセスのブロックも可能です。

参考:Azure OpenAI Service|Microsoft  Azure

ChatGPTを社内で安全に利用するためのポイント

ChatGPTを自社で安全に利用するためには、上記のようなシステム上のセキュリティ強化だけでなく、自社の社員管理も大切です。そのためには、下記の3つのポイントを考慮して利用しましょう。

\気になる項目をクリックで詳細へジャンプ/

ChatGPTを社内で安全に利用するためのポイント

  1. 利用ルールを設定する
  2. 利用者を制限する
  3. 社員の教育を徹底する

利用ルールを設定する

システムによってセキュリティ対策を強化しても、人を起因とする情報漏洩は現在も多くあり、それはChatGPTの利用でも同様です。そのため、ChatGPTを利用する企業は、ChatGPTの利用ルールを設定し、従業員に周知徹底することが必須です。

利用ルールでは、用途の範囲・入力不可な情報の範囲・生成された文書の利用や管理の方法などを含めて設定しましょう。また、ChatGPTの利用に上長の許可が必要な企業や、情報漏洩が心配な企業ではChatGPTの利用自体を禁止しているケースもあります。

利用者を制限する

社内でChatGPTの利用者を制限するのも情報漏洩防止の有効な手段です。必要のない人までChatGPTが利用できる環境は、情報漏洩のリスクが高まります。常に利用できる人、許可が必要な人、利用できない人に分けてアクセス制限する方法などがあります。

しかし、ChatGPT自体にはアクセス制限を行う機能はありません。アクセス制限を施したい場合には、Azure OpenAI Serviceを使うのがおすすめです。Azure OpenAI Serviceを利用すれば、登録されていないIPアドレスからのアクセスもブロックできます。

社員の教育を徹底する

利用ルールを設定しても利用者が理解していないと、安全な運用はできません。そのため、ChatGPTに関わる社員教育の徹底も重要です。一般の従業員は、プロンプトに入力した内容が情報漏洩につながることを理解していない人が多いです。

利用ルールの解説とともに、情報漏洩が起こる具体例を示しながらChatGPTの慎重な扱いを周知徹底することが大切です。最近では、従業員を一堂に集める必要のないウェビナーや、場所や時間を問わず視聴できるアーカイブ配信での研修がよく行われています。

まとめ

ChatGPTは高性能な生成AIとして企業でも導入が進められていますが、情報漏洩のリスクもあるため、利用に際しては注意が必要です。ChatGPT利用による情報漏洩には、プロンプトへの入力による漏洩や、ChatGPTシステムのバグで発生したケースもあります。

企業でChatGPTを安全に利用するには、プロンプトの内容をAIが学習しない仕組みを作るとともに、機密情報を入力しないことが重要です。情報漏洩の防止対策をしっかり施すとともに、社内ルールの構築や研修の実施によってChatGPTの安全な利用が可能です。

Share

top