PR

ChatGPTのセキュリティ問題、対処方法の効果と事例

ChatGPTのセキュリティ

ChatGPTには以下のようなセキュリティ上の懸念があります。

機密情報の漏洩リスク

ChatGPTにユーザーが入力した情報は、AIの学習データとして利用される可能性があります。機密情報や個人情報を入力すると、それらが漏洩するリスクがあります。

OpenAIは2023年3月に、一部ユーザーの個人情報が他のユーザーに表示される不具合が発生したと発表しました。
サムスン電子は2023年3月、従業員がChatGPTに機密情報を入力したことで情報漏洩が発生したため、ChatGPTの利用を一時禁止しました。

不正なコードやコンテンツの生成リスク

ChatGPTは悪用されて、フィッシングメールやマルウェア、攻撃コードなどの不正なコンテンツを生成する可能性があります。

不正アクセスのリスク

ChatGPTにはログインの2段階認証がなく、パスワードが流出した場合に不正アクセスされるリスクがあります。

ChatGPTのセキュリティ対策

これらのリスクを軽減するための対策としては、以下が挙げられます。

  • 機密情報をChatGPTに入力しない
  • ChatGPTの「Chat history & training」機能をオフにする
  • API版やEnterprise版を利用してデータを社内に保持する
  • セキュリティシステムを導入してChatGPTの出力を監視する
  • ChatGPTの利用ポリシーを策定し、社員教育を行う
  • Azure OpenAI Serviceなどクラウドサービスを利用する

ChatGPTは便利ですが、セキュリティリスクも存在します。企業での利用を検討する際は、適切な対策を講じる必要があります。

ChatGPTのセキュリティインシデントの事例

セキュリティリスクが、実際に起ってしまった実例はあるのでしょうか?

ChatGPTの利用において、以下のようなセキュリティインシデントが発生しています。

サムスン電子の事例
2023年3月、サムスン電子がChatGPTの社内利用を許可したところ、約20日間で少なくとも3件の機密情報漏洩事案が発生した。

関連 【やじうまPC Watch】Samsung、ChatGPTの社内利用で3件の機密漏洩 – PC Watch

1件目は半導体設備のソースコードを、2件目は歩留まりや不良設備を把握するプログラムのソースコードをChatGPTに入力した。

3件目は社内会議の録音データをChatGPTに入力し、議事録作成を依頼した。

IT企業の事例
あるIT企業がChatGPTの業務利用を許可していたところ、社員が開発中のプログラムのソースコードや社内会議の録音データをChatGPTに入力し、情報漏洩扱いとなった。

機密情報をChatGPTに入力すると、OpenAIのサーバーに保存され、さらにChatGPTの学習データとして利用される可能性があるため、社外への情報漏洩リスクがある。

ChatGPTのバグによるチャット履歴の漏洩
2023年3月、ChatGPTのバグにより、一部のユーザーに別のユーザーのチャット履歴のタイトルが表示されるインシデントが発生した。

関連 「ChatGPT」に他人の会話履歴のタイトルが表示されるバグ–サービスは復旧済み – CNET Japan

また、利用者の個人情報(氏名、メールアドレスなど)が別のユーザーに閲覧できる状態にあった。

バグの発生により、ユーザー間でチャット履歴や個人情報が共有されてしまうリスクがある。

OpenAIのアカウント情報の流出

過去にOpenAI社で利用者のアカウント情報(氏名、メールアドレス、住所、クレジットカード情報など)が流出した事例がある。

関連 ChatGPTで個人情報漏えい OpenAIが原因と対策を説明 – ITmedia NEWS

原因はデータベースシステムのバグによるもの。

ChatGPTを運営するOpenAI社でアカウント情報が流出すれば、ユーザーの個人情報や支払い情報などが漏洩するリスクがある。

ChatGPTのセキュリティのまとめ

ChatGPTの利用においては機密情報の入力、バグ、不正アクセスなどによる情報漏洩リスクがあることがわかります。企業ではセキュリティ対策を徹底する必要があります。

関連 ChatGPTの使い方