PR

ChatGPTのセキュリティ問題、対処方法の効果と事例

スポンサーリンク

ChatGPTのセキュリティ

ChatGPTには以下のようなセキュリティ上の懸念があります。

機密情報の漏洩リスク

[% module(置き換え) %]

OpenAIは2023年3月に、一部ユーザーの個人情報が他のユーザーに表示される不具合が発生したと発表しました。
サムスン電子は2023年3月、従業員がChatGPTに機密情報を入力したことで情報漏洩が発生したため、ChatGPTの利用を一時禁止しました。

不正なコードやコンテンツの生成リスク

ChatGPTは悪用されて、フィッシングメールやマルウェア、攻撃コードなどの不正なコンテンツを生成する可能性があります。

不正アクセスのリスク

ChatGPTにはログインの2段階認証がなく、パスワードが流出した場合に不正アクセスされるリスクがあります。

ChatGPTのセキュリティ対策

これらのリスクを軽減するための対策としては、以下が挙げられます。

  • 機密情報をChatGPTに入力しない
  • ChatGPTの「Chat history & training」機能をオフにする
  • API版やEnterprise版を利用してデータを社内に保持する
  • セキュリティシステムを導入してChatGPTの出力を監視する
  • ChatGPTの利用ポリシーを策定し、社員教育を行う
  • Azure OpenAI Serviceなどクラウドサービスを利用する

ChatGPTは便利ですが、セキュリティリスクも存在します。企業での利用を検討する際は、適切な対策を講じる必要があります。

ChatGPTのセキュリティインシデントの事例

[% module(広告) %]

セキュリティリスクが、実際に起ってしまった実例はあるのでしょうか?

ChatGPTの利用において、以下のようなセキュリティインシデントが発生しています。

サムスン電子の事例
2023年3月、サムスン電子がChatGPTの社内利用を許可したところ、約20日間で少なくとも3件の機密情報漏洩事案が発生した。

生成AIで世界はこう変わる

1件目は半導体設備のソースコードを、2件目は歩留まりや不良設備を把握するプログラムのソースコードをChatGPTに入力した。

3件目は社内会議の録音データをChatGPTに入力し、議事録作成を依頼した。


あるIT企業がChatGPTの業務利用を許可していたところ、社員が開発中のプログラムのソースコードや社内会議の録音データをChatGPTに入力し、情報漏洩扱いとなった。

機密情報をChatGPTに入力すると、OpenAIのサーバーに保存され、さらにChatGPTの学習データとして利用される可能性があるため、社外への情報漏洩リスクがある。

ChatGPTのバグによるチャット履歴の漏洩
2023年3月、ChatGPTのバグにより、一部のユーザーに別のユーザーのチャット履歴のタイトルが表示されるインシデントが発生した。

関連 「ChatGPT」に他人の会話履歴のタイトルが表示されるバグ–サービスは復旧済み – CNET Japan

また、利用者の個人情報(氏名、メールアドレスなど)が別のユーザーに閲覧できる状態にあった。

OpenAIのアカウント情報の流出

[% module(差し替え広告) %]

関連 ChatGPTで個人情報漏えい OpenAIが原因と対策を説明 – ITmedia NEWS

原因はデータベースシステムのバグによるもの。

ChatGPTを運営するOpenAI社でアカウント情報が流出すれば、ユーザーの個人情報や支払い情報などが漏洩するリスクがある。

ChatGPTのセキュリティのまとめ

[% module(広告) %]

関連 ChatGPTの使い方

 

ChatGPT
スポンサーリンク
フォローする