ChatGPTのセキュリティ問題、対処方法の効果と事例
ChatGPTのセキュリティ
ChatGPTには以下のようなセキュリティ上の懸念があります。
機密情報の漏洩リスク
[% module(置き換え) %]
OpenAIは2023年3月に、一部ユーザーの個人情報が他のユーザーに表示される不具合が発生したと発表しました。
サムスン電子は2023年3月、従業員がChatGPTに機密情報を入力したことで情報漏洩が発生したため、ChatGPTの利用を一時禁止しました。
不正なコードやコンテンツの生成リスク
ChatGPTは悪用されて、フィッシングメールやマルウェア、攻撃コードなどの不正なコンテンツを生成する可能性があります。
不正アクセスのリスク
ChatGPTにはログインの2段階認証がなく、パスワードが流出した場合に不正アクセスされるリスクがあります。
ChatGPTのセキュリティ対策
これらのリスクを軽減するための対策としては、以下が挙げられます。
- 機密情報をChatGPTに入力しない
- ChatGPTの「Chat history & training」機能をオフにする
- API版やEnterprise版を利用してデータを社内に保持する
- セキュリティシステムを導入してChatGPTの出力を監視する
- ChatGPTの利用ポリシーを策定し、社員教育を行う
- Azure OpenAI Serviceなどクラウドサービスを利用する
ChatGPTは便利ですが、セキュリティリスクも存在します。企業での利用を検討する際は、適切な対策を講じる必要があります。
ChatGPTのセキュリティインシデントの事例
[% module(広告) %]
セキュリティリスクが、実際に起ってしまった実例はあるのでしょうか?
ChatGPTの利用において、以下のようなセキュリティインシデントが発生しています。
サムスン電子の事例
2023年3月、サムスン電子がChatGPTの社内利用を許可したところ、約20日間で少なくとも3件の機密情報漏洩事案が発生した。
生成AIで世界はこう変わる
1件目は半導体設備のソースコードを、2件目は歩留まりや不良設備を把握するプログラムのソースコードをChatGPTに入力した。
3件目は社内会議の録音データをChatGPTに入力し、議事録作成を依頼した。
あるIT企業がChatGPTの業務利用を許可していたところ、社員が開発中のプログラムのソースコードや社内会議の録音データをChatGPTに入力し、情報漏洩扱いとなった。
機密情報をChatGPTに入力すると、OpenAIのサーバーに保存され、さらにChatGPTの学習データとして利用される可能性があるため、社外への情報漏洩リスクがある。
ChatGPTのバグによるチャット履歴の漏洩
2023年3月、ChatGPTのバグにより、一部のユーザーに別のユーザーのチャット履歴のタイトルが表示されるインシデントが発生した。
関連 「ChatGPT」に他人の会話履歴のタイトルが表示されるバグ–サービスは復旧済み – CNET Japan
また、利用者の個人情報(氏名、メールアドレスなど)が別のユーザーに閲覧できる状態にあった。
OpenAIのアカウント情報の流出
[% module(差し替え広告) %]
関連 ChatGPTで個人情報漏えい OpenAIが原因と対策を説明 – ITmedia NEWS
原因はデータベースシステムのバグによるもの。
ChatGPTを運営するOpenAI社でアカウント情報が流出すれば、ユーザーの個人情報や支払い情報などが漏洩するリスクがある。
ChatGPTのセキュリティのまとめ
[% module(広告) %]
関連 ChatGPTの使い方