ChatGPTのセキュリティ
ChatGPTには以下のようなセキュリティ上の懸念があります。
機密情報の漏洩リスク
ChatGPTにユーザーが入力した情報は、AIの学習データとして利用される可能性があります。機密情報や個人情報を入力すると、それらが漏洩するリスクがあります。
OpenAIは2023年3月に、一部ユーザーの個人情報が他のユーザーに表示される不具合が発生したと発表しました。
サムスン電子は2023年3月、従業員がChatGPTに機密情報を入力したことで情報漏洩が発生したため、ChatGPTの利用を一時禁止しました。
不正なコードやコンテンツの生成リスク
ChatGPTは悪用されて、フィッシングメールやマルウェア、攻撃コードなどの不正なコンテンツを生成する可能性があります。
不正アクセスのリスク
ChatGPTにはログインの2段階認証がなく、パスワードが流出した場合に不正アクセスされるリスクがあります。
ChatGPTのセキュリティ対策
これらのリスクを軽減するための対策としては、以下が挙げられます。
- 機密情報をChatGPTに入力しない
- ChatGPTの「Chat history & training」機能をオフにする
- API版やEnterprise版を利用してデータを社内に保持する
- セキュリティシステムを導入してChatGPTの出力を監視する
- ChatGPTの利用ポリシーを策定し、社員教育を行う
- Azure OpenAI Serviceなどクラウドサービスを利用する
ChatGPTは便利ですが、セキュリティリスクも存在します。企業での利用を検討する際は、適切な対策を講じる必要があります。
ChatGPTのセキュリティインシデントの事例
セキュリティリスクが、実際に起ってしまった実例はあるのでしょうか?
ChatGPTの利用において、以下のようなセキュリティインシデントが発生しています。
サムスン電子の事例
2023年3月、サムスン電子がChatGPTの社内利用を許可したところ、約20日間で少なくとも3件の機密情報漏洩事案が発生した。
関連 【やじうまPC Watch】Samsung、ChatGPTの社内利用で3件の機密漏洩 – PC Watch
1件目は半導体設備のソースコードを、2件目は歩留まりや不良設備を把握するプログラムのソースコードをChatGPTに入力した。
3件目は社内会議の録音データをChatGPTに入力し、議事録作成を依頼した。
IT企業の事例
あるIT企業がChatGPTの業務利用を許可していたところ、社員が開発中のプログラムのソースコードや社内会議の録音データをChatGPTに入力し、情報漏洩扱いとなった。
機密情報をChatGPTに入力すると、OpenAIのサーバーに保存され、さらにChatGPTの学習データとして利用される可能性があるため、社外への情報漏洩リスクがある。
ChatGPTのバグによるチャット履歴の漏洩
2023年3月、ChatGPTのバグにより、一部のユーザーに別のユーザーのチャット履歴のタイトルが表示されるインシデントが発生した。
関連 「ChatGPT」に他人の会話履歴のタイトルが表示されるバグ–サービスは復旧済み – CNET Japan
また、利用者の個人情報(氏名、メールアドレスなど)が別のユーザーに閲覧できる状態にあった。
バグの発生により、ユーザー間でチャット履歴や個人情報が共有されてしまうリスクがある。
OpenAIのアカウント情報の流出
過去にOpenAI社で利用者のアカウント情報(氏名、メールアドレス、住所、クレジットカード情報など)が流出した事例がある。
関連 ChatGPTで個人情報漏えい OpenAIが原因と対策を説明 – ITmedia NEWS
原因はデータベースシステムのバグによるもの。
ChatGPTを運営するOpenAI社でアカウント情報が流出すれば、ユーザーの個人情報や支払い情報などが漏洩するリスクがある。
ChatGPTのセキュリティのまとめ
ChatGPTの利用においては機密情報の入力、バグ、不正アクセスなどによる情報漏洩リスクがあることがわかります。企業ではセキュリティ対策を徹底する必要があります。
関連 ChatGPTの使い方