便利で仕事の役にも立つChatGPTですが、情報漏えいリスクがあることをご存知でしょうか?
すでに、サムスンやAmazonと言った企業ではChatGPTの業務利用を禁止する動きも出ています。
この記事では、ChatGPTの業務利用について、
- どのようなリスクがあるのか
- ChatGPTの学習を防ぐ設定について
- 企業の事例
等をふまえて解説していきます。ぜひご覧ください。
※2024年5月13日に、ChatGPTの新しいLLM「GPT-4o(オムニ)」が登場しました!以下の記事で詳しい概要や使い方について解説していますので、合わせてチェックしてみてください。
ChatGPTの利用には情報漏えいリスクがある
結論として、開発会社であるOpenAIが「ユーザーから提供されたデータをモデル改善のために使用することがある」と規約に明記していますので、個人情報や機密情報をChatGPT上で利用するのはやめましょう。
ただし、OpenAIは個人情報の使用については慎重で、トレーニングに個人情報を用いないような措置を取っています。気になる方は以下の規約の解説記事をご覧ください。
しかし、完全に情報漏えいのリスクを排除できるわけではありませんので、利用する際には情報の提供には十分な注意が必要です。
安全な利用のために、個人を特定できる情報の入力は避けましょう。
ChatGPTへの情報漏えいリスク対策をする簡単な設定方法
ただ、情報漏えいリスク対策をするために、簡単に履歴を保存しないモードに設定をする、いわばシークレットモードができました。
シークレットモードに設定することで、入力したデータが学習に使われなくなります。※
PCブラウザ版の場合とアプリ版の場合でそれぞれ解説しますので、参考にしてください。
PCブラウザ版の場合
①・・・のマークをクリック
②「Setting」をクリック
③「Data Controls」の「Chat History &Training」をオフに
以上で設定は完了です!
スマホアプリ版の場合
①アプリを開き、・・・をクリック
②「Setting」をクリック
③「Data Controls」をクリック
④「Chat History」&Trainingをクリック
これで完了です!
※履歴をオフにしても、不正使用の監視のために30日間はすべての会話を保存しているそうです。
ChatGPTの学習をオフにするデメリット
ChatGPTの「Chat History & Training」機能をオフにすると、学習されないというメリットだけではなく、使用する上でのデメリットも存在します。
- AIの理解力の低下:Chat History & Trainingをオフにすると、ChatGPTは過去の会話履歴を学習することができなくなります。これにより、ユーザーの傾向やニーズを理解する能力が下がる可能性があります。
- パーソナライズの低下:ChatGPTは、ユーザーの過去のチャット履歴を利用してパーソナライズを行います。この機能がオフになると、個々のユーザーに合わせたカスタマイズの品質が下がるかもしれません。
- 履歴のアクセス不可:この設定をオフにすると、ユーザー自身も過去のチャット履歴を見ることができなくなります。重要な情報を見返すことができなくなるため、不便さを感じる場面が増えるかもしれません。
個人的には、履歴がかなり活用できるので、機能をオフにせず利用しています。
ChatGPTの情報漏えいに対する企業事例
簡単な設定で、個人情報が学習されないような設定はできましたが、有名企業はどのような対応を取っているのでしょうか?
有名企業の事例を紹介します。
ChatGPTの情報漏えい事例①:サムスン電子(Samsung)
最も有名なのは韓国のサムスン電子(Samsung)の事例かもしれません。
Bloombergによると、サムスン電子の従業員が社内機密のソースコードをChatGPTにアップロードしてしまったことが発覚し、ChatGPTを始めとする生成AIの利用を禁止するガイドラインを作りました。
サムスン電子のこの決定は、おそらくシークレットモードが公開される前後に行われたものなので、今後新しくルールが作られるかもしれませんね。
ChatGPTの情報漏えい事例②:Amazon
テック企業で先駆けてChatGPTを禁止した事例の一つが、Amazonです。
Amazonでは2023年の1月にはすでに、社員が会社支給のデバイスでChatGPTを使うことを禁止しました。
とはいえ、圧倒的に作業効率を改善してくれるため、従業員は使っているのが現状のようです。
AmazonもAIの導入には積極的で、自社モデル(CodeWhisperer)の開発やChatGPTの導入検討なども行っています。
Amazonはそのような取り組みはかなり先進的なので、現在はシークレットモードであれば利用が許可されているかもしれませんね。
その他のChatGPTの情報漏えいへの対策事例
Amazonやサムスン電子の他にも、ChatGPTを禁止した事例や制限している事例は多く存在します。
- アップル(Apple):Appleは、機密データの漏洩についての懸念から、従業員に対してChatGPTと他の第三者のAIツールの使用を制限しました。さらに、Appleは自社のAIツールを開発していると報告されています。
- バンクオブアメリカ(Bank of America):Bank of Americaは、ビジネスでの使用が禁止されているアプリのリストにChatGPTを追加しました。この銀行は、米国の規制当局から2億ドル以上の罰金を科されたことを受けて、内部通信に関するより厳格なコンプライアンス策を実施しています。
- ゴールドマン・サックス(Goldman Sachs):Goldman Sachsは、第三者のソフトウェアへの自動的な制限を通じて、従業員に対するChatGPTへのアクセスをブロックしました。しかし、Goldmanは現在、自社の生成型AIツールを開発中とのことです。
有料版ユーザー(ChatGPT plus)の情報流出事件
実は、2023年3月24日にOpenAIのオープンソースライブラリのバグで、一部のユーザーが他のアクティブなユーザーのチャット履歴のタイトルを見ることができるという状態が発生していました。
また、このバグにより特定の9時間の間にアクティブだったChatGPT Plus加入者のうち1.2%の支払い関連情報が意図せず表示されていた可能性があることも判明しました。
支払い関連情報とは、ユーザーの姓名、メールアドレス、支払い先、クレジットカードの種類とクレジットカード番号の下4桁(のみ)、クレジットカードの有効期限であり、完全なクレジットカード情報は流出していないそうです。
ソース:https://openai.com/blog/march-20-chatgpt-outage
ChatGPTの業務利用に関するルールはどのようにすべきか
企業の管理者や経営者の方としては、業務利用に関してどのようなルールを設ければよいのでしょうか?
まず、ChatGPTに限らず、社内機密情報を入れてはいけないツールは数多く存在することを認識しなければなりません。情報の取扱いについては慎重さが求められます。
ただし、そのようなツールをすべて禁止してしまうと、企業成長を阻害したり、作業効率が上がっていきません。
こういったツールは、適切に利用すれば業務の効率化に大いに寄与します。したがって、頭ごなしに禁止するのではなく、ガイドライン等で使い方について最低限のルールと使い方を教えることが大切です。
また、ルール作りは一度きりではありません。
技術は日々進化していくため、柔軟にルールやガイドラインをアップデートしていくことが重要です。時代の流れと共に、企業の情報管理方法も進化させていく必要があります。
以上のことを踏まえ、ChatGPTをはじめとするAIツールの適切な利用法と情報管理のルール設定を、経営者や管理者は見直し続けるべきでしょう!
ChatGPTの情報漏えい対策についてのまとめ
いかがだったでしょうか?
この記事ではChatGPTの情報漏えい対策について解説してきました。
この記事をまとめると
- ChatGPTはそのまま利用すると、学習に利用されるので個人情報漏洩のリスクがある。
- 学習に利用されないモードにすることもできるが、履歴がオフになり、パーソナライズ機能などは低下してしまう。
- SamsungやAmazonなどではChatGPTの利用を禁止している。
- 社内ルールを作る管理者は、ルールやガイドラインを柔軟に変更していくことが重要
でした。
Romptnでは他にもChatGPTに関する記事を執筆していますので、ぜひご覧ください。
- ChatGPTで〇〇を効率化したい
- スライドを作るならどのAIツールがおすすめ?
- おすすめのGPTsが知りたい
同じ悩みを解決した人がいるかもしれません。ぜひ質問してみてください!