あっ、やばい!
ChatGPTに
年齢おしえちゃった...
年齢はいいんじゃないですか?
サバ読んでなければですけど...
でも確かに、不安になるのは分かります。
ChatGPTで遊んでると、自分とAIだけの会話だと思い、つい油断してしまうのです。
気が付くと、プライベートな内容や仕事上の機密など、うっかり入力してしまってたり...
そんなあなた。本当に大丈夫ですか?
✔ChatGPTに個人情報を打って大丈夫?
✔業務中に社外秘を入力してしまった...
✔ChatGPTにどんなリスクがあるの?
✔ChatGPTを安全に使う方法を知りたい
このような悩みを解決します。
世界中で爆発的に拡大中のAIチャットボット、ChatGPT。2023年3月14日には、最新の言語処理モデルであるGPT-4(Wikipedia)が、有料プランのChatGPT Plusで使用可能になりました。すでに使い始めた人も多いと思います。正確性や処理能力も格段に向上し、さらに進化が加速するでしょう。
一方で、いくつかの課題も浮かび上がってます。そのなかでも、僕が最も気になっているのは、セキュリティのリスクです。
仕事の効率化や時短のため、エクセル関数やプログラミングコードを、ChatGPTに作らせてる人もいるでしょう。また、企業の経理補助に活用して、財務諸表のたたき台を作ってる人もいるかも知れません。まさか実際の数字を入力してませんよね?
あるいは家計簿を作るために、ChatGPTに実際の支出額を、直に入力してる主婦はいませんか?カード会社名とか、引き落とし額とか打ってませんよね?
本当に大丈夫?
遊びやエンターテイメントとして使う分には、何ら問題ありません。どんどん使っていいと思います。
ただし、忘れてはいけないことがあります。
ChatGPTは、常に
学習している人工知能
だということです。
入力した質問テキストを、もし学習に使用してるとしたら?
IPアドレスと質問が、もし関連付けされてるとしたら?
怖くないですか?
世界中のどこかで、あなたの知らない誰かが、あなたの住所を聞き出してしまうかも知れません...
アタシの年齢バレる?
そんな怖いことが、実際にあり得るのか?または無いのか?を深掘りしていきます!
※本記事は2023年9月10日現在の情報に基づいています。ChatGPTの最新のガイドライン、利用規約に関してはOpenAI公式ページをご確認ください。
※2023年4月1日追記:非常に残念ですが、2023年3月20日に有料版ChatGPT Plusにて情報漏洩が発生しました。以下の件もご参考に。OpenAIのサム・アルトマンCEOのツイートです。
we had a significant issue in ChatGPT due to a bug in an open source library, for which a fix has now been released and we have just finished validating.
— Sam Altman (@sama) 2023年3月22日
a small percentage of users were able to see the titles of other users’ conversation history.
we feel awful about this.
※本ページはプロモーションが含まれています。
ChatGPTに情報漏洩の危険性はあるのか?リスクを減らす方法
ChatGPTのセキュリティリスクとは?
結論:ChatGPTには情報漏洩のリスクがあります。
まずは、ChatGPT本人に聞いてみましょう。
《ChatGPTへの質問文》
ChatGPTには情報漏洩のリスクがありますか?
何て言ってる?
《ChatGPTの答え》
ChatGPTは、OpenAIによって開発された自然言語処理のための大規模言語モデルであり、セキュリティとプライバシーに優れた仕組みが備わっています。
OpenAIは、ChatGPTを開発する際に、機密情報の漏洩や悪用を防止するためにセキュリティプロトコルを設けています。また、ChatGPTにアクセスするためには、強力な認証と承認プロセスが必要であり、アクセスレベルに応じた厳格なアクセス制限が導入されています。
さらに、OpenAIは、ChatGPTを利用する企業や個人に対して、データの機密性を保証するために、契約や規定による厳格なプライバシー保護措置を提供しています。
しかし、完全に情報漏洩のリスクを排除することはできません。不正なアクセスや攻撃に対するリスクが存在し、OpenAIは定期的な脆弱性テストやセキュリティ対策の見直しを行っています。また、ユーザー側でも、適切なセキュリティ対策を実施することが重要です。
正直に言うと、完全に予想通りの答えです。
こっちは万全の体制だけど、自分でもセキュリティ対策してね!よろしくね~
と言ってます。ついでに言えば、結局自己責任で頼むよ~、と言う風にも聞こえますが...
結局どっちなの...
OpenAIのプライバシーポリシーから分かること
ChatGPTの開発元である、OpenAI(オープンエーアイ)のPrivacy policy(プライバシーポリシー)を見てみましょう。
今後も課題・問題が出るたびに、更新がされていくことが予想されます。
今回は、2023年9月10日時点に、2023年6月23日更新版から抜粋した内容です。
個人情報や企業機密、セキュリティに関わる点を抜き出してみます。
①個人情報は収集するの?
まずは、個人情報を集めてるの?という疑問に関してです。
プライバシポリシー『1.当社が取得する個人情報』の項目から見てみましょう。
そもそも入力したテキストから、個人情報を集めるのか?に関する記載です。
・お客様が提供する個人情報
(中略)
ユーザーコンテンツ:お客様が本サービスを利用する際、当社は、お客様が本サービスに提供する入力情報、ファイル、又はフィードバックに含まれる個人情報(以下、「コンテンツ」といいます。)を取得します。
プライバシーポリシーの中では、コンテンツ内の個人情報を収集する場合がある、と言い切ってます!
アカウント作成に必要な個人情報が、収集されるのは分かるんです。当然だと言えます。じゃないとログインできませんから。
また、利用中のログデータや使用状況(場所やIPアドレス等)、デバイス情報なども理解できます。どんなツールであっても、ユーザーが隠さない限り、自動収集するのでやむなしです。
ところが上記のように、ユーザー コンテンツに入力される個人情報を、収集する場合がある、とは何を意味してるのでしょうか?
言葉どおりなら、入力されたコンテンツから個人情報を集めるということですが...
アタシの年齢は...
ではChatGPT本人に聞いてみましょう!
《ChatGPTへの質問文》
ChatGPTは、ユーザーが入力した個人情報を、学習のために使用することはありますか?
答えは?
《ChatGPTの答え》
ChatGPTは、学習のために大量のテキストデータを使用していますが、個人情報を収集したり、個人を特定する情報を学習データとして使用することはありません。ChatGPTは、無差別な入力テキストから学習を行い、入力された情報を分析し、回答を生成するシステムです。
ただし、ユーザーが入力した情報は、セッションの間だけメモリに保持され、セッションが終了すると破棄されます。このため、ChatGPTは、ユーザーが入力した情報を記憶したり、後で再利用したりすることはありません。
また、OpenAIは、ChatGPTの利用に関連する個人情報を保護するために、プライバシーポリシーやセキュリティプロトコルを定め、厳格なプライバシー保護措置を提供しています。
個人情報は集めないし、学習に使わないと言ってます。
よかった!
アタシの年齢バレないよ
でも、とても不思議ですね...
プライバシーポリシーでは、収集する場合があると言ってます。間違いなく書いてあるのです。
ChatGPTと、それを管理するポリシーが、真逆のことを言ってる気がしますけど...
これでは信用できない!と多くのユーザーに思われても、仕方がないです。
②個人情報の利用に関して
続いては、個人情報を利用する場合のポリシーを確認します。
2.個人情報の利用目的について
(中略)
当社は、お客様を特定することができないようにするために個人情報を集計又は非識別化し、本サービスの有効性の分析、本サービスの改善及び機能の追加、調査の遂行及びその他の同様の目的のためにこれらの情報を利用することがあります。また、当社は、随時、本サービスのユーザーの一般的な行動及び特性を分析し、一般的なユーザー統計のような統計情報を第三者と共有し、そのような統計情報を公表し、又はそのような統計情報を一般に利用可能にすることがあります。当社は、本サービス、クッキー及び本プライバシーポリシーに記載されているその他の手段により、統計情報を収集する場合があります。当社は、非識別化された情報を匿名又は非識別化された形式で維持又は利用し、法律で要求されない限り、当該情報によって再度個人が識別されるような試みを行いません。
難しいよ!
簡単に、言い変えましょう。
個人情報は使わせてもらうけど、名前は消してまとめちゃうから絶対バレないよ!
と言ってます。
ただし、ここで言ってる個人情報とは、何を指しているのか?
はっきりしません...
アカウント作成に必要な個人情報や、使用状況データ等のことなのか?
サービス内で入力する、質問文に含まれた個人情報を指しているのか?
何度読み返しても、どちらなのか判断できないのです。
こうしてポリシーを読むと、感じてしまいます。やはり、ちょっと怖いです。
入力テキスト内には、クレジットカード会社名や住所などはもちろん、それを類推できるような個人情報は入力しない方が無難。
企業が外部に知られたくない情報や機密なども、決して入力すべきではありません。
OpenAIの個人情報管理自体は、万全なのだと思います。アカウントに紐づく情報に関しては。そこは心配してません。
でもChatGPTとの対話サービスの中で、個人情報や企業機密が飛び出してしまう事故が、絶対に無いとは言い切れない。そう思えてなりません。
ChatGPT本人に聞いてみましょう。
《ChatGPTへの質問文》
企業の機密情報や機密データ、社内の人間しか知りえないような情報は、どのように取り扱いますか?学習や機能改善には利用するのですか?
さて答えは?
《ChatGPTの答え》
ChatGPTは、企業の機密情報や機密データ、社内の人間しか知りえないような情報を学習データとして利用することはありません。OpenAIは、ChatGPTの学習データとして使用するテキストデータを選定する際に、プライバシー保護の観点から慎重に選択しています。
OpenAIは、ChatGPTの開発にあたり、データセットに含まれる個人情報や機密情報を特定し、削除するなどの処理を行っています。また、企業や個人から提供されたテキストデータについては、明示的に機密性を確認した上で、適切な処理を行っています。
ただし、企業がChatGPTを利用する際には、セキュリティプロトコルやプライバシー保護措置を十分に考慮する必要があります。企業が自社のデータをChatGPTに提供する場合は、データの機密性を確保するための適切な措置を講じる必要があります。また、ChatGPTを利用する際には、プライバシーポリシーや利用規約を遵守することが重要です。
という答えが返ってきました。
結局、言いたいことは下記。
個人情報も企業機密も、学習には使いません!適切に削除して取り扱います。でも個人も企業も、自分たちで気を付けてね!
自己責任ってこと?
③プライバシー保護やセキュリティに関して
では最後に、規約内のプライバシーやセキュリティに関する記載内容を確認しましょう。
8.セキュリティと保持
(中略)
当社は、オンライン及びオフラインの双方において、個人情報を紛失、誤用、不正なアクセス、開示、改ざん、又は破壊から保護するために、商業上合理的な技術的・物理的・組織的措置を講じます。しかし、インターネットや電子メールの送信は、完全に安全でエラーがないわけではありません。特に、当社との間で送受信される電子メールは安全でない場合があります。したがって、本サービス又は電子メールを通じて当社に送信する情報の決定にあたっては、特に注意してください。さらに、当社は、本サービス又は第三者のウェブサイトに含まれるプライバシー設定又はセキュリティ対策の回避について責任を負いません。
本サービスを介して情報送信する場合は、特別な注意を払ってください、と言ってます。
さらには、責任は負いませんと明言してるのです。
注意しよう!
とにかく個人情報(他人のものを含む)を打たないこと。企業機密を入力しないことです。すでに悪意を持った第三者が、攻撃目的で活用しているかも知れません。
そんなヤカラを野放しにしないためにも、AIとの付き合い方を真剣に考える時です。
ChatGPTを否定するつもりは全くありません。すでにイノベーションが起きているし、世界を変えると信じてさえいます。
だから気を付けましょう。せっかくの素晴らしい発明です。正しく使って、上手に付き合い、共存していくのがベスト。
アタシの年齢は...
どうでもいいです!
ChatGPTのセキュリティリスクを減らす方法
ChatGPT本人が回答している通り、情報漏洩やセキュリティのリスクを、完全に排除することは出来ません。
どうしたらいいの?
個人でも企業でも、自分の身は自分で守るのです!
《ChatGPTのセキュリティリスク軽減法》
①リスク管理の意識を持つ
・機密情報・個人情報を入力しない
・サードパーティー製ChatGPTは極力使わない
②適切なセキュリティ環境
・セキュリティソフト
・VPN接続
①リスク管理の意識を持つ
まずは、チャットボットと対話するときに、個人情報や機密情報を打たないことです。
すでにITの世界的企業Amazonが、社員に通達を出してます。現在開発中のコードや社外秘を、ChatGPTに入力してはならないと。
参照記事:Business Insider
また日本でも、情報流出を抑えるため、ソフトバンクが機密情報の入力をやめるよう社員に通知したと報じられてます。
参照記事:日本経済新聞
2023年9月8日には、下記のような調査結果がリリースされています。
日本においては72%が「職場でのChatGPTやその他の生成AIアプリケーションの禁止を実施、あるいは検討している」という結果となった。また81%が「安全ではないアプリケーションが企業のIT環境にサイバーセキュリティ上の脅威をもたらすことを懸念」しているという。
そして、サードパーティー製のChatGPTは、極力使わないことです。
OpenAIは、ChatGPTのAPI(アプリケーションプログラミングインタフェース-Wikipedia)を一般公開しています。つまりお金を払えば、誰でもChatGPTを使ったアプリが作れてしまうのです。
どこの誰かも分からない人間が作ったものでも、ChatGPT搭載と名乗れます。そこで起きるリスクに対して、OpenAIのプライバシーポリシーにあるように、ChatGPTは何ら責任を負いません。
信頼できる企業の作ったものなのか?は自分自身で判断するしかないのです。
何かが起きて損失を受けても、もはや完全に自己責任だと言えるでしょう。
※2023年4月1日追記:G7の加盟国であるイタリアが、ChatGPTへのアクセスを停止しました。同国の個人情報保護法に違反すると、国として判断したとのことです。やはり、セキュリティ対策は待ったなしだと確信しました。
参照記事:チャットGPT データ収集など「違法」(朝日新聞デジタル)-Yahoo!ニュース
※2023年4月29日追記:イタリアは個人情報保護への対応が改善したとして、ChatGPTへのアクセスを再開してます。
②適切なセキュリティ環境
法人でも個人事業主でも、優れたセキュリティソフトや高性能のVPN接続は必須です。
特にリモートワークでChatGPTを使う場合は、VPN接続を強くおすすめします。
少なくとも悪意を持った第三者の攻撃は、限りなく不可能に近くなるからです。
高性能のVPN接続なら、ChatGPTサーバーとのデータの往来が、解読不能に暗号化されます。またログデータの追跡、個人IPアドレスや場所の特定なども回避できるのです。
万が一情報が漏洩しても、特定の企業や個人と紐づけることが、極めて難しくなります。
ただしVPN接続には、デメリットもあります。VPN接続でChatGPTを使うと、接続エラーが起きやすくなります。その原因の多くは、IPアドレスが共有化されるから。
個人のIPアドレスを隠すために、共有のIPアドレスが割り当てられることによります。
接続エラーを解消する方法は、別の国のVPNサーバーに切り替えるか、またはオプションで固定IPアドレスを取得するか、のどちらかです。
いずれにしても、無料のセキュリティソフトやVPNサービスは、むしろリスクを助長します。安心と安全は、タダで手に入るものではないのです。
長く使われている実績があって、利用者の多い信頼のおけるサービスを選びましょう!
VPNサービスなら、Nord(ノード)の一択です。接続速度が遅れがちなVPNですが、2023年9月時点で業界最速。世界最高峰のセキュリティレベルを誇り、1アカウントで6つのデバイスを保護できます。世界60ヵ国に5,500万台以上のサーバーを保有。月額440円からと、驚異的なコスパの神ツールです。24時間365日サポート付き。
※30日間返金保証付き
セキュリティソフトなら、Norton(ノートン)です。世界でもっとも売れている(2023年9月時点)だけあって、そのセキュリティレベルは折り紙付き。最高レベルのウィルスやハッキング防止はもちろん、VPN接続にも対応してます。24時間365日のサポートあり。月額換算399円(年額4,780円)からと、コスパも優秀です。
※60日間返金保証付き
ChatGPTのセキュリティリスクを減らす方法のまとめ
一人のユーザーとして、ChatGPTの危険性、セキュリティリスクを考えてみました。
結論をくりかえします。
ChatGPTには情報漏洩のリスクがあります。
リスクを完全に排除することは出来ません。でも、自己防衛する方法はあります。
個人でも企業でも、自分の身は自分で守るのです!
《ChatGPTのセキュリティリスク軽減法》
①リスク管理の意識を持つ
②適切なセキュリティ環境
時代がひっくり返るような発明は、使う人が増えれば増えるほど、批判的な人も増えていきます。過去の大きなイノベーションも、初期には例外なく批判されてきました。
ウォークマンも、インターネットも、スマートフォンも、そしてChatGPTも。
前例のないことが起きるのですから、これは仕方のないことかもしれません。
ChatGPTは悪用されやすいとか、安全性に問題があるとか、いろいろ言われています。
でも僕は、AIの持つリスクが突然大きくなった、とは思いません。
すでに無数にあるクラウドサービスや、ECショッピングと何も変わりません。同じく、大きなリスクです。
生成AIが批判されるのは、単にChatGPTが、あまりにも一気に拡がったせいだと感じます。
AI技術の進歩に、リスクはあります。
それは裏を返せば、既存のリスクを一掃する可能性も秘めているのです。
サイバー犯罪に利用される可能性があるなら、サイバー犯罪を防ぐ可能性もあります。
人間の仕事を奪う可能性がある反面、人間を救う可能性もあるのです。
AIの持つリスクをできる限り減らして、便利に付き合えばよいと思います。
そして人間にしかできない価値を、探し続けましょう!