あっ、やばい!
ChatGPTに
年齢おしえちゃった...
年齢はいいんじゃないですか?
サバ読んでなければですけど...
でも確かに、不安になるのは分かります。
ChatGPTで遊んでると、自分とAIだけの会話だと思い、つい油断してしまうのです。
気が付くと、プライベートな内容や仕事上の機密など、うっかり入力してしまってたり...
そんなあなた。本当に大丈夫ですか?
✔ChatGPTに個人情報を打って大丈夫?
✔業務中に社外秘を入力してしまった...
✔ChatGPTにどんなリスクがあるの?
✔ChatGPTを安全に使う方法を知りたい
このような悩みを解決します。
世界中で爆発的に拡大中のAIチャットボット、ChatGPT。2023年3月14日には、最新の言語処理モデルであるGPT-4(Wikipedia)が、有料プランのChatGPT Plusで使用可能になりました。すでに使い始めた人も多いと思います。正確性や処理能力も格段に向上し、さらに進化が加速するでしょう。
一方で、いくつかの課題も浮かび上がってます。そのなかでも、僕が最も気になっているのは、セキュリティのリスクです。
仕事の効率化や時短のため、エクセル関数やプログラミングコードを、ChatGPTに作らせてる人もいるでしょう。また、企業の経理補助に活用して、財務諸表のたたき台を作ってる人もいるかも知れません。まさか実際の数字を入力してませんよね?
あるいは家計簿を作るために、ChatGPTに実際の支出額を、直に入力してる主婦はいませんか?カード会社名とか、引き落とし額とか打ってませんよね?
本当に大丈夫?
遊びやエンターテイメントとして使う分には、何ら問題ありません。どんどん使っていいと思います。
ただし、忘れてはいけないことがあります。
ChatGPTは、常に
学習している人工知能
だということです。
入力した質問テキストを、もし学習に使用してるとしたら?
IPアドレスと質問が、もし関連付けされてるとしたら?
怖くないですか?
世界中のどこかで、あなたの知らない誰かが、あなたの住所を聞き出してしまうかも知れません...
アタシの年齢バレる?
そんな怖いことが、実際にあり得るのか?または無いのか?を深掘りしていきます!
※本記事は2023年3月19日現在の情報に基づいています。ChatGPTの最新のガイドライン、利用規約に関してはOpenAI公式ページをご確認ください。
ChatGPTに情報漏洩の危険性はあるのか?リスクを減らす方法
ChatGPTのセキュリティリスクとは?
結論:ChatGPTには情報漏洩のリスクがあります。
まずは、ChatGPT本人に聞いてみましょう。
《ChatGPTへの質問文》
ChatGPTには情報漏洩のリスクがありますか?
何て言ってる?
《ChatGPTの答え》
ChatGPTは、OpenAIによって開発された自然言語処理のための大規模言語モデルであり、セキュリティとプライバシーに優れた仕組みが備わっています。
OpenAIは、ChatGPTを開発する際に、機密情報の漏洩や悪用を防止するためにセキュリティプロトコルを設けています。また、ChatGPTにアクセスするためには、強力な認証と承認プロセスが必要であり、アクセスレベルに応じた厳格なアクセス制限が導入されています。
さらに、OpenAIは、ChatGPTを利用する企業や個人に対して、データの機密性を保証するために、契約や規定による厳格なプライバシー保護措置を提供しています。
しかし、完全に情報漏洩のリスクを排除することはできません。不正なアクセスや攻撃に対するリスクが存在し、OpenAIは定期的な脆弱性テストやセキュリティ対策の見直しを行っています。また、ユーザー側でも、適切なセキュリティ対策を実施することが重要です。
正直に言うと、完全に予想通りの答えです。
こっちは万全の体制だけど、自分でもセキュリティ対策してね!よろしくね~
と言ってます。ついでに言えば、結局自己責任で頼むよ~、と言う風にも聞こえますが...
結局どっちなの?
OpenAIのプライバシーポリシーから分かること
ChatGPTの開発元である、OpenAI(オープンエーアイ)のPrivacy policy(プライバシーポリシー)を見てみましょう。
今後も課題・問題が出るたびに、更新がされていくことが予想されます。
今回は、2023年3月14日更新版から抜粋した内容です。
個人情報や企業機密、セキュリティに関わる点を抜き出してみます。
①個人情報は収集するの?
まずは、個人情報を集めてるの?という疑問に関してです。
プライバシポリシー『1.収集する個人情報』の項目から見てみましょう。
そもそも入力したテキストから、個人情報を集めるのか?に関する記載です。
1.収集する個人情報
(中略)
ユーザー コンテンツ:お客様が当社のサービスを使用する際、当社は、お客様が当社のサービスに提供する入力、ファイルのアップロード、またはフィードバック (「コンテンツ」) に含まれる個人情報を収集する場合があります。
プライバシーポリシーの中では、コンテンツ内の個人情報を収集する場合がある、と言い切ってます!
アカウント作成に必要な個人情報が、収集されるのは分かるんです。当然だと言えます。じゃないとログインできませんから。
また、利用中のログデータや使用状況(場所やIPアドレス等)、デバイス情報なども理解できます。どんなツールであっても、ユーザーが隠さない限り、自動収集するのでやむなしです。
ところが上記のように、ユーザー コンテンツに入力される個人情報を、収集する場合がある、とは何を意味してるのでしょうか?
言葉どおりなら、入力されたコンテンツから個人情報を集めるということですが...
アタシの年齢は...
ではChatGPT本人に聞いてみましょう!
《ChatGPTへの質問文》
ChatGPTは、ユーザーが入力した個人情報を、学習のために使用することはありますか?
答えは?
《ChatGPTの答え》
ChatGPTは、学習のために大量のテキストデータを使用していますが、個人情報を収集したり、個人を特定する情報を学習データとして使用することはありません。ChatGPTは、無差別な入力テキストから学習を行い、入力された情報を分析し、回答を生成するシステムです。
ただし、ユーザーが入力した情報は、セッションの間だけメモリに保持され、セッションが終了すると破棄されます。このため、ChatGPTは、ユーザーが入力した情報を記憶したり、後で再利用したりすることはありません。
また、OpenAIは、ChatGPTの利用に関連する個人情報を保護するために、プライバシーポリシーやセキュリティプロトコルを定め、厳格なプライバシー保護措置を提供しています。
個人情報は集めないし、学習に使わないと言ってます。
よかった!
アタシの年齢バレないよ
でも、とても不思議ですね...
プライバシーポリシーでは、収集する場合があると言ってます。間違いなく書いてあるのです。
ChatGPTと、それを管理するポリシーが、真逆のことを言ってる気がしますけど...
これでは信用できない!と多くのユーザーに思われても、仕方がないです。
②個人情報の利用に関して
続いては、個人情報を利用する場合のポリシーを確認します。
2.個人情報の利用について
(中略)
集約または匿名化された情報:当社は、個人情報を集約または匿名化し、集約された情報を使用して、サービスの有効性を分析し、サービスを改善および機能を追加し、調査を実施し、その他の同様の目的で使用する場合があります。さらに、当社は随時、当社のサービスのユーザーの一般的な行動と特性を分析し、一般的なユーザー統計などの集計情報を第三者と共有したり、そのような集計情報を公開したり、そのような集計情報を一般に公開したりする場合があります。当社は、本サービス、Cookie、および本プライバシー ポリシーに記載されているその他の手段を通じて、集約された情報を収集する場合があります。匿名化された情報を匿名または匿名化された形式で維持および使用し、情報の再識別を試みることはありません。
難しいよ!
簡単に、言い変えましょう。
個人情報は使わせてもらうけど、名前は消してまとめちゃうから絶対バレないよ!
と言ってます。
ただし、ここで言ってる個人情報とは、何を指しているのか?
はっきりしません...
アカウント作成に必要な個人情報や、使用状況データ等のことなのか?
サービス内で入力する、質問文に含まれた個人情報を指しているのか?
何度読み返しても、判断できないのです。
こうしてポリシーを読むと、感じてしまいます。やはり、ちょっと怖いです。
入力テキスト内には、クレジットカード会社名や住所などはもちろん、それを類推できるような個人情報は入力しない方が無難。
企業が外部に知られたくない情報や機密なども、決して入力すべきではありません。
OpenAIの個人情報管理自体は、万全なのだと思います。アカウントに紐づく情報に関しては。そこは心配してません。
でもChatGPTとの対話サービスの中で、個人情報や企業機密が飛び出してしまう事故が、絶対に無いとは言い切れない。そう思えてなりません。
ChatGPT本人に聞いてみましょう。
《ChatGPTへの質問文》
企業の機密情報や機密データ、社内の人間しか知りえないような情報は、どのように取り扱いますか?学習や機能改善には利用するのですか?
さて答えは?
《ChatGPTの答え》
ChatGPTは、企業の機密情報や機密データ、社内の人間しか知りえないような情報を学習データとして利用することはありません。OpenAIは、ChatGPTの学習データとして使用するテキストデータを選定する際に、プライバシー保護の観点から慎重に選択しています。
OpenAIは、ChatGPTの開発にあたり、データセットに含まれる個人情報や機密情報を特定し、削除するなどの処理を行っています。また、企業や個人から提供されたテキストデータについては、明示的に機密性を確認した上で、適切な処理を行っています。
ただし、企業がChatGPTを利用する際には、セキュリティプロトコルやプライバシー保護措置を十分に考慮する必要があります。企業が自社のデータをChatGPTに提供する場合は、データの機密性を確保するための適切な措置を講じる必要があります。また、ChatGPTを利用する際には、プライバシーポリシーや利用規約を遵守することが重要です。
という答えが返ってきました。
結局、言いたいことは下記。
個人情報も企業機密も、学習には使いません!適切に削除して取り扱います。でも個人も企業も、自分たちで気を付けてね!
自己責任ってこと?
③プライバシー保護やセキュリティに関して
では最後に、規約内のプライバシーやセキュリティに関する記載内容を確認しましょう。
8.セキュリティと保護
(中略)
当社は、商業的に合理的な技術的、管理的、および組織的な措置を講じて、オンラインとオフラインの両方で個人情報を損失、誤用、および不正アクセス、開示、改ざん、または破壊から保護します。ただし、インターネットや電子メールの送信で、完全に安全でエラーのないものはありません。特に、当社との間で送受信される電子メールは安全ではない可能性があります。したがって、本サービスまたは電子メールを介して当社に送信する情報を決定する際には、特別な注意を払う必要があります。さらに、当社は、本サービスまたは第三者の Web サイトに含まれるプライバシー設定またはセキュリティ対策の回避について責任を負いません。
本サービスを介して情報送信する場合は、特別な注意を払ってください、と言ってます。
さらには、責任は負いませんと明言してるのです。
注意しよう!
とにかく個人情報(他人のものを含む)を打たないこと。企業機密を入力しないことです。すでに悪意を持った第三者が、攻撃目的で活用しているかも知れません。
そんなヤカラを野放しにしないためにも、AIとの付き合い方を真剣に考える時です。
ChatGPTを否定するつもりは全くありません。すでにイノベーションが起きているし、世界を変えると信じてさえいます。
だから気を付けましょう。せっかくの素晴らしい発明です。正しく使って、上手に付き合い、共存していくのがベスト。
アタシの年齢は...
どうでもいいです!
ChatGPTのセキュリティリスクを減らす方法
ChatGPT本人が回答している通り、情報漏洩やセキュリティのリスクを、完全に排除することは出来ません。
どうしたらいいの?
個人でも企業でも、自分の身は自分で守るのです!
《ChatGPTのセキュリティリスク軽減法》
①リスク管理の意識を持つ
・機密情報・個人情報を入力しない
・サードパーティー製ChatGPTは極力使わない
②適切なセキュリティ環境
・セキュリティソフト
・VPN接続
①リスク管理の意識を持つ
まずは、チャットボットと対話するときに、個人情報や機密情報を打たないことです。
すでにITの世界的企業Amazonが、社員に通達を出してます。現在開発中のコードや社外秘を、ChatGPTに入力してはならないと。
参照記事:Business Insider
また日本でも、情報流出を抑えるため、ソフトバンクが機密情報の入力をやめるよう社員に通知したと報じられてます。
参照記事:日本経済新聞
そして、サードパーティー製のChatGPTは、極力使わないことです。
OpenAIは、ChatGPTのAPI(アプリケーションプログラミングインタフェース-Wikipedia)を一般公開しています。つまりお金を払えば、誰でもChatGPTを使ったアプリが作れてしまうのです。
どこの誰かも分からない人間が作ったものでも、ChatGPT搭載と名乗れます。そこで起きるリスクに対して、OpenAIのプライバシーポリシーにあるように、ChatGPTは何ら責任を負いません。
信頼できる企業の作ったものなのか?は自分自身で判断するしかないのです。
何かが起きて損失を受けても、もはや完全に自己責任だと言えるでしょう。
②適切なセキュリティ環境
法人でも個人事業主でも、優れたセキュリティソフトや高性能のVPN接続は必須です。
特にリモートワークでChatGPTを使う場合は、VPN接続をおすすめします。
少なくとも悪意を持った第三者の攻撃は、限りなく不可能に近くなるからです。
高性能のVPN接続なら、ChatGPTサーバーとのデータの往来が、解読不能に暗号化されます。またログデータの追跡、個人IPアドレスや場所の特定なども回避できるのです。
万が一情報が漏洩しても、特定の企業や個人と紐づけることが、極めて難しくなります。
ただしVPN接続には、デメリットもあります。VPN接続でChatGPTを使うと、接続エラーが起きやすくなります。その原因の多くは、IPアドレスが共有化されるから。
個人のIPアドレスを隠すために、共有のIPアドレスが割り当てられることによります。
接続エラーを解消する方法は、別の国のVPNサーバーに切り替えるか、またはオプションで固定IPアドレスを取得するか、のどちらかです。
いずれにしても、無料のセキュリティソフトやVPNサービスは、むしろリスクを助長します。安心と安全は、タダで手に入るものではないのです。
長く使われている実績があって、利用者の多い信頼のおけるサービスを選びましょう!
⇒VPNなら業界最速のNord(ノード)
※30日間返金保証付き
⇒セキュリティソフトならNorton(ノートン)
※60日間返金保証付き
ChatGPTのセキュリティリスクを減らす方法のまとめ
一人のユーザーとして、ChatGPTの危険性、セキュリティリスクを考えてみました。
結論をくりかえします。
ChatGPTには情報漏洩のリスクがあります。
リスクを完全に排除することは出来ません。でも、自己防衛する方法はあります。
個人でも企業でも、自分の身は自分で守るのです!
《ChatGPTのセキュリティリスク軽減法》
①リスク管理の意識を持つ
②適切なセキュリティ環境
時代がひっくり返るような発明は、使う人が増えれば増えるほど、批判的な人も増えていきます。過去の大きなイノベーションも、初期には例外なく批判されてきました。
ウォークマンも、インターネットも、スマートフォンも、そしてChatGPTも。
前例のないことが起きるのですから、これは仕方のないことかもしれません。
ChatGPTは悪用されやすいとか、安全性に問題があるとか、いろいろ言われています。
でも僕は、AIの持つリスクが突然大きくなった、とは思いません。
すでに無数にあるクラウドサービスや、ECショッピングと何も変わりません。同じく、大きなリスクです。
生成AIが批判されるのは、単にChatGPTが、あまりにも一気に拡がったせいだと感じます。
AI技術の進歩に、リスクはあります。
それは裏を返せば、既存のリスクを一掃する可能性も秘めているのです。
サイバー犯罪に利用される可能性があるなら、サイバー犯罪を防ぐ可能性もあります。
人間の仕事を奪う可能性がある反面、人間を救う可能性もあるのです。
AIの持つリスクをできる限り減らして、便利に付き合えばよいと思います。
そして人間にしかできない価値を、探し続けましょう!