ChatGPTの危険性とは?情報漏洩やセキュリティのリスクを解説

【入場無料】TD SYNNEX主催のIT展示会「Inspire 2024」10/24(木)東京国際フォーラムにて開催!

2022年11月のサービス開始以来、ChatGPTはその高度な自然言語処理能力が注目を集め、急速に活用が広まっています。一方で、ChatGPTが出力する内容の真偽、入力するプロンプト(ChatGPTに対する指示やリクエスト)を通じて情報が漏洩するなどのリスク、セキュリティ面での問題も指摘されています。そこで、この記事では、ChatGPTの危険性やリスクについて解説します。

ChatGPTとは

ChatGPTは、OpenAIが開発したテキストを用いて対話ができる対話型生成AI(人工知能)です。膨大な学習データを元に、人間が用いる自然言語を理解し、プロンプトを入力すると、まるで人間が答えたような自然な文章を生成します。

基本的な機能と仕組み

ChatGPTの基盤となっているのは大規模言語モデルと呼ばれるものです。インターネットから取得した膨大なテキストデータを事前に学習し、「過去の単語」から「次にどんな単語が来るのか」の予測を繰り返し、自然な文章を出力することを可能にしています。
この大規模言語モデルにはさまざまなモデルがあり、現在はGPT-3(2020年に公開)の改良版であるGPT-3.5を無料で利用できます。加えて、より高性能な次世代バージョンであるGPT-4が有料で公開されています。(2024年4月執筆現在)

ChatGPT利用のメリット

自然な文章を生成できるChatGPTは、日本語を含めた複数の言語に対応しており、これまで人間が行ってきた業務や作業の一部をかなりの精度で行うことができます。
そのためChatGPTを効果的に活用すれば、時間やコストの削減による業務効率化だけでなく、効率化によって生まれた時間を高品質な商品やサービス開発にあてることも可能です。

ChatGPTの主な活用法

ChatGPTは、文章の作成、添削、校正や要約、翻訳や調査、アイディア出し、議事録の作成、プログラムコードの作成など、さまざまな用途に活用することができます。対話型AIの特性を生かし、カスタマーサポートやパーソナライズドマーケティングにも活用されています。

ChatGPTの危険性

ChatGPTには、出力結果の正確性、学習データの偏りから生まれるバイアスがあること、入力した情報が漏洩するなどのリスクがあることも理解する必要があります。

ChatGPT活用で注意しておきたい4つのリスク

ChatGPTには、次に示す4つのリスクがあり、それを理解した上で活用することが必要です。

1.情報漏洩のリスク

ChatGPTは、ユーザーが入力した情報を学習データとして活用しています。この学習により、自然な会話や適切に回答する能力を向上させています。
しかし、入力情報が学習データに利用されるということは、個人情報や機密情報を入力した場合、それが学習データとして利用され、別の利用者の依頼に対して、個人情報や機密情報を含めた回答がなされる危険性が生じます。

2.誤った情報を発信するリスク

ChatGPTは、インターネット上に存在する大量・多様なデータ・コンテンツを学習し、そこから自然な文章を作成、回答をすることを可能にしました。しかし、ChatGPTはユーザーのプロンプトに対して確率的・統計的に見て「もっとも確からしい」回答をしているにすぎないため、もっともらしい嘘(事実とは異なる内容)を出力してしまうことがあります。このような問題を「ハルシネーション」と呼びます。また、学習したデータそのものに誤りがあれば、誤った回答が出力されたり、学習データの取得期間によって、最新情報が反映されなかったりすることがあります。そのためChatGPTの回答を鵜吞みにしてしまうと、誤った情報を発信してしまうリスクがあります。

3.著作権侵害のリスク

AIの著作権問題は、「AI開発・学習段階」と「生成・利用段階」と分けて考えるというのが2023年6月現在の日本国内における考え方です。
ChatGPTを利用してテキストや画像等を生成したり、生成物の複製を公開、販売したりする行為は後者「生成・利用段階」にあたりますが、AIによって生成したものが著作権侵害にあたるかどうかは、AIを利用しないで画像を作ったときと同様に、「類似性」及び「依拠性」によって判断されます。
つまり、基本的には、現行の著作権法で著作権侵害にあたるものは、それがAIによるものであったとしても、著作権侵害となるリスクがあるということです。
参照:文化庁 令和5年度著作権セミナー「AIと著作権」

4.犯罪行為への悪用のリスク

ChatGPTの活用法でご紹介した通り、ChatGPTを使ってプログラムコードを生成することができます。
マルウェアのコード生成や詐欺メールの文面作成を依頼しても、ChatGPTは、「悪意のある行為を推奨することはできません」と拒否しますが、マルウェアを構成する部分的なコードであれば、ChatGPTにマルウェアのコードであることを気づかれずに生成することが可能です。

ChatGPTが悪用される具体例

ChatGPTの最先端技術を逆手にとったサイバー犯罪などの脅威も存在します。ChatGPTは、翻訳や文章、プログラムコードを自然な言語として生成することが可能です。そのため虚偽情報の作成や「なりすまし」を容易にし、犯罪などに悪用される恐れがあります。

スパムメールやフィッシング詐欺メールの生成

スパムメールとは、いわゆる迷惑メールのことです。フィッシング詐欺メールは、迷惑メールの中でも、金銭などを搾取することを目的としたメールを指します。
ChatGPTは、文章を生成する能力が高いため、自然な日本語でフィッシング詐欺メールを生成することも可能です。
こうした悪意のあるメールによって、個人や企業が大変な脅威にさらされています。

悪意のあるチャットボットの開発、偽サイトなどの作成

ChatGPTを真似たアプリ、ChatGPTに見せかけた偽サイトが実際にたくさん生まれています。
ChatGPTになりすました、偽アプリをダウンロードすれば個人情報が流出する危険性が高くなります。
またChatGPTの偽サイトからフィッシング詐欺やカード情報の窃盗、マルウェアなどの悪意のあるウイルスに感染するリスクが高まっています。

悪質なフェイクニュース記事や偽造文書の生成

自然な文章を作成できるChatGPTは、悪質なフェイクニュースや、偽造文書を生成することも可能です。
それによってデマを拡散したり、世論形成に影響を及ぼしたりすることも懸念されます。

ChatGPTのリスク対策

個人情報や機密情報を入力しない

個人情報、契約関係に関する情報など高い機密性がある情報や未公開情報を入力すると、情報漏洩につながるリスクがあります。ChatGPTを活用する際は、個人情報や機密情報を入力しないようにしましょう。

学習(トレーニング)機能をオフにする

ChatGPTは、入力されたチャットデータを学習データとして利用することにより、自然な言語に近い形で回答するという能力を向上させています。「機密性の高い情報を誤って入力してしまった」などの情報流出に備えて、この学習(トレーニング)機能をオフにすることも重要です。
この設定をすると、チャット履歴を見ることができなくなってしまいますが、入力したチャット内容やデータがOpenAIの言語モデルの学習として使用されなくなります。

使用ルールとペナルティおよび管理者を決めて社内で共有する

上述の「個人情報や機密情報を入力しない」「学習(トレーニング)機能をオフにする」といった対策は、いずれも、利用者個人がリスクを理解し、行う対策です。
組織でChatGPTを利用するためには、組織としての利用方針やルールおよびペナルティ、それを管理する管理責任者を定めて、運用することが大切です。

生成したものの正確性および違反行為につながる内容になっていないか確認する

ChatGPTが出力する内容は、最新の情報を根拠にしていなかったり、事実に基づかない情報を生成してしまったりなど、その内容が正確とは限りません。ChatGPTの回答の根拠や裏付けを必ず確認しましょう。
また、ChatGPTにより生成されたデータが既存の著作物の著作権を侵害していないかも調べるようにしてください。

企業でChatGPTを利用するならAzure OpenAI Serviceがおすすめ

業務効率化の推進のために企業においてChatGPTを活用する場合、より安全な利用環境の基盤を整備することが大切です。
Microsoftの「Azure OpenAI Service」は、Microsoft Azure( クラウドプラットフォーム )上で生成AIを安全に活用することができる法人向けサービスです。

Azure OpenAI Serviceの高いセキュリティ

閉域接続のサポート

Azure OpenAI Serviceは、一般のインターネット接続に加えて、セキュリティ面で優れた閉域接続をサポートしています。閉域接続を利用することで機密情報やデータの漏洩リスクを低減します。

インプット情報が学習データとして利用されない

Azure OpenAI Serviceにおいて、入力データがOpenAIに送信されることはありません。またAzure OpenAI Serviceは利用者のデータをOpenAI モデルを改善するためにデータを活用することはありません。

悪用や有害なコンテンツの生成の防止

Azure OpenAI Serviceにはコンテンツフィルタリングと不正使用監視機能が含まれています。コンテンツフィルターは入力プロンプトと (出力される) 入力候補の両方に適用され、有害な可能性があるコンテンツを検出します。

Azure OpenAI Serviceの詳細はこちらもご覧ください。

リスクを理解し、ChatGPTを活用する

ChatGPTは、文章作成や要約、アイディア出しなどさまざまな業務の効率化を推進するツールとして活用が期待されていますが、情報漏洩や著作権侵害、誤情報の発信などの危険性・リスクへの対応が必要です。
特に業務でChatGPTを活用する場合は、情報漏洩のリスクに備えてChatGPTの学習(トレーニング)機能のオフ設定、社内ルールの設定、「AzureOpenAI Service」を利用するなど、より安全な利用環境を用意することが大切です。

本記事を参考に、ChatGPTやAzure OpenAIの活用にお役立てください。

[筆者プロフィール]
河瀬季/かわせ・とき
モノリス法律事務所 代表弁護士
小3でプログラミングを始め、19歳よりIT事業を開始。
ベンチャー経営を経て、東京大学法科大学院に入学し、弁護士に。
モノリス法律事務所を設立し、ITへの知見を活かして、IT・ベンチャー企業を中心に累計1,075社をクライアントとしている。

製品・サービスについてのお問合せ

情報収集中の方へ

導入事例やソリューションをまとめた資料をご提供しております。

資料ダウンロード
導入をご検討中の方へ

折り返し詳細のご案内を差し上げます。お問い合わせお待ちしております。

お問い合わせ