お客様の名前と電話番号をChatGPTに入力して、追客メールを制作している
AI活用の相談の場でこういった使い方をしているという話をよく聞きます。業務の効率化という意味では理にかなっているように見えますが、実はこれ、立ち止まって考える必要があります。
AIツールは種類によって、入力されたデータの扱いが大きく異なります。個人情報保護法の観点からも、何を入力してよくて、何がリスクになるのかを把握しておくことが必要です。
ChatGPTに個人情報を入力すると何が起きるのか
まず、ツールごとのデータ利用ポリシーを確認します。
ChatGPT(無料版・Plusプラン)は、デフォルト設定では入力した内容がOpenAIのAIモデル改善に使用される場合があります。ただし、設定から「チャット履歴・トレーニングへの使用」をオフにすることで、学習への利用を無効化できます(2024年時点)。
ChatGPT TeamおよびEnterpriseプランでは、入力データはモデルのトレーニングに使用されないとOpenAIが明示しています。
| AIツール・プラン | データのトレーニング利用 | 不動産業務での目安 |
|---|---|---|
| ChatGPT 無料版 | デフォルトでオン(設定でオフ可) | 個人情報の入力は避ける |
| ChatGPT Plus(個人) | 設定でオフ可能 | 設定確認後に慎重に使用 |
| ChatGPT Team | 使用しない(OpenAI公式方針) | 社内利用として比較的安全 |
| ChatGPT Enterprise | 使用しない(契約で保証) | 法人利用として適切 |
| Claude(claude.ai 無料) | 改善目的での利用あり(設定でオフ可) | 個人情報の入力は避ける |
| Claude for Work(旧Team) | 使用しない(Anthropic公式方針) | 社内利用として比較的安全 |
| Microsoft Copilot(M365) | 組織データはトレーニングに使用しない | Microsoft 365導入済みなら活用を検討 |
⚠️ 各ツールのポリシーは変更される場合があります
上記の情報は執筆時点(2026年4月)の内容をもとにしています。AIツールのプライバシーポリシーは随時更新されるため、実際に使用する前に各サービスの公式ページで最新情報を確認してください。
個人情報保護法から見た「AIへの入力」
日本の個人情報保護法では、個人情報を第三者に提供する場合は原則として本人の同意が必要です。では、AIツールへの入力は「第三者提供」にあたるのでしょうか。
この点について明確な判断基準はまだ整備の途上にありますが、個人情報保護委員会(PPC)は、AIサービスを「委託先」として位置付ける場合、委託元(企業)と委託先(AIサービス)の間で適切な契約が結ばれていることが求められるとしています。
一般論として、以下のような整理が実務的です。
| 状況 | リスクレベル | 対応方針 |
|---|---|---|
| 名前・電話番号・住所を無料AIに入力する | 高 | 避けることを強く推奨 |
| 名前・電話番号を法人契約のAI(Team/Enterprise等)に入力する | 低〜中 | 社内のプライバシーポリシーに明記したうえで使用 |
| 「30代・戸建希望・予算4,000万円台」など個人が特定されない情報を入力する | 低 | 通常の業務内で利用可能 |
| プロンプト内に「A様(田中様)」などの氏名を含めず、状況だけを記述する | 低 | 個人を特定しない書き方に変えるだけで安全性が上がる |
実務で使える「安全な入力の書き換え方」
個人情報を除いても、AIは十分に役立ちます。氏名や連絡先を除いた状況説明だけでも、追客メールの作成には支障がありません。
📝 個人情報を入れずに使うプロンプト例
❌ 避けるべき書き方
「田中様(090-XXXX-XXXX)に内見後のフォローメールを書いて」
✅ 推奨する書き方
「30代の夫婦のお客様が先週末に3LDKを内見しました。気に入っていただけた様子でしたが、まだ返答がありません。プレッシャーを与えすぎず、気軽に相談できる雰囲気を伝える追客メールを200文字以内で作成してください。」
個人名がなくても、状況が伝わっていれば適切な文章が生成されます。AIに渡す情報は「属性・状況・条件」だけで十分です。
社内のAI利用ルールはどう作ればいいか
社員が各自でAIを使い始めている状況では、ルールなしに運用することがリスクになります。最低限、以下の項目を社内で共有・周知することをお勧めします。
- 使用を認めるAIツールの種類と、利用するプランの明示(個人プランの無料版は業務利用禁止など)
- 個人情報(氏名・連絡先・住所)をAIに入力することを禁止する旨
- 入力していいデータの範囲(属性情報・状況説明・文書の要約など)の明示
- AIの出力をそのまま外部送信することを禁止し、必ず人間が確認・修正すること
- AIツール利用に関して不明な点があれば担当者(責任者)に相談する窓口の設置
ルールを作ること自体が目的ではなく、「誰でも安心してAIを使える環境を整える」ことが本来の目的です。禁止事項ばかりを並べると現場が萎縮してAI活用が進まなくなるため、「こう使えば安全」という肯定的な表現を意識した構成にすることをお勧めします。
また、個人情報保護法は2022年の改正で強化されており、違反した場合の罰則も重くなっています。法令の最新動向については顧問弁護士や社会保険労務士に確認しながら、社内ルールを定期的にアップデートしていくことが大切です。
💡 ChatGPTのデータ利用を無効化する設定方法
ChatGPT(無料・Plusプラン)では、設定 → 「データコントロール」→「すべての人のためにモデルを改善する」をオフにすることで、入力内容がトレーニングに使用されなくなります。
ただし設定はアカウントごとのため、社員全員が設定を変更しているかどうかを確認・管理するのは難しいのが実情です。業務利用であれば、法人プランへの移行が最も確実な対応になります。
「社内AIルール」をどう作るか:最低限の4項目
AIの利用ルールを1枚のドキュメントとして整備しておくと、新入社員への説明や、万が一の際の社内確認がしやすくなります。すべてを網羅する必要はなく、まず以下の4項目から始めることを勧めます。
| 項目 | 記載すべき内容の例 |
|---|---|
| 使用を認めるツール | 「ChatGPT TeamまたはEnterpriseプランのみ業務利用可。無料版・個人Plusは業務禁止」など、プランまで明示する |
| 入力禁止情報 | 「氏名・電話番号・住所・メールアドレスなどお客様の個人情報はAIに入力しない」 |
| 出力の取り扱い | 「AIの出力をそのままお客様へ送付することを禁止。必ず担当者が確認・修正してから使用する」 |
| 違反時の報告先 | 「誤って個人情報を入力してしまった場合は、速やかに〇〇(責任者)へ報告する」 |
このルールを作るだけでなく、月1回のミーティングで「最近こんな使い方をした」「ここは注意が必要だと気づいた」などを共有する習慣を作ると、ルールが形式だけにならず現場に根づきます。
万が一、個人情報を入力してしまったら
誤って個人情報を含む内容をAIに入力してしまった場合でも、慌てずに対応することが重要です。ChatGPTでは入力した会話をアカウントの設定から削除できます(「チャット履歴の削除」機能)。ただし、削除したからといってOpenAIのサーバー側のデータが即座に消去されるわけではないため、法人プランへの切り替えを含めた運用見直しのきっかけにしてください。
「使えない」ではなく「安全に使う」を考える
「個人情報が心配だからAIは使わない」という結論は、一見安全に見えてもビジネスの競争力を失うことにつながります。
重要なのは「どのツールをどのように使えば安全か」を把握したうえで運用することです。法人向けプランを選ぶ、個人情報を含まない書き方に変える、社内ルールを明文化する。この3つを整えれば、AIを安心して業務に活用できる環境が作れます。競合他社がAIを使い始めている今、リスクだけを見て止まるより、安全な使い方を覚えて前進するほうが、会社としての競争力につながります。
講師:ナカソネ
AI活用スペシャリストのナカソネです。ビジネスパーソン向けに「現場で使えるAI活用」をサポートしながら、少しでもAIに興味を持ってもらえるよう情報を発信しています!


