ハイ、にっしーです。
先週、伊良部大橋の近くで宿をやってる知人のオーナーさんと話してたんですよ。「AI使ってみたいんだけど、怖くて」って言ってて。「何が怖いの?」って聞いたら、「お客さんの名前とか入れたら、どっかに漏れそうで」って。
うん、めちゃくちゃよく分かる。これ、AIを使い始めようとしてる人が最初に引っかかるところだと思うんですよね。怖さをちゃんと整理しないまま「大丈夫!使って!」って言うのは無責任だし、怖いままでいるのももったいない。
今日はそこを一緒に整理していきます。
なぜみんなそれを怖いと感じるのか
AIへの不安の正体って、だいたい「入力したテキストがどこかに流れていって、学習データに使われるんじゃないか」という話です。
これ、半分は正しくて、半分は対策できます。
無料プランや一般向けの有料プランは、デフォルトでは「入力した会話をAIの改善に使う可能性がある」設定になっているサービスが多いんですよ。つまり、何も設定せずにいつも使ってるなら、入力した内容がモデル学習のサンプルとして使われているかもしれない。
ChatGPTで言うと、無料・Plusプランはデフォルトで学習ONです。ただし、設定ページから「モデルの改善のためにデータを使用」というトグルをOFFにすることで学習をオプトアウトできます。
AIも同様で、claude.aiにログインしたあと、右上のプロフィールアイコンから「Settings」を開いて、「Privacy」または「Data Privacy Controls」の中にある「Help improve AI」(AIの改善に協力する)のトグルをオフにすれば学習対象から外れます。個人向けの無料・Pro・Maxプランは、こちらをオフにしないと新しい会話がモデル改善に使われる設定になっているので、最初にここを確認しておくと安心です(AI for Work やAPI経由は別ルール)。
Geminiはデフォルトで入力データがGoogleの製品改善に使われる設定になっています。gemini.google.com にアクセスして、画面左下の「設定とヘルプ」から「アクティビティ」を開き、「Geminiアプリ アクティビティ」をオフにすれば学習対象から外れます。過去の履歴も気になるなら、「オフにしてアクティビティを削除」を選ぶと既存履歴も同時に消せます。
大事なのは、業務向けプランはどこも基本的に学習OFFが標準という点です。ChatGPT Team/Enterprise、AI Team/Enterprise、Google Workspace経由のGeminiは、デフォルトで顧客データが学習に使われない設定になっています。従業員が複数いる会社なら、業務向けプランに切り替えることがそのままリスク対策になる。
入れていい情報・入れたらまずい情報、グレーゾーン
「学習オフにすれば全部OK」じゃなくて、入力の中身自体にも線引きがあります。
入れていいもの
一般的な業務文章の下書き、うちの会社の商品情報、SNS投稿の原稿、問い合わせメールのテンプレ作成、要約や整理作業。これらは基本的に問題ないです。固有の顧客名や連絡先が含まれないものは気にしなくていいと思います。
入れたらまずいもの
クレジットカード番号やキャッシュカード情報は入力NG。個人情報保護法で「要配慮個人情報」に分類される内容(健康状態、宗教、犯罪歴など)も入れるべきじゃないです。契約書原文でも取引金額・取引相手の固有名詞が入っているものはそのまま貼り付けない方がいい。
グレーゾーン(文脈次第)
顧客名と電話番号の組み合わせ、予約情報に含まれる氏名と日程。これらは「その情報をそのまま入れるかどうか」の問題で、「田中様、0980-XX-XXXX、7月3日チェックイン」というフルセットで入力するのは避ける方が無難だと思います。「お客様、090で始まる番号、来月3日」に置き換えて入力するだけで、AIとしてはほぼ同じ結果が出せます。
宮古島の事業者あるある
これ、宮古島の事業者さんで特によくある話を正直に書きます。
宿の台帳や予約情報: お客さんの氏名・チェックイン日・部屋番号が一覧になってるやつ。「この予約一覧を見て来週のオペレーションを整理して」みたいな使い方を思いつく人は多いと思うんですけど、そのままAIに貼り付けるのはちょっと待った方がいいです。
代わりに「7名のチェックインがある週の客室オペレーション、どう組むといいか」という形で数字と状況だけを渡すと、個人情報を入れなくても同じ目的は果たせます。
観光客からの問い合わせメールの返信: お客さんの名前が入ってるメールをそのまま貼って返信文を書かせてる人、けっこういるんじゃないかな。これは「名前を●●●に置き換えて返信文を作って」という指示のひと手間を加えるだけでリスクをかなり下げられます。
ダイビングやツアーのガイド業で予約管理をAIに手伝わせたいとき、申込者の名前より「10名のグループでABC体験を予約してくれた方への確認メール」という条件だけで下書きは作れます。
要は「AIが業務のアウトプットを助けるために必要な情報」と「個人が特定できる情報」を分けて渡す習慣を持てばいいだけで、そんなに難しくないんですよ。
にっしー的に推奨する3つのルール
長々と書いてきたけど、実務で使えるルールをまとめます。
1. 個人が特定できる情報はマスキングして入れる
名前は「お客様」、電話番号は「090で始まる番号」、メールは「example@…」に置き換えてから入力する習慣をつける。AIへの入力の前に「この中に個人情報ないか?」と3秒確認するだけです。
2. 業務で使うなら業務プランに移行する
ChatGPT Team、AI Team、Google WorkspaceのGeminiは、デフォルトで学習にデータが使われない設定になっています。月の費用は1人あたり数千円程度の場合が多いですが(プランによって異なるので公式確認推奨)、これを払うことで「入力した内容が学習に使われる不安」がほぼ解消される。業務で使うなら業務プランにする、という判断は早めにしておくといいと思います。
3. 社内ルールを明文化する
「何をAIに入れていいか、入れてはいけないか」を文書として残しておく。1ページでいい。「お客様の名前・連絡先・決済情報はAIに直接入力しない」「業務用プランのアカウント以外は個人情報を含む文章に使わない」という2行があるだけで、スタッフの判断が統一されます。
ルール作りが面倒に感じるなら、まず「このメッセージをスタッフのLINEグループに送る」でも十分なスタートです。
セキュリティを怖がりすぎるのも損だと思ってて
一点だけ、補足しておきます。
「情報漏洩が怖いからAIを使わない」という選択は、リスクを避けてるように見えて、機会損失というリスクを選んでいる、とも言えるんですよね。競合の観光業者が予約メールの返信を5分で終わらせてるのに、うちでは30分かけてるとしたら、それも経営判断に関わる。
「知らなかったからルールがなかった」から「ルールを決めて使う」に移行するのが、今の段階で正しい経営判断だと思います。難しくないし、ルールを決めてしまえば毎回迷わなくて済む。
宮古島でAIを上手に使ってる事業者さんは、「怖いから使わない」じゃなくて「怖いところを把握した上で使う」になってます。そっちの方がずっといいですよ、本当に。
一回、今使ってるChatGPTやAIの設定画面を開いてみてください。「モデルの改善のためにデータを使用」の設定がどうなってるか確認するだけでいい。それだけで「怖い」の正体がだいぶクリアになります。
気になることがあれば気軽にONEstaに相談どうぞ。