1. ホーム
  2. 経営者向け
  3. AIの情報漏洩・誤情報リスク、ざっくり対策。経営者が今日決める3つのルール

お疲れさまです、にっしーです。今日、窓から伊良部大橋が見えるカフェでコーヒー飲んでたら、隣のテーブルで宿のオーナーさんが「AI怖くて使えない」って話してて。「なんか情報漏れそうで」「嘘つくんでしょ」「著作権どうなってんの」って、3連発でぼやいてた。うん、わかる。わかるんですよ。

正直に言うと、僕も最初はそういう怖さがありました。で、失敗もしてます。

僕がやらかした話から始めます

AIのリスクって、「なんとなく怖い」のままだと踏み出せないし、「大丈夫!」って無責任に言うのも違う。だから僕のやらかし話から入るのが一番正直かなと思って。

合同会社ONEstaが合計200万近くをAIに投資(半分くらいは正直溶かした)してきた、その中で一番冷や汗が出た話です。

あれはClaudeに丸投げして予約確認メールを作ったとき。「ちゃんと書いてくれてるだろう」とノーチェックでそのまま送ったら、文中に全然関係ないホテルの名前が入ってて。AIが「それっぽい名前」を勝手に埋めてたんですよ。お客さんはすぐ気づいて「これ別のホテルですよ?」って連絡くれて、謝りメール送って。

笑って済んだけど、これが料金や日程の間違いだったらと思うとゾッとする。

この経験から「AIは8割に任せて、2割は人の目で見る」という感覚が完全に固まりました。これ、リスク管理の話そのものなんですよ。

気をつけることがいくつかあって

AIを使う上で頭の片隅に置いとくといいことを、まず整理します。全部一気にやる必要はないし、順番に対応していけばいい。「こういうことがある」と知ってるだけで、実際のトラブルをだいぶ防げる気がしてます。

情報漏洩

よく心配される話がこれです。「顧客の名前をAIに入力したらどうなるの」「契約書の中身を分析させて大丈夫?」って。

ChatGPTもClaudeも、無料プランや一般向けの有料プランは、デフォルトでは「入力した会話を学習に使う可能性がある」という設定になってることが多いです(プランや設定によって異なる)。ざっくり言うと、「入力した内容がモデルの改善に使われるかも」ということ。

対策として一番シンプルなのは、個人情報や社外秘の数字をそもそも入れないこと。「田中様が〇月〇日に来店」じゃなくて「お客様がこの日来店」に書き換えて入力する。それだけで大半のリスクは下がる気がしてます。

もう一段やりたいなら、ChatGPT PlusやClaude Proなどの有料プランで「学習オフ」設定が使えるものを選ぶか、企業向けの「Team/Business」プランを使う方法があります。業務用のプランは基本的に学習無効が標準になってることが多い。

誤情報(ハルシネーション)

さっきのホテル名の話がまさにこれです。AIが「もっともらしい嘘をつく」現象で、英語で「ハルシネーション(幻覚)」と呼ばれてます。

怖いのは「自信満々に間違えること」で。「ちょっと自信なくて…」じゃなく、「〇〇ホテル」「〇〇円」「〇〇日」とスラッと書いてくる。見た目は正しそうなのに、事実が違う。

防ぎ方は単純で、AIが出した内容を人が最終確認するだけです。宿の名前、料金、日程、電話番号、固有名詞が入ってる部分は目で追う。難しい専門知識は専門家に確認する。これをルール化するだけで、ほぼ防げると思ってます。

「AIを使い始めた頃は全部チェックして、信頼できることが増えてきたら確認の割合を絞っていく」という感じでやると、慣れが出てきた頃に油断しないでいられるかな、と。

著作権

画像生成AIを使う人が特に気にするところです。

文章生成AIについては、出力されたテキストを商用利用することは基本的にOKとしているサービスが多いです。ただプラン規約は変わることがあるので、「商用利用OK」を最新の規約で確認するのが安全だと思います。

画像生成AIは少し複雑で、学習元の著作物がどう扱われているかが各サービスで違います。Adobeが出している「Adobe Firefly」は商用利用をクリアしていると明言しているサービスで、ビジネス用途で使うなら選びやすい一つかな、と個人的には思ってます。他のサービスは「個人利用OK、商用は要確認」が多い印象なので、お仕事で使う前にそのサービスの規約を読んでおくと安心です。

依存しすぎること

リスクの話を続けると、意外と見落とされがちなのがこれです。

AIが便利すぎて「AIなしで仕事できなくなった」状態になること。チームでAIを使い始めると、スタッフが文章を組み立てる力が下がっていく、というのは実際に起きることだと思います。

対策は「8割AI、2割は人手で」という感覚を、チームに最初から共有しておくことかなと。下書きを作るのはAI、最終的な判断と確認は人間、という役割分担を最初にはっきりさせておくと、依存状態になりにくい気がしてます。

業種ごとに、ここだけ気をつけて

宮古島の事業者向けに、業種別で「地雷になりやすいポイント」を書いておきます。

宿・観光業

顧客名・予約日・部屋番号・連絡先は個人情報そのものなので、AIに入力するときは「〇月〇日に来る田中様の返信を〜」じゃなく「〇月〇日に来るお客様への返信を〜」で十分です。住所も同じ。予約確認書をそのままコピペして貼るのは避けた方がいい気がしてます。

飲食業

メニューの説明文や口コミ返信にAIを使う分には問題ないんですが、アレルギー情報に関わる文章は要注意です。「〇〇を使っています/使っていません」の誤記は、お客さんの健康に関わることもある。その部分は必ず人がチェックする習慣をつけておいてほしいです。

マッサージ・整体・美容関係

「〇〇に効く」「〇〇が改善する」みたいな効能・効果の表現は、法律(薬機法・景品表示法)上グレーゾーンになることがあります。AIはこういう規制を考慮せずに書いてくることがあるので、そういう表現が入っていないかを確認する目が必要かなと。詳細は専門家に確認するのが確実だと思います。

小売・EC

在庫数の誤記や「〇月〇日まで在庫あり」みたいな表現は、お客さんへの約束になってしまうことがある。AIが「ありそうな情報」を埋めてくることもあるので、数字や日程が入ってる文章は特に目を通してから使ってほしいです。

にっしー的にやってること、いくつか

じゃあ実際どう動いてるかを書きます。「対策5箇条です!」みたいなきれいなまとめ方は好きじゃないので、うちでやってることをそのままメモ書きで。

まずやってるのが、「顧客情報は入れない」のルール化。ONEstaのスタッフには最初に「名前・連絡先・住所はAIに入れない」を共有してます。ここがブレると全部崩れるので、一番シンプルで大事なルールです。

あと、出力は人がチェックすること。「さっきの僕のホテル名やらかし」みたいなことを防ぐために、固有名詞・数字・日程は目で追います。AIが出したものをそのまま送る/公開するのは、チェックなしのはんこを押すようなもんなので。

学習オフの設定もやっています。Claude Proで「チャット履歴と学習をオフ」にする設定があるので、一応オンにしてます。完全にリスクがゼロになるわけじゃないけど、やっとくと落ち着く。

AIプロバイダーの規約はたまに読んでます。ChatGPTもClaudeもGeminiも、プランごとにデータの取扱いが違うんですよ。「商用利用OK」「学習に使われない」が変わることがあるので、年1回くらいは確認するといいかなと。

スタッフへの共有は、「何を入れていいか/ダメか」の2〜3行のメモをSlackに置いてます。ルールブックを作るほどじゃなくていいんですが、チームで使うなら「みんなが同じ理解をしてる」状態を作っておくと、どこかで誰かがやらかすのを防ぎやすくなる気がしてます。

リスクがあっても、使った方がいいと思うんですよね

ちょっと正直に書くと、「リスクがあるから使わない」って選択が一番損をするケースが多いと思ってます。

車もバイクも包丁も、使い方を知って使えば便利で、知らないまま使えばケガをする。AIも同じ感覚かな、と。全部を知る必要はなくて、「こういうことがある」という感覚で動いてれば、大きな失敗は防げます。

ONEstaも最初は失敗だらけだったし、今でも「あ、これ気をつけなきゃ」って気づくことがある。それでも月数千円のAIで、作業時間が大きく変わってる実感があるんですよね。リスク対策と実践は、どちらかを選ぶものじゃなくて、同時に育てていくものだと思ってます。

リスクの話をもっと詳しく知りたい場合は、顧客情報をAIに入れていい基準をまとめた「顧客情報をAIに入れていいのか、判断基準」も読んでみてほしいです。「任せる業務と人間がやる業務の線引き」は「AIに任せる業務/任せない業務の線引き」にまとめてあります。中小企業の失敗事例から学ぶなら「中小企業のAI失敗事例と教訓」も参考になると思います。

怖くないし、難しくないし、「まず使ってみる」のが一番のリスク管理だと思ってます。一緒にやっていきましょう。

「うちの業種だとどうなる?」「ここの対策どうやればいい?」って気になることがあれば、ONEstaに気軽に相談してください。

ONEstaへのお問い合わせはこちら