【仕事の正確性UP】AIハルシネーションを避ける最強プロンプトのコツ3選

在宅で仕事したり、個人で何かを始めたりするときにAIを活用されている皆さん、こんにちは!
僕もAIを使うのが大好きなのです。
「便利だなぁ」と感じる一方で、時々「あれ、これって本当に正しい情報なのかな?」と疑問に思うような、変な答えが返ってくることがあるのをご存知ですか?
AIが事実ではない「間違った情報」を回答してくることを、専門用語で「ハルシネーション」と呼びます。
簡単に言えばAIが意図せず「嘘ついちゃう」っていう現象ですね。悪気はないんです。
このAIの「間違い」にうっかりだまされて、仕事で間違った情報を使ってしまうのは、ぜひ避けたいですよね。
でも、このプロンプト術を身につけたら、ハルシネーションに引っかかりにくくなります。
そして、『安全に使える情報・知識を得る』、その確率を上げることこそ、面倒なリサーチを減らし、仕事を正確に早く行える第一歩になります。
何をやれば確率が上がるのか、それは、僕たちがAIに送る「指示文(プロンプト)」を少し工夫することです。
この記事では、AIともっとうまく付き合って、ハルシネーションをできるだけ排し、安全に活用しながら仕事の効率を上げる、そのための「指示の出し方」を一緒に学びましょう!
Contents
この記事を読めばわかること
- AIが「間違った情報」を答える基本的な理由
- AIの間違いや嘘を減らす「3つの最強指示のコツ」
- 無料のGeminiやChatGPTで、すぐに試せる「実践的な活用術」
AIのハルシネーションは推測の産物

そもそも、なぜAIは嘘をついてしまうのでしょうか?
これは、AIが「事実」を理解しているわけではない、という仕組みに理由があります。
AIは、膨大な量の言葉や文章を読み込み、「この言葉の次には、この言葉が来る確率が高い」というのを計算して、文章を組み立てているのですね。
これについてはこちらの記事に書いてありますので読んでみてください!
例えるなら、知識は豊富だけれど、知らないことでも「それらしい言葉」を一生懸命つなげて話しているようなイメージですね。
AIさん「あなたの言葉の端々から察するに…こういうことでしょ?推測だけど」っていうことです(そういう時もある)
- 情報が足りないと
知っている言葉の中から、一番自然に見える文章を推測して作ってしまいます。
これが嘘や間違いの回答になる原因の一つです。 - 最新情報がないと
どうしても古い情報や、偏った情報をもとに答えてしまうこともあります。
ですから、AIは僕たちを困らせようとしているわけではなく、「頑張って答えを作ろうとしたら、間違えてしまった」というのが実情なんですよ。
▶ AIが出す「もっともらしい噓」にご用心!ハルシネーションの仕組みと対策を学ぼう(Business Compass)
在宅ワークで要注意!AIがしがちなハルシネーションの具体例

AIがハルシネーションしがちな情報っていうのがあります。
先ほども触れましたが、最新情報に弱いです。
最新情報に関するハルシネーション例
僕:イヤホン壊れちゃったから、ノイズキャンセリングのおすすめ商品教えて。一万円以内ね。お金ないから
AI:わかりました。
○○○ がおすすめです!バッテリー持ちもいいですよ。
なんて教えてくれたとして、商品を検索してみるとだいぶ古い商品だったなんてこともあります。
ノイズキャンセリングイヤホンのように商品数が多ければ、そこまで極端に古いものは出ないでしょう。
しかし、ニッチな商品や情報が少ない分野では、商品によっては数年前のものなんてこともあり得ます。
他にも
僕:○○会社の社長さんの名前を教えて。
AI:○○会社の社長は、「高橋一郎」さんです。
なんてタイミングによっては、一代前の社長さんを教えてくれることもあります。
質問のあいまいさやわかりにくさが原因のハルシネーション例
僕たちがAIに質問する際のプロンプト(指示文)があいまいだったり、わかりにくかったりするとAIの解釈が変わってしまい、ハルシネーションが起こる原因にもなります。
ちょっと極端ではありますが
僕:何年か前の日本の総理大臣は誰?
AI:伊藤博文です。
ホントに極端でしたね(笑)
でも、こんなあいまいな質問をした場合、AIが認識しているベースの年が2025年とは限らないですよね。
しかも、その前のAIとのやり取りで西暦や年号を扱う会話をしていたらAIが勘違いしてしまうかもしれません。
【対策の核心】GeminiやChatGPTで正確性を上げる「3つの最強指示の出し方」

それでは、ハルシネーションを起こさせないように僕たちはどうすれば良いでしょうか。
答えはシンプルで、AIに「曖昧なことは言わないように!」「このルールを守ってね!」と、しっかりと教えてあげることです。
1. AIに「君の役割」と「守るべきルール」をはっきり伝える
僕はまず、AIに「あなたは誰として、どう動くべきか」を最初に宣言させるようにしています。
役割があいまいだと、AIは迷走してしまいますからね。
プロンプトにする時のコツ | どんな指示を最初に入れるか |
---|---|
役割の決定 | 「あなたは、税理士法に詳しいフリーランスの経理担当者です。」 |
信頼性の優先 | 「回答は公的な情報(政府や自治体の発表)に基づいてください。推測は一切不要です。」 |
不明点の対応 | 「もし情報に自信が持てないときは、『確認が必要です』と正直に教えてください。 |
AIを迷わせないため「役割」「情報源」「不明時の回答」を決めておくと、AIの回答の「軸」が定まります。
僕たちが仕事で誰かに何かを依頼するときも、最初に役割を伝えるのと同じ感覚ですね。
2. 質問をするときは「型」と「根拠」をセットで求める
AIが自由気ままに文章を作るのを防ぐため、質問の時点で「こういう形式で答えて」「この情報がソース(根拠)だよね?」とチェックを求める工夫をします。
僕が使うときのコツ | どんな指示をつけ加えるか |
---|---|
出典の強制 | 「回答の根拠を末尾にリスト表示して。出典のない情報、推測は禁止です。」 |
質問の具体化 | 「回答は[メリット]と[具体的な活用法]に絞って、各3点ずつ箇条書きでまとめて。」 |
回答形式の指定 | 「回答は必ず箇条書き(リスト形式)でお願いします。長い文章形式は避けてください。」 |
根拠を求めると、AIも「適当なことは言えないな」と慎重になります。
もし出てきた情報が怪しかったら、僕たちがすぐにそのURLを見て確認できるので、とても安心です。
3. 「あいまいな質問」や「答えがない場合」の対処法を決めておく
AIは、質問されたら何とか答えようとしてしまう傾向があります。ですから、「わからないなら、わからないと言っていいですよ」と許可を与えておくのがコツです。
僕が使うときのコツ | どんな指示を入れるか |
---|---|
質問の確認 | 「質問の意図が分かりにくい場合は聞き返してください。」 |
正直さの推奨 | 「質問の答えが不明な場合は、『わかりません』と回答してください。」 |
推測の禁止 | 「私が提示したデータにない情報は、推測して補完しないでください。」 |
この一言があるだけで、AIは無理に頑張って嘘を作り出すのをやめてくれます。
僕たちも、わからないことを正直に「わからない」と伝えられる環境の方が働きやすいのと同じですよね。
ハルシネーション対策のまとめと、僕たち自身の最終チェック

AIの嘘を避ける一番の秘訣は、AIに仕事を任せきりにしないという、僕たち人間の心構えにあると思っています。
AIが作ってくれた答えは、優秀な誰かが作ってくれた下書きのようなものです。
最終的な「OK」を出すのは、僕たち自身という意識を持ちましょう。
AIの答えを受け取った後にやるおすすめ「最終確認チェックリスト」です。
チェックポイント | チェック内容 |
---|---|
情報源の検証 | AIが示したURLや資料が、信頼できる発表元かを必ず確認。 |
情報の鮮度 | 法律、統計、トレンドなど、時間で変わる情報は「いつのデータか」を必ず確認。 |
数字や論理 | AIは数字や計算が間違えることが多いので、常識と照らし合わせ、値をチェック。 |
この「指示の出し方」と「最後の確認」さえ身につけていただければ、無料のAIだって、皆さんの仕事の頼もしい「AIアシスタント」になってくれるはずです。
このプロンプトのワザを、ぜひ今日からお試しくださいね!
まとめ|仕事の正確性を高める「AIのルール設定」の力

- AIの「嘘」(ハルシネーション)は、AIが言葉を推測する仕組みによって起こる。
- ハルシネーションを防ぐには、AIに対するユーザーの工夫したプロンプト術が最強。
最後に「人間が確認する」というひと手間を加えることで、無料のAIでも、ちゃんと安全で信頼できるお仕事のサポート役になります。
このプロンプト術を、ぜひ今日からお試しください。
AIとの付き合い方が、きっと変わりますよ!
さあ、GeminiやChatGPTを開いて、今日学んだ「3つの指示」を試してみましょう。