隨著AI進入職場,學習提示工程可說是像Excel、PowerPoint一樣的必備職場技能。

在 AI 模型越來越強大的今天,與其說「你是怎麼問的」不如說「你怎麼設計提示」更關鍵。Google 團隊近日發表一份由 Lee Boonstra 主筆的白皮書《Prompt Engineering》,系統性地介紹如何針對大型語言模型(LLM)設計高效提示,幫助開發者與使用者從 AI 模型中獲得更準確、有條理的回應。
Prompt 工程是什麼?
提示工程是一種設計文字輸入(prompt)的技術,透過設計得宜的語句,引導 AI 模型輸出符合預期的結果。無論你是要它總結一段文字、生成程式碼、翻譯語言、分析情境或分類資料,一個好的 prompt 能讓 AI 表現出色;反之,模糊或無結構的 prompt 往往得到的是雜亂、無用的答案。
核心設定參數:溫度值、Top-K、Top-P、Token 數量
除了提示內容,模型本身的輸出設定也深深影響結果。像是:
這些參數若搭配不當,也可能出現模型進入「重複迴圈」產生冗詞的問題。
不過,這些參數設定只有進階使用本地端跑大模型的人才會用的到,對於一般我們習慣直接使用像是ChatGPT、Gemini、Grok等已經由官方幫我們調教好的這些大模型,是沒辦法調整這個參數的。
提示詞技巧實戰:從零樣本到角色扮演
提示詞(Prompt)是與大型語言模型(如 ChatGPT、PaLM 2、Gemini 等)互動的「介面語言」。根據 Google 白皮書的歸類,設計提示詞的策略可分為幾種主要類型,各自對應不同的任務與使用需求。
白皮書歸納多種常見的 prompt 設計方式,包括:
-
Zero-shot:直接給任務指令,不提供範例。
-
Few-shot:加入幾個範例,幫助模型模仿。
-
系統提示(System Prompt):定義任務目的與結構。
-
角色提示(Role Prompt):讓模型扮演特定角色,如導遊、老師。
-
上下文提示(Contextual Prompt):提供任務背景資訊。
-
Chain of Thought:要求模型逐步推理,有助於複雜問題解題。
-
Step-back Prompting:讓模型先思考相關問題,再回答原始任務。
以下進一步提供範例,方便大家理解。
1. Zero-shot Prompt(零樣本提示)
最直接的方式,單純給指令不加任何範例。
範例:
請將這段英文翻譯為繁體中文:The future of AI is exciting.
2. Few-shot Prompt(少樣本提示)
加入一到兩個範例,提高模型理解任務格式的準確度。
範例:
英文:Good morning.
中文:早安。
英文:How’s the weather today?
中文:
3. System Prompt(任務說明)
告訴模型它的角色與行為範圍。
範例:
你是一位資深 UI 設計師,請針對以下 APP 界面給出使用者體驗改善建議。
4. Role Prompt(角色扮演)
讓 AI 模型「扮演某人」幫助聚焦回答風格。
範例:
假設你是營養師,請為中午要外食的上班族推薦三種高蛋白但不油膩的便當選項。
5. Contextual Prompt(情境式提示)
給背景資訊,讓模型理解任務情境。
範例:
使用者為新手攝影師,請簡單解釋「快門速度」與「感光度」的差異。
6. Chain-of-Thought Prompt(思路鏈)
鼓勵模型一步步推理,適用於邏輯與數理問題。
範例:
問:如果1顆蘋果要15元,我買了4顆,然後用100元付款,找回多少錢?請逐步列出計算過程。
7. Step-back Prompting(反向思考)
請模型先思考要問什麼,幫助拆解複雜任務。
範例:
為了判斷「這家公司是否值得投資」,我們應該先問自己哪幾個問題?請列出三項。
提示詞七大技巧類型對照:何時用、為何用?正反範例解析!
接下來我們進一步用更多的例子,讓你理解各種提示詞技巧的使用場合
1️⃣ Zero-shot Prompt(零樣本提示)
✔ 適用簡單任務 / 快速測試
✅ 正面範例
請翻譯以下英文句子為繁體中文:It is raining today.
模型回應清晰、精確
今天正在下雨。
❌ 負面範例(沒說要翻譯、沒指定語言)
It is raining today.
🔴 模型可能誤解成續寫或評論天氣,不翻譯
Yes, it seems like a gloomy day.
💡 為什麼要加任務指令?
模型無法預測你的意圖,Zero-shot 必須指令明確、具體。
2️⃣ Few-shot Prompt(少樣本提示)
✔ 適用於格式需要模仿、語氣有要求的任務
✅ 正面範例
英文:Good night.
中文:晚安。
英文:Thank you.
中文:
模型正確理解任務,並模仿格式
謝謝你。
❌ 負面範例(無示範)
請翻譯英文:Thank you.
🔴 模型可能使用簡體、英文回答,或亂換格式
Thanks.
感謝(沒有前後對應格式)
💡 為什麼提供範例?
能穩定模型輸出格式與風格,尤其用於自動化批次處理效果最佳。
3️⃣ System Prompt(系統任務說明)
✔ 用來設定模型身份、用途與語氣範疇
✅ 正面範例
你是一位資深科技記者,請撰寫一段正式口吻的新聞導言。
模型語氣嚴謹,風格新聞化
❌ 負面範例(沒設定角色)
幫我寫一段新聞稿。
🔴 模型可能語氣過於輕鬆、像部落格
大家注意啦~新 iPhone 又來了!
💡 為什麼要設定「你是誰」?
角色定位能幫助模型調整語氣、專業度與上下文理解。
4️⃣ Role Prompt(角色扮演)
✔ 適合模擬對話、客服、教學與風格演出任務
✅ 正面範例
請扮演一位有耐心的小學數學老師,向十歲孩子解釋「分數是什麼」。
模型會用簡單語言、有例子、語氣溫和
❌ 負面範例(直接說:解釋分數)
解釋分數。
🔴 模型可能使用過於技術化的術語
分數是兩個整數 a/b 的比值...
💡 為什麼要加入角色?
能影響模型的用詞、邏輯、語調,適用於使用者導引與對話設計。
5️⃣ Contextual Prompt(提供上下文)
✔ 當任務需理解背景,避免模型「自行想像」錯誤場景
✅ 正面範例
背景:你是一名客服,面對一位對送貨延遲不滿的客戶。
任務:請撰寫一段道歉且具建議的回應。
模型能理解立場與語氣,給出具體建議
❌ 負面範例(沒給背景)
幫我寫一段道歉文字。
🔴 模型可能內容空泛、無針對性
很抱歉造成不便,希望您能見諒。
💡 為什麼要提供背景?
模型沒有記憶、不知道任務場景,上下文有助建立任務「狀態」。
6️⃣ Chain-of-Thought(思路鏈提示)
✔ 複雜問題、需要邏輯推理與數學運算時特別有效
✅ 正面範例
請一步步計算:我有 500 元,買了三樣商品,分別是 150、180 和 90 元,還剩多少?
模型會依序列出計算過程與結果
❌ 負面範例(只問最終答案)
我買了這三樣商品後還剩多少錢?
🔴 模型可能算錯,或中途跳步驟
💡 為什麼要要求分步驟?
可以讓模型「慢慢想」,降低算錯、亂猜的機率。
7️⃣ Step-back Prompting(反向拆解提示)
✔ 複雜任務前先引導模型「反問」,強化思考結構
✅ 正面範例
在回答「我該不該離職創業?」之前,請先列出應該考量的五個關鍵問題。
模型會先建立決策框架,再進行判斷
❌ 負面範例(直接問:我該不該離職?)
我該離職嗎?
🔴 模型回應過於簡化或主觀
視情況而定,創業很辛苦。
💡 為什麼要讓模型「先退一步」?
能幫助生成更全面的回應架構、避免一刀切式結論。
技巧類型 |
建議使用情境 |
常見錯誤 |
改寫建議 |
Zero-shot |
快速直白任務 |
沒說清楚 |
明確任務語句 |
Few-shot |
格式/語氣穩定 |
無範例模仿錯 |
加 1–2 組範例 |
System |
建立角色邏輯 |
模型亂發揮 |
定義任務/身份 |
Role |
對話/角色模擬 |
回應風格錯誤 |
指定角色語氣 |
Context |
多變任務背景 |
無背景失焦 |
補上下文說明 |
CoT |
數學/邏輯題目 |
一步到位錯誤 |
要求分步驟 |
Step-back |
決策/諮詢類 |
結論過快偏頗 |
先列思考面向 |
額外補充:指令強化提示詞(Instructional Prompts)
無論以上哪一類型,都可以進一步搭配「明確的結構指令」加強回應品質。
指令強化範例:
-
請以條列式列出
-
控制在 150 字以內
-
請避免重複詞
-
請先給結論,再附理由
讓 AI 成為聽得懂你說話的「助手」
提示詞不是魔法,而是一種「策略對話設計」。透過這些分類與實戰練習,你不只能更高效地引導 AI 工作,還能真正將它變成日常生活與職場上的得力助手。
加入T客邦Facebook粉絲團