104學習

104人力銀行 / 展揚管理顧問有限公司 / 業務經理 北區業務(基隆 台北 新北 桃園) / 符合度分析
業務經理 北區業務(基隆 台北 新北 桃園) 展揚管理顧問有限公司
履歷符合度:
登入計算

性格適合度:

職缺要求技能

未具備

執行日常招募業務

測驗

人工智慧

測驗

企業經營

中文

測驗

B2B

ChatGPT

測驗

LLM

Prompt

測驗
已具備

Python

測驗

數據分析

測驗

Github

測驗

PostgreSQL

測驗

tensorflow

測驗

推廣

PyTorch

測驗
有已符合的經歷忘了填寫嗎?記得定期 更新履歷

學習推薦

【104職場力】

05/01 17:12

0 0 161 0
104學習

產品

04/30 16:36

AI 提示詞又變了?GPT-5.5 告訴上班族:別再只寫步驟,改寫「交付標準」
你是不是也有這種經驗:明明把 AI 指令寫得很長,結果產出的內容卻還是「看起來完整、實際上不好用」?
例如請 AI 寫企劃案,它照著步驟列出市場分析、目標客群、痛點、解法與推廣方式,但讀完仍覺得像範本;請 AI 整理資料,它能列表、摘要、下結論,卻不一定知道哪些資訊需要查證、哪些內容不能說得太滿。
問題可能不是你不會下指令,而是你的指令還停留在「要求 AI 照流程做事」的階段。
OpenAI 在 GPT-5.5 的官方提示詞指南中提到,新版模型更適合「更短、結果導向」的提示詞,而不是過度詳細、流程導向的舊式 prompt。換句話說,未來跟 AI 協作,不只是告訴它第一步、第二步要做什麼,而是要讓它知道:最後什麼樣的成果才算合格。
從「照步驟做」到「交出好成果」
過去很多人學提示詞,常見方法是把任務拆成一長串步驟:先分析背景,再列出問題,再產出架構,再補充範例,最後整理結論。
這種寫法在早期模型中很有幫助,因為 AI 需要更明確的操作路徑,才比較不會偏題。但 GPT-5.5 的新方向是:模型已經更能根據清楚目標自行選擇有效路徑,因此提示詞不一定要寫成冗長 SOP。
對上班族來說,這代表一個重要轉變:不要只規定 AI 怎麼做,而要定義什麼叫做好。
例如,不只是說「幫我寫一篇文章」,而是說清楚文章要給誰看、要解決什麼問題、哪些數據不能編造、哪些資訊需要來源、最後字數與語氣如何控制。
不只是說「幫我做競品分析」,而是定義比較維度、資料來源、決策用途,以及哪些結論不能超出證據範圍。
不只是說「幫我整理會議紀錄」,而是要求它分出決議事項、待辦負責人、未解問題與下次會議前需要補齊的資訊。
GPT-5.4 重規則,GPT-5.5 重結果
如果簡單比較 GPT-5.4 和 GPT-5.5 的提示詞思維,可以這樣理解:
GPT-5.4 比較強調把流程、格式、工具規則與完成條件寫清楚,適合長任務、多步驟、工具使用與明確輸出格式的工作流。
GPT-5.5 則更進一步,提醒使用者不要直接把舊 prompt 全部搬過來,而是要重新思考:這個任務真正需要的交付標準是什麼?哪些規則是必要的?哪些流程其實可以交給模型自行判斷?
換句話說,GPT-5.4 像是要求你寫好工作流程;GPT-5.5 則更像是在提醒你寫好驗收標準。
對職場工作者來說,這代表一件事:提示詞不只是操作說明,而是一份交付規格書。
好的 AI 指令,要先定義「成功長什麼樣子」
很多人用 AI 失敗,不是因為 AI 不夠聰明,而是因為需求太模糊。
例如:
「幫我寫一篇 LinkedIn 貼文」
這句話可以產生內容,但結果很難穩定。因為 AI 不知道你要的是個人觀點、產業觀察、品牌經營、徵才宣傳,還是導流文章。
比較好的寫法是:
「請幫我寫一篇 LinkedIn 貼文,目標讀者是 30–45 歲的職場工作者,主題是 AI 如何改變工作習慣。內容要有明確觀點,避免誇大 AI 取代人類,語氣專業但不生硬,長度控制在 500 字內,最後帶出一個提問,鼓勵留言討論。」
這種寫法沒有規定 AI 每一步怎麼做,卻清楚定義了成果標準。這正是 GPT-5.5 更適合的提示詞方向。
少用「永遠」「絕對」,多用判斷規則
許多提示詞會大量使用「永遠」「絕不」「必須」「只能」這類絕對指令。但在實際工作中,任務往往不是非黑即白,而是需要依情境判斷。
例如,不要只寫:
「你必須每次都搜尋資料。」
可以改成:
「當內容涉及最新政策、數據、價格、人物說法或產品功能時,請查證來源;若是一般概念解釋,可以直接回答。」
不要只寫:
「你絕對不能問我問題。」
可以改成:
「如果缺少資訊但仍能合理產出初稿,請先基於假設完成,並在文末列出需要我補充的資訊;只有在缺少關鍵資料會導致結果無法使用時,才向我提問。」
這樣的寫法更符合真實工作情境,也能讓 AI 在效率與正確性之間做出更好的判斷。
可信度不只靠「請附來源」
很多人為了避免 AI 幻覺,會在指令最後加一句:「請附上資料來源。」這有幫助,但還不夠。
更好的做法,是說清楚哪些內容需要來源、什麼情況可以停止查證、什麼情況必須繼續找資料。
例如:
「請先做一次廣泛搜尋,若前幾個可信來源已足以支持核心答案,就停止搜尋並回答。只有在缺少必要數字、日期、人物說法、官方文件或比較資料時,才繼續搜尋。」
這可以避免兩種問題:一種是 AI 沒查證就回答;另一種是 AI 查太多,把不相關資料也塞進內容,讓文章失焦。
對內容工作者、行銷企劃、研究人員來說,這是很實用的 AI 協作方式。
語氣之外,也要定義「協作方式」
如果你要用 AI 做客服、學習助理、職涯顧問或內部知識助理,不能只要求「語氣溫暖」或「口吻專業」。
真正重要的是:它要怎麼跟使用者合作?
例如一個學習助理,不只要親切鼓勵,還要知道當使用者資料不足時,是要先推薦熱門課程,還是先引導補履歷;當使用者焦慮時,是要先安撫情緒,還是直接提供具體下一步;當使用者問得很模糊時,是要立刻追問,還是先給一版可執行建議。
真正有用的 AI 助理,不是只有口氣像人,而是工作方式符合使用者情境。
上班族可直接套用的新版 AI 指令模板
以下是一個符合 GPT-5.5 思維的通用指令模板,也適合用在 ChatGPT、Claude、Gemini 等 AI 工具:
請完成以下任務:
【填入你的任務】
目標:
【說明你最後想得到什麼成果】
使用情境:
【說明這份內容要給誰看、用在哪裡、要幫助什麼決策】
成功標準:
- 必須回答核心問題
- 內容要能直接用於實際工作
- 重要數字、人物說法、政策、產品功能或引用需有可驗證來源
- 若資料不足,請標註不確定,不要自行編造
- 若能基於合理假設完成,請先完成初稿,並列出假設條件
限制條件:
- 不要使用空泛形容詞或過度行銷語
- 不要為了完整而加入無關背景
- 不要編造不存在的案例、研究、公司說法或數據
輸出格式:
【例如:表格/文章/簡報大綱/主管摘要/Email 草稿】
【指定字數、語氣、段落結構】
停止條件:
當核心問題已回答,且重要事實已有足夠依據時,請停止補充,直接產出結果。
這份模板的重點不是把 prompt 變長,而是把「交付標準」說清楚。
AI 指令能力,其實是工作定義能力
AI 工具越進步,越不代表人類只要丟一句話就好。相反地,它更考驗我們能不能把問題說清楚、把成果定義清楚、把限制條件交代清楚。
未來真正會用 AI 的人,不一定是最會寫華麗提示詞的人,而是最知道「我要什麼成果、什麼不能出錯、什麼叫做完成」的人。
GPT-5.5 的提示詞指南,給職場工作者一個很實用的提醒:不要只把 AI 當成照指令工作的助理,而要把它當成需要明確交付標準的協作者。
當你的指令從「請照這些步驟做」升級成「請達成這個結果,並符合這些標準」,AI 才更有機會產出真正能用、可信、可交付的工作成果。
看更多
0 0 777 0
【104職場力】

04/30 15:32

0 0 85 0
104學習

產品

04/30 13:34

別再照單全收 AI 答案!提高可信度的 3 個方法,附指令模板
AI 已經成為許多上班族的日常工具。寫報告、整理資料、做簡報、擬文案、查趨勢,甚至協助主管做初步判斷,很多工作過去要花半天,現在幾分鐘就能先產出一版。
但用得越頻繁,大家也越容易遇到一個問題:AI 回答得很順、很完整,卻不一定是對的。
它可能把不確定的事說得斬釘截鐵,也可能編出不存在的數據、查不到的報告,甚至把人物說法、研究結果講得像真的一樣。這就是常被提到的「AI 幻覺」。
例如有人請 AI 協助整理競品分析,AI 回答:「根據 IDC 2023 報告,該市場年成長率達 34%。」看起來很專業,數字也很精準。但真正回到 IDC 官網查證,卻找不到這份報告。那個 34%,可能只是 AI 根據語境推測出來的答案,不是真實引用。
對職場工作者來說,這不是小錯。一個錯誤數字,可能讓提案失去可信度;一段查不到來源的引用,可能影響文章品質;如果出現在新聞稿、對外簡報或主管決策資料裡,甚至可能變成公關風險。
會不會用 AI,已經不只是「能不能問出答案」。更重要的是,你能不能讓 AI 產出的內容經得起檢查。
為什麼 AI 看起來很懂,卻還是會答錯?
很多人誤會 AI 是「查資料工具」,但更精準地說,它比較像是「語言整理工具」。
AI 擅長根據大量文字資料,整理出通順、有邏輯、看起來合理的回答。它很會歸納、改寫、分類,也很會把零散資訊整理成一段像樣的說法。
但「說得合理」和「確實正確」是兩件事。
尤其當問題涉及最新數據、人物言論、政策法規、企業動態、市場趨勢時,如果你沒有明確要求它查證來源,AI 很可能會根據既有語境推測答案。這也是為什麼有些回答讀起來非常完整,實際查證卻找不到根據。
所以,使用 AI 時不能只問:「請幫我整理這份資料。」
更好的問法是:「請幫我整理這份資料,並標示哪些是已確認事實、哪些是合理推論;所有數字與引用請附上可查證來源。」
前者只要求 AI 給答案,後者則要求 AI 說清楚答案從哪裡來、可信度有多高、哪些地方還需要人判斷。
想讓 AI 回答更可信,先做到這三件事
一、不確定的地方,不要讓 AI 硬答
真實職場中,很多問題本來就沒有單一標準答案。資料可能過時,市場可能正在變化,不同媒體的說法也可能不一致。如果這時候 AI 為了完成回答而硬湊一個結論,反而會讓使用者誤判。
因此,在指令裡最好先加上一條規則:
「如果你對答案沒有把握,請直接說明不確定的原因,不要自行補齊缺漏資訊。」
這句話很重要。它不是要 AI 變得保守,而是要它把「不確定」說出來。對職場工作來說,知道哪些地方不確定,本身就是重要資訊。
主管在看報告時,不只需要結論,也需要知道風險在哪裡。PM 在做需求規劃時,不只需要市場趨勢,也需要知道哪些假設還沒被驗證。行銷人在寫文章時,不只需要一段漂亮的說法,更需要確認這段話能不能公開引用。
AI 可以協助你加速產出,但不能替你承擔查證責任。
二、凡是數字、引用、人物說法,都要回到來源
職場內容最容易出問題的,往往不是明顯錯誤,而是那些「看起來很專業」的句子。
例如:「根據研究顯示……」、「某某 CEO 曾表示……」、「有 80% 的企業已經導入 AI……」。這些話如果沒有來源,就只是風險。
尤其在報告、提案、新聞稿、專欄文章中,數字與引用會直接影響內容可信度。讀者不一定會逐字檢查,但只要有一個關鍵數字被發現查不到,整篇內容的專業感就會被打折。
因此,只要內容涉及數字統計、研究結果、人物言論、新聞事件、政策法規、企業公告、市場排名,都應該要求 AI 提供可驗證來源。
來源也要分層級。優先參考官方資料、原始研究報告、政府或學術機構、企業公告、具公信力媒體。若只能找到二手整理文,就要明確標註,不要把它包裝成一手資料。
這個習慣看起來麻煩,但實際上能大幅降低內容出錯機率。AI 可以先幫你整理方向,但最後要不要放進簡報、文章或提案裡,仍然要看來源是否可靠。
三、把「事實、推論、建議」分開看
AI 很容易把推論寫得像事實。
例如看到某公司推出 AI 課程,它可能接著寫出:「企業培訓市場正全面轉向 AI。」這句話聽起來合理,也可能符合趨勢,但它仍然是推論,不是已經被證實的事實。
這也是許多 AI 內容讓人覺得「像 AI 寫的」原因之一:它常常太快下結論,太少交代中間判斷。
比較好的做法,是要求 AI 把回答分成三類:
「已確認事實」:有來源支持,可以被查證的內容。
「合理推論」:根據資料做出的判斷,但仍需要進一步確認。
「建議做法」:根據目前情境提出的行動方案。
這種寫法特別適合用在職場分析,例如競品研究、市場趨勢整理、專案規劃、內容選題、主管簡報。
它能讓讀者清楚知道:哪些資訊可以直接採用,哪些只是目前看起來合理,哪些則需要後續查證。
有些人也會要求 AI 在回答最後加上「信心指數」,例如 1 到 10 分。這可以作為輔助判斷,但要記得,AI 的自評分數不等於事實正確。信心分數只能提醒你「這段內容可能穩不穩」,不能取代真正的來源查證。
不同職位,可以怎麼用?
對行銷人來說,AI 可以幫忙加速文章架構、標題發想、社群文案和資料整理。但在發布前,最好請 AI 另外列出「待查證清單」,特別是數字、研究、引用、產業趨勢等內容。
對 PM 來說,AI 很適合整理競品功能、市場資料和使用者回饋。不過在寫 PRD 或做產品決策時,要特別區分「使用者已明確提出的需求」和「AI 根據資料推測出的可能需求」。
對 HR 來說,AI 可以協助整理職能趨勢、薪資資料、人才市場變化。但薪資、職缺、產業需求都具有高度時效性,也會因地區和職務不同而有很大差異,因此來源與時間點更需要標清楚。
對主管來說,AI 適合用來做第一版資料整理,幫助快速掌握議題輪廓。但真正要做決策前,仍應請團隊回頭確認關鍵數字、資料來源和假設條件。
簡單說,AI 適合當「第一版整理者」,不適合直接當「最後裁判」。
它能幫你節省時間,但不能取代人的判斷。真正有價值的工作,不是把 AI 的答案直接貼上,而是懂得檢查、追問、修正,最後做出更可靠的判斷。
可直接複製的高可信度 AI 指令模板
下次需要 AI 協助整理資料、寫報告、查趨勢或做分析時,可以直接使用下面這段指令:
============================================================
請用「高可信度回答模式」回應。
1. 如果你對答案沒有把握,請明確說明不確定的原因,例如資料可能過時、來源不足、不同來源說法不一致,或問題定義不清。不要自行編造或補齊缺漏資訊。
2. 涉及事實、數據、人物言論、研究結果、法規政策、新聞事件、產品資訊時,請提供可驗證來源。
3. 來源請優先使用官方資料、原始研究或報告、政府或學術機構、企業公告、具公信力媒體。若只能找到二手來源,請明確標註。
4. 所有數字、統計、引用語、人物說法都必須附來源。若沒有可靠來源,請標註「尚未找到可驗證來源」。
5. 回答請分成「已確認事實」、「合理推論」、「建議做法」三類,不要把推論寫成事實。
6. 如果答案中有低可信度內容,請另列「需要進一步查證的部分」。
7. 回答最後請提供信心指數 1 到 10 分;若低於 7 分,請說明主要風險與不確定點。
============================================================
會查證,才是真的會用 AI
AI 讓工作變快,但變快不代表變準。
真正成熟的 AI 使用方式,不是期待它每次都給出完美答案,而是讓它把資訊整理得更清楚,同時把不確定的地方攤開來。
下次使用 AI 前,不妨先把高可信度指令貼上去。多花幾分鐘設定規則,可能就能避免一份錯誤報告、一段失準引用,甚至一場不必要的公關危機。
看更多
0 0 254 0
林尚能

執行長

04/29 11:57

最近接了三個內訓提案,三個產業差很大,但卡關的地方一模一樣
這個月我同時在規劃三個企業內訓案:
一個是中型營造集團,想推全員 AI 能力。 一個是金控集團,要做企業架構策略規劃。 一個是大學的高教深耕計畫,要為教授開 AI × SDGs 增能講座。
三個產業差很大,文化也完全不同。但跟三邊高層/承辦人聊完之後,我發現他們真正卡關的地方,其實是同一件事——他們不是不想學新東西,是不知道從哪裡開始。
▎卡關一:工具與資訊太多,不知道哪個適合自己
營造業煩惱的是:規章制度、施工標準、圖說、品管表、合約⋯⋯資料散落各處,AI 想用,但連資料在哪都不知道。
大學教授煩惱的是:ChatGPT、Claude、Gemini、Perplexity、NotebookLM⋯⋯每個工具各有所長,理工、人文、社科使用情境天差地別,沒人有時間自己摸索全部。
金控集團煩惱的是:壽險、產險、銀行、證券、投信⋯⋯各子公司有自己的系統與流程標準,整合性治理難度極高,沒有共通方法論就只能各做各的。
表面上看是三種不同的問題,本質上都是**「資訊太多、缺一張地圖」。
▎卡關二:合規與風險顧慮高,寧可不用也不敢踩線
營造業最怕的是合約 AI 辨識的法律邊界——付款條款、違約金、保固若漏看,後果嚴重。
教授最怕的是學術倫理—未發表論文、學生資料能不能丟給 AI?哪些算「使用 AI」、哪些算「AI 代筆」?這條線市面上的 AI 課最少談、教授族群卻最在意。
金控集團最怕的是法遵稽核——金管會法令更新頻繁,任何架構轉型都要衡量法遵風險、稽核軌跡、資安要求。
都是同一件事:怕踩線、寧可不用。
▎卡關三:跨單位共識難以建立
營造業:工地、設計、PMIS、財務、業主端視角不同,會議決議追溯不易。
金控集團:願景在高層、執行在 IT、需求在業務、風險在法遵——四方視角不同,沒有共通語言會造成轉型失焦。
大學:每個學科背景的老師,連「什麼算研究產出」的定義都不一樣。
一樣的問題:沒有共通語言,就無法形成共識。
三個案子,三套提案,但底層邏輯都是同一套:
✦ 先給一張清楚的工具與場景地圖,讓使用者知道從哪開始 ✦ 講清楚合規邊界與最佳實務,把焦慮轉成可操作的原則 ✦ 用結構化方法論讓不同部門有共通語言
如果您的企業、機構、學校也在思考內訓的方向—不論是 AI 全員培訓、企業架構策略規劃、或是教師增能—歡迎私訊聊聊。
我會先聽您的需求,再決定該怎麼幫您(甚至包括誠實告訴您「這個案子應該找誰,不該找我」)。
戰國策集團 | 林尚能 📞 免付費專線 0800-003-191 🌐 mo.com.tw
#AI企業內訓 #企業架構 #高教深耕 #戰國策集團 #林尚能
看更多
0 0 66 0