AI在職場上捲起了一陣新氣象,但所謂「成也AI,敗也AI」,想像一下,你用 AI 在短短幾十分鐘完成了一份市場分析報告,自信滿滿地交給老闆,結果對方第一句就問:「數據從哪來的?」,而你居然查證不到來源出處,場面有多難堪?職場上現時最常用 ChatGPT、Copilot、Notion AI 等AI 工具,確實讓我們在寫文案、整理資料、做研究的速度快了好幾倍,但它有一個致命弱點:內容未經fact check,可能錯得離譜。
從過時統計數據,到捏造不存在的研究,甚至連數學計算都可能出錯,如果你直接照單全收,不但害自己出糗,還會影響團隊決策。想在 AI 時代保持專業形象,懂得 Fact Check(事實查核)才是真正的必修課。
我們先來釐清 AI工具的性質!不少人以為 AI 會像百科全書一樣「知道一切」,事實並非如此。以 ChatGPT、Copilot、Claude 等生成式 AI為例,它們的核心是大型語言模型(LLM),本質是根據系統現存資料進行「文字預測」,並不會即時連線到所有資料庫查證內容。
所以,這些生成式AI工具可能會把不存在的資訊「很有自信地」生成出來,並包裝得天衣無縫,其實完全錯誤。即使是結合即時搜尋的 AI工具,例如 Bing Chat、Perplexity AI,雖然能引用最新資料,但來源未必具權威性,也可能存在解讀錯誤。
最常見的錯誤是引用過時的統計數據,卻沒有提醒你資料早已失效。其次則是「編造自創」一份從未存在過的研究報告、機構名稱或專家引言,看似權威,實際全是虛構。這種行為其實在 AI 領域廣為流傳,被稱為「幻覺」(Hallucination),即 AI 會自信地捏造出完全不存在的資訊。最後是一些邏輯漏洞,你要仔細深思才會恍然大悟:「原來是錯的!」例如在處理數據時,AI 也可能犯下計算錯誤,導致數據加總不一致或前後邏輯矛盾。
任何一種類型的錯誤一旦進入職場文件,後果都不容小覷!輕則讓同事或客戶質疑你的專業能力,重則影響團隊決策,造成投資判斷失誤。尤其在 HR、銷售、市場研究、財務和法務等崗位,涉及的數據、法律或財務資訊必須精準無誤,任何錯漏都可能放大風險。
即使 AI 生成內容的速度再快,你仍需要花點時間驗證它的準確性。以下五個步驟,能幫你在最短時間內完成高效的 Fact Check,避免錯誤流入正式文件。
第一步:鎖定關鍵數據
不要逐字逐句檢查,而是先找出 AI 內容中最關鍵、最可能影響判斷的數字、事實或引用,例如市場份額百分比、法律條文名稱、報告年份等。假如你逐字逐句查核,分分鐘消耗的時間會比你自己寫更長,所以請記得一定要優先檢查關鍵點。
例子:你請 ChatGPT 撰寫一份「香港零售行業現況分析」,它提到「2024 年零售銷售額較去年增長 10%」。這個百分比就是必須優先核實的關鍵數字,因為它會直接影響報告結論。
第二步:交叉比對來源
用 Google、Bing、公司內部資料庫或行業專用平台查證這些關鍵資訊,最好能找到兩個以上獨立來源互相印證。如果是數據,首選官方或權威機構的發佈平台,例如政府統計處、國際組織或專業協會,直接查看原始文件,確保資料準確。
例子:AI 提供了零售增長數字,你可以到「香港政府統計處」網站搜尋最新零售業月報,或查看相關專業協會如「香港零售管理協會」的行業分析報告,比對數字是否一致。
查證官方資料出處是最穩妥的做法。
第三步:檢查資料日期
這是最基本但最常被忽略的步驟。AI 的數據庫有一定時效性,它可能引用過去正確但現已失效的數據。你一定要確認資料是否最新!AI不是刻意誤導你,只是它引用了舊資料而沒有標註年份,導致用戶誤以為是最新數據,對於市場報告、法律條文、價格資訊等的影響至為關鍵。
例子:AI 回覆你「香港現時最低工資為每小時 37.5 元」,這可是2019年的數字,當時由每小時34.5元調升至37.5元。實際上2025年5月1日起,最低工資已調升至每小時42.1元。如果你沒留意年份,就可能把舊資訊放進人事政策文件。
第四步:反問 AI
你可以要求 AI 提供它的資料來源,並列出具體網址或文件名稱,常用指令是:「根據你提供的數據,請列出其來源和發布日期。」雖然生成式 AI 有時會提供錯誤或不存在的連結,但這個動作可以幫你快速篩查出潛在可疑內容,為後續查證提供方向。
例子:當 AI 引用「哈佛商學院 2023 年研究」時,你要直接問它:「請提供這篇研究的完整名稱和網址。」如果它給出不存在的連結,那這段內容需要特別小心,分分鐘是「自創」的研究報告。
第五步:找人二次確認
對於重要的商業決策或對外發佈的內容,最好讓主管或專業同事幫忙審閱,特別是當涉及專業術語、行業規範或高敏感度的資訊時。人眼的判斷,可能是最後、也是最穩妥的一道關卡。
AI 的錯誤,有時並不容易一眼看出來,因為它往往用很自信的語氣呈現內容,謹記以下三個真實案例,時常提醒自己:AI只是聰明的工具,需要人類把關。
案例 1:錯誤數據——「看似合理,其實過期」
財務部同事在2025年6月準備年度薪酬調整報告時,需要引用香港最新的消費物價指數(CPI),便向 AI 查詢:「香港最新的 CPI 是多少?」AI 回覆:「整體 CPI 按年上升 1.8%。」表面看來合理,但實際上,根據政府統計處公布,2025 年 6 月的整體 CPI 按年升幅是 1.4%。AI 的數字混淆了單月數據與年均數據,並沒有即時連線核對官方數據。
● 修正方法:涉及 CPI、失業率、出口數據等官方統計時,應直接到政府統計處網站查詢,並在文件中標註「資料來源+發布日期」,確保數據準確及更新。
案例 2:虛構引用——「聽起來很權威,卻根本不存在」
在撰寫行業研究報告時,AI 引用了這一段引用:「根據 2023 年哈佛商學院研究,員工混合辦公模式能提升 18% 工作效率。」這段話聽起來專業又有說服力,但經 Google 搜尋,根本找不到這篇研究的任何痕跡——它是 AI「想像」出來的。
● 修正方法:對於看似權威的數據或研究,務必使用搜尋引擎或學術資料庫(如 Google Scholar)核實來源,確保其真實性。
案例 3:邏輯漏洞——「結果計錯了」
HR 同事想快速計算一名員工的加班費,指令是:「月薪 $18,000、每日工作 8 小時、這個月加班 12 小時,根據香港勞工法例計算加班費。」AI 回覆:「加班費為 $900($18,000 / 30 / 8 x 12)。」它的計算公式就是把月薪直接除以 30 天來算日薪,再除以 8 算時薪。這裡的邏輯漏洞就是工作天數,AI並不會考慮實際操作,忽略了公司實際以每月工作天數(如 22 天)計算薪酬的慣例,導致計算結果出錯了。
● 修正方法:對涉及公式與計算的內容,不論 AI 回答得多快,也要用 Excel 或計算機重新驗算,並確保公式符合公司或行業的標準計算方式。
要減少 AI 出錯的機會,除了事後 Fact Check,還可以在生成內容前就「預防性降低錯誤率」。以下幾個實用方法,能讓 AI 產出的結果更精準、更貼近你的需求。
1. 指令要夠精準
AI 的輸出質素,很大程度取決於你的輸入指令。除了告訴它「要什麼」,還要加上「範圍」、「時間」和「來源要求」。回到上文消費物價指數(CPI)的例子,與其問「香港最新的CPI是多少?」,不如說「請用香港政府統計處 2025 年 6 月公布的數據,回答消費物價指數(CPI)是多少」,以降低 AI 引用過時數據的風險。
2. 限制生成範圍
在讓 AI 寫內容前,可以先要求它列出資料來源,經你確認無誤後再生成完整內容。請先指令 AI:「請列出 2024 年香港最低工資的官方來源網址」,確認正確後再叫它寫相關報導。
3. 分段生成與驗證
不要一次性讓 AI 生成 10 頁內容,建議分主題或分段落生成,每完成一部分就先檢查,再決定是否繼續。例如撰寫市場分析報告時,先要求AI生成「市場規模」段落,驗證無誤後再生成「競爭對手分析」。
4. 保持懷疑精神
當我們使用AI工具前,這是最重要的態度:一直保持懷疑精神。即使AI 說得再有自信,也不代表它一定正確。養成看到數據或結論時多問一句「來源在哪?」或「數字有沒有可能過期」。看到 AI 說「某品牌市佔率為 45%」,馬上去查找兩個以上的獨立來源交叉比對。
Fact check時以兩個或以上的獨立可信來源的資訊為基準。
AI 工具的確能讓我們在職場上快人一步,但速度從來不能取代準確度。它生成的每一個數據、引用、結論,都需要經過你的判斷和驗證,才能真正成為可靠的專業內容。在 AI 時代,懂得 Fact Check 就像懂得用電腦一樣,是基本功。當你養成檢查來源、核實日期、檢驗邏輯的習慣,AI 就會成為你得力的助手;反之,若盲目全信,它很可能變成讓你出錯的「坑」。