當 Agent 什麼都會,人類還剩下什麼?思考 AI 時代的「例外管理」
隨著 AI 的發展持續升級,我們正走進一個錯覺:只要把所有流程丟給它,世界就會變得簡單有序。
再過不久我們將進入 AI Agent 當道的時代,所有任務似乎都可以被「大外包」給一個虛擬助手:從會議紀錄、行程安排,到根據你個人偏好自動預約餐廳、分析報表、甚至預測客戶流失。
這些 Agent 不會疲倦、不會情緒化、不會請育嬰假,乍看之下,它們是效率的終極化身。但問題在於:它們只能處理已知世界。
現在市場上的主流討論,正熱衷於賦予 Agent 更多「技能(Skills)」:教它們如何瀏覽網頁、如何撰寫程式碼、甚至如何調用複雜的 API 工具。我們似乎有一種技術樂觀的錯覺:認為只要 Agent 學會的技能越多,它就越全能。
但我們忽略了一個風險:技能越多,它接觸到的未知邊界就越廣。
當市場規則改寫,當資料偏離歷史軌跡,當情感、道德、情境變數交織成決策的灰色地帶,Agent 就會「卡住」。而在這些無法預測、無法量化、無法套用標準流程的時刻,就是「例外管理」必須登場的時刻。
在管理學的教科書裡,例外管理通常被描述為一種極致的效率工具。它的邏輯簡潔:設定標準,監控偏差,只有在事情超出軌道時,管理者才介入。
如果說 Agent 是強大的自動駕駛系統,那麼例外管理就是那個決定何時該把手放回方向盤的機制。這不僅僅是關於如何處理錯誤,還是關於我們如何定義「什麼是可以被自動化的常規」,以及「什麼是必須保留人類意識的決策」。
這篇文章想從 AI Agent 的「治理」視角切入,逐層剖析例外管理的本質:從機械系統的穩定、人性的博弈,到最後我們作為規則制定者的終極責任。
▉ 防守型例外管理:讓 Agent 活在安全區
我們必須先承認例外管理的基礎價值。在工業時代與封閉系統中,它是生存的基石、也是 Agent 系統的防護欄。
就像 Tesla 的自動駕駛系統,當感測器偵測到無法識別的物體時,它不會冒險猜測那是什麼,而是立刻將控制權交還給人類駕駛。這背後的設計哲學是:在高風險場景中,承認無知比假裝全知更安全。
用開發程式的思維來說,這就像用 Error Handling 來防止程式崩潰。而在未來的 Agent 時代,這層意義可能更為關鍵。
Agent 的運作依賴於穩定的環境。如果你的Agent 遇到一個它沒見過的參數,它可能會因為缺乏對應的 SOP 而陷入死循環,或者做出災難性的錯誤決策。
這裡例外管理的核心是「穩定性」。它的適用範圍是那些有明確邊界條件,不允許出錯的封閉系統。這就像是
生物體的免疫系統。它的任務不是去理解「為什麼會有病毒」,而是單純地辨識出哪些外來物不是自己人,然後啟動防禦機制。
問題是在開放系統中,過度的免疫反應會演變成過敏,甚至自體免疫疾病——為了維持內部的純潔,而攻擊了所有外部的可能性。
▉ 進攻型例外管理:尋找 Agent 看不懂的信號
如果我們只把例外當作「錯誤」來防守,我們就浪費了例外管理可以創造的價值。因為在商業與創新的世界裡,例外往往是進化的信號。
雖然現在的生成式 AI 可以透過調整參數來增加產出的隨機性與創造力,但我們必須釐清:隨機並不等於創新。
Agent 或許能基於歷史數據排列組合出一百種新奇的變體,但它無法判斷哪一種變體符合當下的市場脈動。對 AI 來說,那是數據的偏差。但從人類角度來說,那可能變成洞見。
當某個新產品的銷量突然出現異常暴漲,Agent 的演算法可能會將其視為「數據雜訊」或「異常值」而剔除。但對於擁有進攻型態度的人類管理者來說,這可能是「進一步問出好問題」的機會,也就是人類必須介入的時刻。
我們需要的不是「修正」這個例外,而是「保護」這個例外。我們要去研究:為什麼這個不合常理的事情會發生?是因為我們做對了什麼 Agent 不知道的事?
換句話說,在進攻型的例外管理下,Agent 負責發散(Divergence),人類負責收斂(Convergence)。Agent 盡力窮舉舊世界的所有可能性,人類則負責從中挑選出能開啟新世界的鑰匙。
但就算我們假設未來 Agent 進步到已經能自己偵測異常、甚至能提出新假設。真正的問題仍然存在:它偵測到之後,誰願意承擔「誤判」的責任?在組織裡,責任不可承受時,真相會自動消失。
這裡必須補一個反證:不是每個例外都值得被保護。真正成熟的進攻型例外管理,第一步必須先分層(把例外分成可逆、不可逆、與灰色地帶)。
可逆例外可以給定比較寬鬆的條件去測試與研究。但在某些領域(醫療、航空、資安、金流),例外可能造成系統難以承擔的損失,所以更好的做法是先劃好損害半徑,再來做嘗試。否則你以為在培養創新,實際上是在拔開未來災難的引信。
▉ 人性的濾鏡:AI 也解決不了的辦公室政治
理論上人機分工似乎完美:Agent 處理常態,人類處理例外。但在真實的組織中,這套邏輯往往會撞上「人性」這堵牆。
我能想像到未來例外管理最大的敵人不是 AI 的能力不足,而是來自組織內在的數道拉扯力量:
* 沈默螺旋:對於大多數待過大型公司的朋友,應該都能深刻體會到這類組織本能地「害怕例外」。當 AI Agent 拋出一個異常警報時,負責監控的人類員工會面臨一個賽局:「如果我把這個異常上報,老闆會覺得是 AI 沒調好,還是覺得我在找麻煩?」、「如果我承認這個例外,是不是代表我們之前設定的 SOP(給 Agent 的 Prompt)是錯的?」。為了避免麻煩,員工最理性的選擇往往是手動把數據修一修,讓 Agent 繼續跑,假裝一切正常。
* 激勵的扭曲:更深層次來看,例外管理往往死於 KPI 的設計。如果你的 KPI 是「Agent 自動化率」或「低錯誤率」,員工就會隱藏所有例外。接著你會看到一張張完美的綠燈報表,活在「零失誤的幻覺」中,直到系統在沈默中崩潰。反過來在某些組織中,也有只有「救火」才能獲得老闆關注。這會造成員工會刻意放大微小的異常,把常態包裝成危機,讓 Agent 顯得無能,以證明自己存在的價值。
* 警報疲勞:如果我們為了安全,將例外偵測的靈敏度調得太高,Agent 一天拋出 500 個警報,其中 498 個是誤判,人類管理者很快就會對警報麻痺。這時候真正的危機(那 2 個真實案例)就會被當作雜訊習慣性忽略。這個風險來自於人類認知頻寬被耗盡後的生理防衛機制。
所以在實際應用時,例外管理碰到的可能不是資料問題,反倒是人性問題。不管 AI 多強大,只要回報真相的成本高於掩蓋真相的成本(從前線使用者的角度來看),這套例外管理系統就是無效的。
▉ 注意力資本的配置:人機協作的經濟學
假設我們能跨過了人性的障礙,接著就可以真正來到了決策的核心:如何設定 AI 呼叫人類的「閾值」?怎麼定義常態與例外?
要回答這個問題,我們需要從如何更有效分配「注意力資本」這個角度切入。
因為在可預見的未來,AI 的算力會越來越便宜,但人類的注意力將變得極其昂貴。例外管理的本質,就是這兩種貨幣的匯率交換機制。
我們面臨經典的取捨:
* 如果閾值設太低(過度敏感):Agent 稍微遇到一點小波動就呼叫人類。人類淪為 Agent 的保姆,它並沒有幫忙我們節省注意力,自動化失去意義。
* 如果閾值設太高(過度遲鈍):Agent 自行處理了所有事(包括它不懂的事)。這將累積巨大的風險,或是錯失關鍵轉折點。
讓我用一個例子來說明這個取捨的難度:
假設你的客服 Agent 每天處理 1000 個客戶諮詢。如果你把異常閾值設在 5%,系統每天會標記 50 個「需要人工介入」的案例。聽起來好像還好?但這意味著你的客服主管每天要花 3-4 小時審查這些例外,其中可能有 40 個只是 Agent 的過度謹慎。
如果你把閾值提高到 0.5%,你每天只需要看 5 個案例。好處是注意力成本大幅降低。但代價是什麼?那 45 個被過濾掉的「偽正常」案例中,可能藏著 3 個早期的產品缺陷信號、2 個新興的客戶需求、還有 1 個即將爆發的公關危機。
這是個嚴肅的戰略選擇:你願意用多少「注意力成本」來換取多少「演化機會」?
更複雜的是,這個閾值的調整不應該是靜態的。在產品剛上市的前三個月,你需要把閾值調低,因為這是尋找 product-market fit 的信號的階段。但在成熟期,你應該把閾值提高,因為這個階段我們更在乎運營效率。
除此之外,真正的管理者還要懂得根據戰略目標動態調整閾值,並搭配相應的激勵機制:
* 在需要創新的領域(如研發、市場):調低閾值,讓 Agent 多回報異常。同時建立心理安全感,讓員工知道發現「奇怪的信號」是有獎勵的。這時候,我們願意浪費注意力去換取可能的洞見。
* 在需要穩定的領域(如會計、運營):調高閾值,同時提高把「假例外」包裝成危機的門檻。讓 Agent 攔截掉 99% 的雜訊,保護人類的認知資源。
例外管理的重要心法,就是決定我們要為了什麼事情,暫停 Agent 的運轉,投入我們寶貴的注意力。
▉ 從組織到個人:你人生中的自動駕駛與例外
當我們把例外管理的視角從 Agent 系統轉向個人生活,會發現一個有趣的事實:我們每個人也都有自己的「自動駕駛模式」——那些不假思索的習慣、反應、決策模式。
那我們是不是也可以從例外管理的本質,學習如何決定什麼時候該「把手放回方向盤」?
我自己有一些感想可以分享:
在防守層面,我們需要先設定好自己的「熔斷機制」。這可以是生理上的警告(例如連續數天睡眠不足的剝奪感),或是心理上的紅燈(例如重要關係持續緊繃)。這些都是需要立即暫停自動駕駛的信號,要求我們重新審視原本的常規做法。
但更容易被忽略的是進攻層面。那些讓你「異常興奮」或「異常厭煩」的時刻,往往是你內在真實需求與外在慣性之間的摩擦信號。
當你突然對某個不在計劃內的事物產生好奇,這些「例外」不該被立刻壓抑或合理化。它們可能是你人生演化的第一個信號——就像那個被 Agent 標記為「異常」但其實是市場轉折的數據點。
真正的自主是每隔一段時間問自己:我現在遵守的這些「應該」,有哪些是過時的舊規則?哪些例外其實應該被提升為新的常態?你的人生不需要完美優化,但需要持續演化。例外管理就是你與未來的自己之間最重要的對話機制。
90% 的時間,信任你的自動駕駛。讓習慣帶著你前進,不要每件事都重新思考。
10% 的時間,保持警覺。捕捉那些奇怪的信號,然後給自己空間去理解它們。
▉ 從操作員到立法者:終極的人類價值
最後讓我們再次思考一下,在 Agent 時代,人類的角色到底是什麼?
隨著 Agent 越來越聰明,常規決策將被全自動化。人類將被迫從系統的「操作員」進化為「立法者」。
面對一個 Agent 拋出的例外,人類的價值鏈應該如下:
* 判斷 :這是雜訊還是信號?AI 分不出來,因為 AI 是用過去的數據訓練的,而信號往往來自未來的脈絡。
* 處置:當下解決這個問題,防止損失擴大或抓住機會。到這裡為止都還是傳統的管理者。
* 分類與修改:不要只是解決問題就結束。你必須將這次的例外處理過程,轉化為高品質的範例數據或是更新後的 Prompt,餵回去給 Agent。這就像教練在指導球員,你無法親自上場幫他打球,但可以告訴他「剛才那一球為什麼要這樣打」。真正的進化,是利用這次的例外,讓 Agent 下次能看懂同樣的狀況。如果你做不到這一步,你永遠只是個幫 AI 擦屁股的高級保姆;做到了這一步,你才是讓系統進化的架構師。
這聽起來有點抽象,如果你正在設計或管理 Agent 系統,我建議問自己三個問題:
* 這個任務的「不可逆損失」是什麼:如果 Agent 做錯了,最壞的情況是賠錢、失去客戶,還是危及人身安全?這決定了你的容錯空間。
* 什麼樣的異常值得在半夜叫醒我:不是所有例外都同等重要。例外分級制度需要能定義哪些可以等到明天,哪些需要立刻中斷 Agent 的運作。
* 如果 Agent 做錯了,我能在多久內發現:這是關於監控頻率的問題。有些系統可以接受每週審查一次,有些則需要即時警告。你的檢查週期,決定了潛在損失的放大倍數。
當你能清晰回答這三個問題,你就不只是單純在使用AI Agent,而是在「立法」:為人機協作的新時代,制定你自己的遊戲規則。
真正的進化不是消滅例外,而是從例外中提煉出新的規則去取代舊的規則,並在此架構上建立新秩序。
在 AI Agent 時代的例外管理是我們與機器之間的契約,並且界定了機器與人類的邊界。
它需要防守型思維的嚴謹,來維持系統的生存;它需要進攻型思維的敏銳,來捕捉進化的訊號;它更需要對人性的深刻洞察,來平衡應用時可能出現的問題。
在這個充滿不確定性的時代,試圖阻擋海浪的堤壩都是螳臂擋車。我們未必每個人都能成為完美的衝浪者,駕馭每一個浪頭。但至少透過例外管理,我們能知道何時該隨波逐流享受效率,何時該逆流而上定義未來。

