別跟黑盒子賽跑:在 AI 時代,守住人類的決策權
當別人的專注力只放在「加速」,你得清楚「方向」才是決定命運的關鍵。
過去這一年多,我參加了不少聚餐,跟許多老朋友和新朋友談天說地,縱然一開始的主題不盡相同,但最終無一例外都會導向一個繞不開一個話題——「AI」。
更明確的來說,那是大家一方面對科技的躍進感到興奮,另一方面又加深了對自身定位的迷惘:「如果AI能做的事情越來越多,人類的價值在哪裡?我們還剩下什麼?會不會有一天,AI真的取代了我的角色?」
我也焦慮過,特別是在 AI 的指數曲線前,「終身學習」四個字顯得蒼白。我們彷彿與一位站在加速傳送帶上的對手比賽,無論多麼努力,都無法擺脫被超越的命運。這似乎是一場註定要輸掉的競賽。
通常碰到這種「此路不通」的情況,我先暫停一下問自己:會不會跑道本來就選錯?如果我們奮力追趕的,本就不是人類價值的核心所在呢?
我不是AI技術專家,這篇文章也不想販賣廉價的樂觀或絕望。我只想以幾個不同的角度切入,試著回答困擾著我的那幾個問題,從一個根本的區別開始,走過一場關於物理極限的思考實驗,希望最終能夠釐清我該放手什麼,又該緊握什麼。它也許不完備,但足以把焦慮拉回篤定,成為我自己的一套「AI 應對之道」。
▉ 智能與意識的大分野——我們焦慮的根源
要理解人在 AI 時代的定位,首先我想先借用Yuval Noah Harari對「智能(Intelligence)」與「意識(Consciousness)」兩個基本、卻常被混淆的概念分野:
* 智能:這是指「追求目標,並在這個過程中解決問題的能力」。例如GPS 導航系統,為你規劃出避開壅塞的最快路徑,這就是智能。在圍棋的億萬種可能性中,找到致勝的策略的AlphaGo也是智能。
* 意識:它是「感受事物」的能力,是所有「主觀體驗」的總和,包含痛苦、快樂、恐懼、渴望…等。當你的手被針扎到時,神經系統傳遞訊號是物理過程,但那份「痛」的直接感受,就是意識。當你聆聽莫札特的《第十一號鋼琴奏鳴曲》時,耳膜接收聲波震動是物理的,但心中湧現的輕快又俏皮,也是意識。意識讓我們有了內在生命的流動,讓我們不只是解題機器,而是一個活著的個體。
AI 目前擅長的,是前者那種冷靜、高效的智能。但對於後者那類溫熱、主觀的意識,AI 至今仍「暫時」一片空白。它不會「感覺」什麼是美,什麼是痛;它不會真正理解「快樂」是什麼,也不會有「我存在」的主觀經驗。它只看參數與優化來模擬智能,卻觸不到意識的源頭。
人類之所以焦慮,是因為我們誤將「智能」等同於人的全部價值。長久以來,人類的優越感建立在我們是地球上最聰明的物種之上。我們的教育體系、經濟模式,無一不是在獎勵、培養和積累解決問題的智能。如今,智能潛力無窮的對手出場,我們的王座開始晃動了。
但一旦我們接受「智能」與「意識」的大分野,整個局面反而可以豁然開朗。我們需要承認,在純粹的智能賽道上,我們可能不是 AI 的對手。而且我們未必需要把投降當作失敗。
就像人類發明了起重機,就不再與機器比力氣;發明了汽車,就不再與交通工具比速度。現在我們創造了 AI,或許正是時候,讓我們停止在純粹的計算與記憶上與之較量。要記得「智能不等於意識」,就像再精準的指南針,也不會替你決定目的地。
就算未來AI的進展使它開始擁有意識,我們也可以換個角度,將世界上的問題分為兩類:
* 「封閉型問題」(Closed-ended Questions):有明確規則、數據和單一或最優解的問題。例如:下棋、計算蛋白質結構、優化物流路線、寫程式碼。
* 「開放型問題」(Open-ended Questions):沒有明確規則、目標模糊、充滿價值衝突、沒有唯一正解的問題。例如:「如何成為一個好父母?」、「什麼是美?」、「怎麼樣做才公平?」
AI 是解決「封閉型問題」的終極工具,它的目標是在給定規則下找到效率最高的解(它現在甚至不用我們給定或提示路徑,而可以自己找到最佳化的方法)。人類的獨特在於處理「開放型問題」,我們的目標是利用「詮釋」與「創造」,在模糊地帶中賦予意義、做出權衡。就好像AI善於填空題,而人生更像是一張要自己出題的論述題。
我們也可以把AI 當成人類文明有史以來最強的奴隸。它永不疲倦,沒有情緒,只會持續地把你設定的目標最大化。而這將我們引向一個更為根本、甚至帶有物理學色彩的思考。
▉ 能量-智能轉換模型:一場我們註定無法打贏的物理競賽
讓我們來建立一個極度簡化的概念模型,一個「從能量到智能」的轉換模型。我們將任何能產出智能的實體,看作一個黑盒子。這個黑盒子輸入的是「能量」,輸出的則是「智能」:
* 把人類與AI放在一起比較,使用同樣的能量,誰解決的問題更多?
* 兩者誰的的邊際成本更低?
對於 AI 而言,這個黑盒子就是一個數據中心。它的輸入是「電能」——可以來自太陽能、火力,甚至是成本極低的核能。其輸出的「智能」,可以輕易地被複製、傳輸、疊加。更重要的是,這個黑盒子的效率正在以摩爾定律甚至更快的速度迭代升級。
人類也有類似的系統。我們把食物中的能量,透過生理機制轉化成維持腦部與身體運作的動能。大腦用掉了我們大概 20% 的能量消耗,但能夠產生複雜的認知與情感活動。人類的「智能輸出效率」,其實在生物演化上已經優化了數十萬年,但這個系統的物理上限遠低於AI的擴張潛力:
* 在最新 GPT-4o 架構下,一條 ChatGPT 問答大約耗電 0.3–0.34 Wh (並沒有考慮訓練的能耗,詳見Sam Altman在2025年Business Insider的訪談)
* 假設面對同樣的問題且產出跟GPT-4o類似品質的產出,需要一個人腦專注思考3-5分鐘,那它的耗能大約 1–2 Wh(成人大腦基礎功耗約20W)。
* 除了上面的邊際產出能耗外,我們還要考慮「訓練成本」與「邊際複製」差異。
* 把「訓練成本」放進來,人腦仍是極端節能的智慧系統(假設GPT-4的智能與20歲受過良好教育的成人類似):根據TRG Datacenter的估計,GPT-4的培訓能耗 (MWh)高達7200 MWh vs. 我們人類從0–20 歲大腦的訓練能耗大約是3.5 MWh(20 W × 20 年)。
* 換算下來,你花一杯手搖飲的電費,就能買到一整顆20 歲大腦替你回答超過40000個問題——這才是真正的「智能通膨衝擊」。
* 在「邊際複製」方面,GPT的大語言模型訓練完畢後,複製新副本幾乎零成本;而養成第二個人類大腦,依舊要花上 20 年,還無法保證品質一致。
* 換句話說,AI 固定成本極高,但一旦共享,邊際成本近零且可瞬間複製。而人類是在邊緣端(edge)節能、可長期塑形,但複製耗時且品質不穩定。
所以如果我們用物理視角來比喻:人類與AI的能量轉智能轉換效率,根本不在一個數量級上,因為:
* 能量輸入的限制:我們無法直接插上核電廠。我們的能量來源(食物)的生產、攝取與轉換效率,在幾十萬年的演化中已經被優化到了極致,再難有突破性的進展。
* 硬體升級的限制:大腦不能像 GPU 說換就換。演化的速度是以千年、萬年為單位計算的,而 AI 的硬體升級週期可能是 12-24個月。
* 學習與傳輸的限制:AI 的知識可以瞬間複製,一個模型的突破能立即部署到全球。而人類的知識,則需要透過耗時費力的學習過程(著作、教學、實驗…等),一代代地傳承,且傳承過程中必然伴隨著失真與遺忘。
從這個角度看,試圖在「智能產出」的效率和規模上與 AI 長期競爭,無異於一場唐吉訶德式的自不量力悲劇。這是熱力學,不是毅力學。我們永遠無法在能量轉換效率上,勝過一個可以由物理學和工程學無限優化的系統。
這結論乍聽令人挫敗,但實則是一種解放。它告訴我們,我們奮力追趕的目標,從物理層面來看,就是一條死胡同。我們不必再為「跟不上」而感到焦慮,因為我們本就不該在這條路上。我們應該做的,是轉身走向另一條截然不同的道路——那條由意識、而非智能所鋪成的道路。
▉ 別去跟AI拼智能:人類的價值不在那裡
如果我們註定要在智能的競賽中落敗,那麼人類的價值究竟在哪裡?我認為答案就藏在第一部分的區分之中:在 AI 所不具備的「意識」裡。更準確地說,人類獨特的價值,在於由意識所催生的「價值觀」(Value)。
價值觀,是我們看待世界的方式,是我們判斷「什麼更重要」的內在天秤,以及處理「開放型問題」時必需的核心工具。它決定了我們為何而笑、為何而哭。讓我們自己定義什麼是愛、正義、美、信任、榮譽。這些概念沒有絕對的優劣與明確的邏輯計算,而是源於我們深刻的主觀感受。
目前的AI也許可以模仿「意識」,但多半只是「行為對齊」。系統本身不會自己「長出」價值觀,它的價值觀取決於人類設計者賦予它什麼樣的目標函數、強化學習獎勵系統、道德限制等等。至於系統是否「真正相信」那些價值,屬於尚無可觀測指標的黑箱。也有許多人認為,哪怕未來出現超級智能AGI,它依舊可能是「哲學殭屍」(外顯行為擬人,內部卻空無主觀經驗)。
所以真正關鍵的,是人類需在意識與價值觀上,持續拓展多樣性。
正因為價值觀本身沒有「最優解」,人類的多樣性才特別重要。當不同群體持續在世界觀上展開對話與辯論,歷史才會有更多路徑可以展開。這種多樣性本身,就是人類文明最大的韌性來源。而混亂與分歧,就是人類對不確定性的保險。
一個由單一或數個超級智能所優化的世界,或許會極度高效,但它必然是一個單調、脆弱的世界。一旦其核心價值出現偏差,後果將是災難性的。
藝術、宗教、哲學、倫理、文化,這些領域或許是人類未來要持續投入的核心場域。因為在這裡,AI永遠只能成為工具,而無法成為創造者(當然也需要發展科學、生物…等領域,但這些地方可能在長期更依賴協作模式去尋找突破)。人類文明的進展,其實像一座價值觀實驗室。AI 可以是最勤快的研究助理,但實驗室的門牌上,掛著的仍是 Homo sapiens的名字。我們人類的使命,變成了花更多時間去尋找和打磨自己最獨特與真實的價值觀。
▉ 智能的發展:「跨越式」突破vs. 穩定積累
我會強調「維持多樣性」的重要性,其實還有另一個原因。但在討論這個子題目前,我們先思考一個問題:
「人類知識的進展,是少數跨越式突破,還是邊際累積?」
答案當然不是非黑即白,但真正推動歷史曲線轉彎的,往往是少數跨越式創新:
* 知識進展大部分時間是「積沙成塔」的累積性微創新:例如工程、應用技術、材料改良、醫療臨床實踐,多屬於邊際進步。
* 但歷史上重大範式轉移,幾乎都來自少數幾個「天外一筆」的模型性創新:例如牛頓力學、麥克斯威爾電磁學、愛因斯坦相對論與量子力學。這類跨越式理論,通常都站在大量邊際進展的基礎上才有可能誕生,但這些偉大的知識推進者卻可以完美的達到「概念跳躍」,就像突然發現捷徑一樣,把人類的智能提升到另外一個山頭上。這種「不合理的直覺」或「偶然性」多多少少也有運氣的成分?!
理論上,因為如果 AGI 真的具備人類水平的泛化能力、跨領域整合、抽象推理能力,那它在某些情況下理應可以把現有知識重新組合、找出矛盾、建構新理論。
但這個目標現實上還非常難。因為目前的 AI基本上是吃海量資料學模式。我們還缺乏讓機器進行真正「概念跳躍」的框架。概念跳躍經常違反了許多既有直覺與經驗法則,外加一些抽象的美學偏好(泛指這些跨越式突破理論的優雅、簡潔、對稱性,不用加諸太多的前提與環境限制)。所以如果要重演相對論,看來AI 得同時扮科學家、哲學家、藝術家。
雖然已經有科學家在研究用超高維度的模型去搜尋可能的假說空間,以及讓AI造出能自行重組概念與假說生成的架構。但在取得任何突破性結果之前,「維持多樣性」不但是人類最後的堡壘,也是讓AI能力能持續進步的另一個要素。
▉ 保留我們人生的「決策權」
理論的釐清與方向的指引,最終必須落實到日常行動中。在這裡,我們面臨著最後的深水區:未來AI 代理人(Agent)的出現,正在誘使我們主動放棄人生的「決策權」。
當我們理解 AI 不僅在智能產出上具備壓倒性優勢、在知識演進上也可能參與更多微創新時,留給人類最不可外包的空間,其實已經來到個體層次的「選擇權」本身,因為價值觀只有透過選擇才能活出來(無論是選擇「去做什麼」,或是選擇「不做什麼」)。
隨著AI代理人、AI顧問的普及,許多原本由人類承擔的選擇,將會被自動化系統取代。從導航告訴你哪條路最快,到金融AI幫你調整投資組合,從健康AI告訴你該吃什麼,到教育AI設計你的個人化學習路徑。我們越來越習慣「被建議」,越來越相信「系統知道最適解」。
表面上,這樣的演進提升了效率,讓日常生活的選擇負擔大幅減少。但長期而言,如果我們把所有的選擇權都外包給AI,我們也將失去對自己人生的控制感。更重要的是,前面提到的價值觀與意識,都是得靠自己不斷的做決策才能實現的。
「決策權」之所以重要,是因為每一個針對開放型問題的決策,都是一次對價值觀的實踐與宣告,從而定義了我們是誰——「自己做選擇,承擔後果」。即使決策不完美,仍是你做出的選擇,這是主體性的存在證明。當選擇被演算法接管,我們活得或許更舒適,但同時也變得更空洞。這時候AI 將反客為主,讓人類心甘情願地交出主體性,變成被服務的植物人。
我不反對AI 代理人,也沒有能力阻擋這個洪流。但我認為未來人類應該刻意擁有「保留決策權」的意識,劃定一條清晰的界線,捍衛那些定義我們之所以為人的核心決策權。我們當然可以參考AI的建議,但一定要有意識的知道誰才是最終的決策者。即使是錯誤的選擇,也是一種對自我存在的堅持:
* 外包重複性、低價值的決策:讓 AI 去訂機票、訂餐廳、過濾垃圾郵件、整理環境,這能極大地解放我們的時間和精力。
* 保留重要價值判斷的決策:我們必須自己先篩選出「何謂重要價值判斷」的決策(每個人定義可以不同)。對大部分的人來說,它可能包含職涯的選擇、伴侶的尋找、子女的教育——這些深刻影響我們生命軌跡和內心認同的決策。其中的掙扎、迷惘、反思與最終的抉擇,本身就是構成「自我」的過程,儘可能不要外包給AI做決定。更重要的是,我們必須包容各種不同的價值觀(確保人類社會的多樣性),避免趨同可能帶來的僵化。
* 刻意練習「非優化」的選擇:在日常生活中,我們偶爾可以刻意地進行一些「非最優化」的決策練習。憑感覺選一部電影,而不是看排行榜;走一條沒走過的路去上班,哪怕會多花十分鐘。這些微小的行動,讓生活納入一些不確定性,有時可能有意想不到的收穫。或者反過來思考,在這些地方就算偶爾沒有優化,也不會怎麼樣。
* 將 AI 視為「顧問」,而非「老闆」:我們可以將 AI 視為一個能力極強的顧問。它能提供豐富的資料、多元的觀點和可能的結果預測。但最終拍板的那個人,必須是我們自己,千萬不能喪失了決策能力。
* 培養批判性思維:學會質疑AI的建議,理解其背後的邏輯與局限。
* 跳脫個體,思考權力集中的隱憂:除了上述的「操作手冊」外,我們也應該思考,當只有 10% 人握有高維 AI 代理人,剩 90% 會怎樣?這個社會會面臨什麼新的問題?
守住決策權,才守得住人生——意義不在終點,而在一路上那些自選的彎路。
▉從與機器賽跑到回歸人性深處
別跟黑盒子在既定的路線賽跑比速度,特別是明知你不可能跑贏。你應該決定跑去哪個方向、為誰而跑、跑完要講一個什麼故事。
AI焦慮源於對未來的未知與對自身價值的質疑。然而,當我們區分智能與意識、認識能量效率的差距,並專注於價值觀與決策權時,這種焦慮可以轉化為行動力。AI的發展,讓我們看見什麼是可以自動化的,但也讓我們更清楚什麼是不可以被取代的。
在AI時代我們無需追逐它的速度,而是要選擇自己的路徑,欣賞沿途的風景。這份認知並非絕望,而是真正的希望所在。它將我們的目光,從外部的競爭,引向了內在的深耕。我們的價值不在於計算得更快、記憶得更多,而在於我們能夠建立多元豐富的價值觀,並在無數的可能性中,勇敢地行使我們生而為人的決策權。
我們的答案將決定人類文明的下一個篇章。所以別急著踩油門,先確定握的是自己的方向盤。

