Saturday, April 25, 2026 Taipei · Reading · Thinking · Writing
L 懶泥陳的閱讀書房 Reading · Thinking · Writing Since 2021
訂閱
← 回商業地圖
🧠 決策與認知 認知偏誤

確認偏誤

人類傾向尋找、解讀、記憶與既有信念相符的資訊,並系統性忽視矛盾證據的認知偏誤。它是維護「自我一致性」的演化副產品——大腦寧可保護既有結論的完整,也不願承擔修正信念的代謝成本

《窮查理的普通常識》《快思慢想》《人慈》
也叫作
  • Confirmation Bias
  • 驗證偏誤
  • 確認偏差
  • 驗證性偏見
  • 我方偏見

「人類的思維不是為了發現真相而設計,是為了維持一致性。」 — Daniel Kahneman

核心洞察

確認偏誤(Confirmation Bias)是人類大腦最古老、最普遍、也最難以察覺的認知扭曲——我們不是在「客觀蒐集證據後形成結論」,我們是在「先有結論後尋找證據」。Karl Popper 在 1934 年提出科學哲學上的「可證偽性」原則,本質上就是對抗確認偏誤的一道防線——他發現連科學家都會選擇性地引用支持自己理論的實驗、忽視矛盾的數據。Daniel Kahneman 與 Amos Tversky 從 1970 年代起的實證研究進一步證明:這個偏誤不是教育問題、不是聰明程度問題——博士、法官、外科醫生、CIA 分析師全都展現相同程度的確認偏誤,差別只在用更精緻的語言把它合理化。

確認偏誤的危險在於它的「三重隱形」——搜尋階段:你會優先注意到支持你信念的資訊;解讀階段:對同一份證據,你會給支持方更寬鬆的解讀標準;記憶階段:你日後回想時會更輕易記得確認證據、忘掉反證。這三層共同作用的結果是——你以為你考慮了正反兩面,但你其實對「正面」付出了 5-10 倍的認知資源。最致命的是它無法被「我會努力客觀」的意志力克服——大腦的這個機制運作在意識之下,光是「相信自己客觀」反而會讓人對確認偏誤更無防備(Bias Blind Spot)。

對抗確認偏誤的唯一可靠機制是「程序性的反證」——不是靠「保持客觀」這種模糊意圖,而是靠強制性的反向練習:在做任何重要判斷前,先列出「如果我錯了,會是因為什麼?」這份清單;在採納任何觀點前,先閱讀最強反方論點而非弱化版稻草人;在組織決策中設置「紅隊(Red Team)」專門攻擊主流方案。這些機制不是為了讓你變得更聰明,是為了把對抗偏誤的責任從「靠自律」轉移到「靠流程」——後者才是規模化可靠的。

各書的洞察

快思慢想》— 確認偏誤是系統一的副產品

Daniel Kahneman 把確認偏誤定位為「系統一(直覺、快思)」的核心運作機制——大腦天生偏好「前後一致的故事」勝過「正確的故事」,因為一致性是低能耗的,矛盾性是高能耗的。Kahneman 用 WYSIATI(What You See Is All There Is,眼見即為一切)這個概念解釋為什麼:系統一只會用「當下看到的證據」拼出一個說得通的故事,從不主動詢問「我還缺什麼證據?」這就是為什麼專家在自己領域反而最容易掉進確認偏誤——因為他們的系統一速度太快,沒有任何停頓讓系統二(理性、慢想)介入。Kahneman 的核心建議:不要相信你的直覺判斷力,要相信你刻意設計的決策流程

「我們對自己有限的知識深信不疑——這種信心遠超過我們應有的程度。」

深度知識拆解

《窮查理的普通常識》— 蒙格的「逆向思考」反偏誤工具

Charles Munger 把確認偏誤列為他「人類誤判心理學」25 大偏誤的核心成員——他用 Berkshire 50 年投資生涯的經驗指出:90% 的災難性決策不是因為「不夠努力」,而是因為「對自己已經相信的事過度自信」。蒙格的解方是「Invert, always invert(反過來思考,永遠反過來思考)」——在試圖證明一個假設前,先全力嘗試推翻它;在投資一家公司前,先列出「這家公司會在什麼情境下倒閉?」清單;在採納一個論點前,先寫下「最聰明的反對者會怎麼批評它?」。這個動作把「主動找反證」從一個飄渺的美德,變成可操作的決策流程——這就是為什麼蒙格能在 50 年內避開大多數投資災難的關鍵心智習慣。

「我從不允許自己對任何議題持有意見,除非我能比反方更有力地論證對方的立場。」

深度知識拆解

《人慈》— 確認偏誤的社會放大效應

Rutger Bregman 在《人慈》裡把確認偏誤從個人層面提升到社會層面——他指出新聞媒體、社群演算法、政治論述全都建構在「確認偏誤的回收引擎」之上:媒體報導符合既定敘事的事件、忽視矛盾案例;社群演算法推送你會點讚的內容、過濾你會反對的聲音。這個放大機制讓「個人偏誤」演變成「集體偏誤」——錯誤的信念透過重複變成「常識」,最後連質疑它本身都顯得可笑。Bregman 用「人性本善 vs. 人性本惡」的世紀辯論為例——大量證據支持人性合作的本能,但「壞人故事比好人故事更搶眼」這個媒體偏好,讓社會集體相信了一個與證據相反的人性觀。對抗社會層級的確認偏誤,需要主動接觸「你不會自己選的資訊源」——而這在演算法時代極其困難。

「一個錯誤的信念,只要被重複足夠多次,就能變成常識,甚至被當作不可動搖的真理。」

深度知識拆解

《致富心態》— 投資人最致命的偏誤

Morgan Housel 在《致富心態》裡指出——確認偏誤是投資領域最系統性、也最昂貴的單一偏誤。投資人會主動關注支持自己持股的新聞、忽視警訊;會把套牢的股票合理化為「長期持有」、把賣對的股票解讀為「自己有眼光」。Housel 用一個極具殺傷力的觀察:投資人不是因為「不夠聰明」而虧錢,是因為「太想證明自己是對的」——這個對「自我形象」的維護成本,遠高於市場的隨機波動。Housel 的解方很簡單但反直覺:接受「我大部分判斷都是錯的」這個前提,然後用指數投資這種「不需要持續對的策略」來避開確認偏誤的陷阱——你不需要相信任何特定公司會贏,你只需要相信「整體市場長期向上」這個更弱、但也更可靠的命題。

「投資不是高 IQ 打敗低 IQ 的遊戲,是控制情緒打敗控制不住情緒的遊戲——而控制情緒的最大敵人就是確認偏誤。」

深度知識拆解

為什麼重要

我自己對確認偏誤最深的領悟,來自一個慘痛的投資經驗——2018 年我重押了一家我「研究透了」的公司。我讀了它所有的財報、聽了 CEO 所有的訪談、加入了它的投資人社群、訂閱了所有看好它的分析師。6 個月內我蒐集了上百篇關於它的資料,每一篇都讓我更確信「這是被市場低估的隱形冠軍」。一年後股價跌了 60%,我才在虧損中發現一個冷酷的事實——我蒐集的「上百篇資料」99% 是看好者寫的;我加入的「投資人社群」全是死忠多頭;我「研究透了」的本質是「只研究了支持我的論點」。我以為我在做盡職調查,實際上我是在用 6 個月的時間,把確認偏誤包裝成「深度研究」。

那次虧損之後,我把確認偏誤當成比任何技術分析、財報指標、宏觀策略都更核心的投資課題——因為其他工具都假設「判斷是客觀的」,但確認偏誤證明這個前提本身就不成立。我現在做任何重大決策前都強制自己問三個問題:「我最強的反方論點是什麼?」、「如果我錯了,會是因為什麼?」、「有沒有任何資訊源是我系統性地避開的?」。這三個問題每次都讓我發現自己之前「確信」的事其實漏洞百出——確認偏誤對我最大的禮物,不是讓我變得更聰明,是讓我接受了「我的大腦不會自己對抗自己」這個事實,然後用流程而非意志力來補足這個結構性缺陷。我認為這是所有人在 30 歲前最該內化的認知工具——因為幾乎所有人生重大錯誤的源頭,都不是「資訊不夠」,而是「對手上資訊過度確信」

日常實例

  • 政治立場的回音室:支持立場 A 的人,每天滑開的新聞 90% 來自立場 A 的媒體、Facebook 推送的 90% 是立場 A 的朋友、Line 群組的 90% 是立場 A 的轉發。他主觀感覺「全世界都這樣想」,因為他真的「只看到全世界這樣想的人」——但實際上是他自己過濾了一個閉環的資訊宇宙。立場 B 的人也是一模一樣的結構,雙方都覺得「對方完全脫離現實」。這不是誰愚蠢,是確認偏誤透過演算法被工業化放大的結果

  • 創業者的願景陷阱:新創 CEO 的常見悲劇——他做了 100 場用戶訪談「驗證」自己的產品想法,每次訪談都選擇性聽到支持的回饋、忽視「這不是我會買的東西」的訊號。3 年後產品上市失敗,他才發現自己花了 100 場訪談蒐集確認證據而非真實證據。Y Combinator 的 Paul Graham 一再警告創業者:「做用戶訪談時你最該注意的是『他們不感興趣』的訊號,而非『他們客氣的讚美』」——這就是對抗確認偏誤的具體應用。

  • 情感關係的選擇性記憶:分手後的人回想前任時,會不成比例地記得對方的缺點、忘掉對方的優點——因為「我分手的決定是對的」這個結論需要被證據支持。同樣的人在熱戀期回想同樣的人時,會不成比例地記得優點、忽略缺點——因為「我選的人很好」這個結論需要被證據支持。同一個人、同樣的記憶素材,因為當下的結論不同,產生兩套完全相反的「客觀」回憶——這是確認偏誤在記憶層面最赤裸的展示。

  • 醫師的診斷固著:研究顯示醫師一旦在問診前 30 秒形成初步診斷,後續所有問診與檢查都會傾向確認這個診斷、忽視矛盾症狀——這就是醫療誤診最大的單一原因。最佳實踐是強迫醫師在初步診斷後,列出 3 個替代診斷並針對每個重新檢視證據——這個動作能將誤診率降低 40%+。這是「程序對抗偏誤」優於「自律對抗偏誤」最直接的醫療證據

實際應用

把確認偏誤從理論變成決策日常的三個動作:

  1. 重大決策前強制做「事前驗屍(Pre-Mortem)」:在做任何 6 個月以上會影響你的決策(換工作、買房、投資、創業、結婚)之前,強迫自己寫下「假設這個決策 2 年後失敗了,回頭看會是因為什麼?」清單。這個動作來自 Gary Klein 的決策科學研究——它把「找反證」從一件依賴自律的事,變成一個 30 分鐘的具體任務。寫完後仔細讀那份清單,問自己:**這些風險我有沒有真的在意?還是我把它們合理化掉了?**多數人會在這個動作裡發現自己之前「確信」的決策其實有 3-5 個沒認真考慮的盲點。
  2. 每月主動接觸「你不會自己選」的資訊源:每月撥 2 小時讀一份你完全不認同的媒體、聽一個你通常會反對的 podcast、跟一個立場跟你相反的朋友深聊一次——重點不是被說服,是強迫大腦處理「不一致的證據」。這個練習會讓你發現很多自己「理所當然」的觀點其實只是「從沒被挑戰過」——這是反演算法回音室最具體的個人動作。
  3. 採納任何強烈觀點前,寫下「最強反方論點」:在你準備為一個觀點辯護、決定、或推薦給別人之前——強迫自己用一段 200 字寫下「最聰明的反對者會怎麼批評這個觀點?」如果你寫不出來,就證明你還沒真正理解這個議題(蒙格的標準)。這個動作會讓你的觀點從「單向確信」升級為「已通過反方檢驗的判斷」——後者才是真正可靠的決策基礎。30 秒的動作,能把你跟「只是相信什麼」的群眾分開來。

《快思慢想》 · 《窮查理的普通常識》 · 《人慈》 · 《致富心態》

In the Blog

提到這個概念的文章