確認偏誤
人類傾向尋找、解讀、記憶與既有信念相符的資訊,並系統性忽視矛盾證據的認知偏誤。它是維護「自我一致性」的演化副產品——大腦寧可保護既有結論的完整,也不願承擔修正信念的代謝成本
「人類的思維不是為了發現真相而設計,是為了維持一致性。」 — Daniel Kahneman
核心洞察
確認偏誤(Confirmation Bias)是人類大腦最古老、最普遍、也最難以察覺的認知扭曲——我們不是在「客觀蒐集證據後形成結論」,我們是在「先有結論後尋找證據」。Karl Popper 在 1934 年提出科學哲學上的「可證偽性」原則,本質上就是對抗確認偏誤的一道防線——他發現連科學家都會選擇性地引用支持自己理論的實驗、忽視矛盾的數據。Daniel Kahneman 與 Amos Tversky 從 1970 年代起的實證研究進一步證明:這個偏誤不是教育問題、不是聰明程度問題——博士、法官、外科醫生、CIA 分析師全都展現相同程度的確認偏誤,差別只在用更精緻的語言把它合理化。
確認偏誤的危險在於它的「三重隱形」——搜尋階段:你會優先注意到支持你信念的資訊;解讀階段:對同一份證據,你會給支持方更寬鬆的解讀標準;記憶階段:你日後回想時會更輕易記得確認證據、忘掉反證。這三層共同作用的結果是——你以為你考慮了正反兩面,但你其實對「正面」付出了 5-10 倍的認知資源。最致命的是它無法被「我會努力客觀」的意志力克服——大腦的這個機制運作在意識之下,光是「相信自己客觀」反而會讓人對確認偏誤更無防備(Bias Blind Spot)。
對抗確認偏誤的唯一可靠機制是「程序性的反證」——不是靠「保持客觀」這種模糊意圖,而是靠強制性的反向練習:在做任何重要判斷前,先列出「如果我錯了,會是因為什麼?」這份清單;在採納任何觀點前,先閱讀最強反方論點而非弱化版稻草人;在組織決策中設置「紅隊(Red Team)」專門攻擊主流方案。這些機制不是為了讓你變得更聰明,是為了把對抗偏誤的責任從「靠自律」轉移到「靠流程」——後者才是規模化可靠的。
各書的洞察
《快思慢想》— 確認偏誤是系統一的副產品
Daniel Kahneman 把確認偏誤定位為「系統一(直覺、快思)」的核心運作機制——大腦天生偏好「前後一致的故事」勝過「正確的故事」,因為一致性是低能耗的,矛盾性是高能耗的。Kahneman 用 WYSIATI(What You See Is All There Is,眼見即為一切)這個概念解釋為什麼:系統一只會用「當下看到的證據」拼出一個說得通的故事,從不主動詢問「我還缺什麼證據?」這就是為什麼專家在自己領域反而最容易掉進確認偏誤——因為他們的系統一速度太快,沒有任何停頓讓系統二(理性、慢想)介入。Kahneman 的核心建議:不要相信你的直覺判斷力,要相信你刻意設計的決策流程。
「我們對自己有限的知識深信不疑——這種信心遠超過我們應有的程度。」
→ 深度知識拆解
《窮查理的普通常識》— 蒙格的「逆向思考」反偏誤工具
Charles Munger 把確認偏誤列為他「人類誤判心理學」25 大偏誤的核心成員——他用 Berkshire 50 年投資生涯的經驗指出:90% 的災難性決策不是因為「不夠努力」,而是因為「對自己已經相信的事過度自信」。蒙格的解方是「Invert, always invert(反過來思考,永遠反過來思考)」——在試圖證明一個假設前,先全力嘗試推翻它;在投資一家公司前,先列出「這家公司會在什麼情境下倒閉?」清單;在採納一個論點前,先寫下「最聰明的反對者會怎麼批評它?」。這個動作把「主動找反證」從一個飄渺的美德,變成可操作的決策流程——這就是為什麼蒙格能在 50 年內避開大多數投資災難的關鍵心智習慣。
「我從不允許自己對任何議題持有意見,除非我能比反方更有力地論證對方的立場。」
→ 深度知識拆解
《人慈》— 確認偏誤的社會放大效應
Rutger Bregman 在《人慈》裡把確認偏誤從個人層面提升到社會層面——他指出新聞媒體、社群演算法、政治論述全都建構在「確認偏誤的回收引擎」之上:媒體報導符合既定敘事的事件、忽視矛盾案例;社群演算法推送你會點讚的內容、過濾你會反對的聲音。這個放大機制讓「個人偏誤」演變成「集體偏誤」——錯誤的信念透過重複變成「常識」,最後連質疑它本身都顯得可笑。Bregman 用「人性本善 vs. 人性本惡」的世紀辯論為例——大量證據支持人性合作的本能,但「壞人故事比好人故事更搶眼」這個媒體偏好,讓社會集體相信了一個與證據相反的人性觀。對抗社會層級的確認偏誤,需要主動接觸「你不會自己選的資訊源」——而這在演算法時代極其困難。
「一個錯誤的信念,只要被重複足夠多次,就能變成常識,甚至被當作不可動搖的真理。」
→ 深度知識拆解
《致富心態》— 投資人最致命的偏誤
Morgan Housel 在《致富心態》裡指出——確認偏誤是投資領域最系統性、也最昂貴的單一偏誤。投資人會主動關注支持自己持股的新聞、忽視警訊;會把套牢的股票合理化為「長期持有」、把賣對的股票解讀為「自己有眼光」。Housel 用一個極具殺傷力的觀察:投資人不是因為「不夠聰明」而虧錢,是因為「太想證明自己是對的」——這個對「自我形象」的維護成本,遠高於市場的隨機波動。Housel 的解方很簡單但反直覺:接受「我大部分判斷都是錯的」這個前提,然後用指數投資這種「不需要持續對的策略」來避開確認偏誤的陷阱——你不需要相信任何特定公司會贏,你只需要相信「整體市場長期向上」這個更弱、但也更可靠的命題。
「投資不是高 IQ 打敗低 IQ 的遊戲,是控制情緒打敗控制不住情緒的遊戲——而控制情緒的最大敵人就是確認偏誤。」
→ 深度知識拆解
為什麼重要
我自己對確認偏誤最深的領悟,來自一個慘痛的投資經驗——2018 年我重押了一家我「研究透了」的公司。我讀了它所有的財報、聽了 CEO 所有的訪談、加入了它的投資人社群、訂閱了所有看好它的分析師。6 個月內我蒐集了上百篇關於它的資料,每一篇都讓我更確信「這是被市場低估的隱形冠軍」。一年後股價跌了 60%,我才在虧損中發現一個冷酷的事實——我蒐集的「上百篇資料」99% 是看好者寫的;我加入的「投資人社群」全是死忠多頭;我「研究透了」的本質是「只研究了支持我的論點」。我以為我在做盡職調查,實際上我是在用 6 個月的時間,把確認偏誤包裝成「深度研究」。
那次虧損之後,我把確認偏誤當成比任何技術分析、財報指標、宏觀策略都更核心的投資課題——因為其他工具都假設「判斷是客觀的」,但確認偏誤證明這個前提本身就不成立。我現在做任何重大決策前都強制自己問三個問題:「我最強的反方論點是什麼?」、「如果我錯了,會是因為什麼?」、「有沒有任何資訊源是我系統性地避開的?」。這三個問題每次都讓我發現自己之前「確信」的事其實漏洞百出——確認偏誤對我最大的禮物,不是讓我變得更聰明,是讓我接受了「我的大腦不會自己對抗自己」這個事實,然後用流程而非意志力來補足這個結構性缺陷。我認為這是所有人在 30 歲前最該內化的認知工具——因為幾乎所有人生重大錯誤的源頭,都不是「資訊不夠」,而是「對手上資訊過度確信」。
日常實例
-
政治立場的回音室:支持立場 A 的人,每天滑開的新聞 90% 來自立場 A 的媒體、Facebook 推送的 90% 是立場 A 的朋友、Line 群組的 90% 是立場 A 的轉發。他主觀感覺「全世界都這樣想」,因為他真的「只看到全世界這樣想的人」——但實際上是他自己過濾了一個閉環的資訊宇宙。立場 B 的人也是一模一樣的結構,雙方都覺得「對方完全脫離現實」。這不是誰愚蠢,是確認偏誤透過演算法被工業化放大的結果。
-
創業者的願景陷阱:新創 CEO 的常見悲劇——他做了 100 場用戶訪談「驗證」自己的產品想法,每次訪談都選擇性聽到支持的回饋、忽視「這不是我會買的東西」的訊號。3 年後產品上市失敗,他才發現自己花了 100 場訪談蒐集確認證據而非真實證據。Y Combinator 的 Paul Graham 一再警告創業者:「做用戶訪談時你最該注意的是『他們不感興趣』的訊號,而非『他們客氣的讚美』」——這就是對抗確認偏誤的具體應用。
-
情感關係的選擇性記憶:分手後的人回想前任時,會不成比例地記得對方的缺點、忘掉對方的優點——因為「我分手的決定是對的」這個結論需要被證據支持。同樣的人在熱戀期回想同樣的人時,會不成比例地記得優點、忽略缺點——因為「我選的人很好」這個結論需要被證據支持。同一個人、同樣的記憶素材,因為當下的結論不同,產生兩套完全相反的「客觀」回憶——這是確認偏誤在記憶層面最赤裸的展示。
-
醫師的診斷固著:研究顯示醫師一旦在問診前 30 秒形成初步診斷,後續所有問診與檢查都會傾向確認這個診斷、忽視矛盾症狀——這就是醫療誤診最大的單一原因。最佳實踐是強迫醫師在初步診斷後,列出 3 個替代診斷並針對每個重新檢視證據——這個動作能將誤診率降低 40%+。這是「程序對抗偏誤」優於「自律對抗偏誤」最直接的醫療證據。
實際應用
把確認偏誤從理論變成決策日常的三個動作:
- 重大決策前強制做「事前驗屍(Pre-Mortem)」:在做任何 6 個月以上會影響你的決策(換工作、買房、投資、創業、結婚)之前,強迫自己寫下「假設這個決策 2 年後失敗了,回頭看會是因為什麼?」清單。這個動作來自 Gary Klein 的決策科學研究——它把「找反證」從一件依賴自律的事,變成一個 30 分鐘的具體任務。寫完後仔細讀那份清單,問自己:**這些風險我有沒有真的在意?還是我把它們合理化掉了?**多數人會在這個動作裡發現自己之前「確信」的決策其實有 3-5 個沒認真考慮的盲點。
- 每月主動接觸「你不會自己選」的資訊源:每月撥 2 小時讀一份你完全不認同的媒體、聽一個你通常會反對的 podcast、跟一個立場跟你相反的朋友深聊一次——重點不是被說服,是強迫大腦處理「不一致的證據」。這個練習會讓你發現很多自己「理所當然」的觀點其實只是「從沒被挑戰過」——這是反演算法回音室最具體的個人動作。
- 採納任何強烈觀點前,寫下「最強反方論點」:在你準備為一個觀點辯護、決定、或推薦給別人之前——強迫自己用一段 200 字寫下「最聰明的反對者會怎麼批評這個觀點?」如果你寫不出來,就證明你還沒真正理解這個議題(蒙格的標準)。這個動作會讓你的觀點從「單向確信」升級為「已通過反方檢驗的判斷」——後者才是真正可靠的決策基礎。30 秒的動作,能把你跟「只是相信什麼」的群眾分開來。
→ 《快思慢想》 · 《窮查理的普通常識》 · 《人慈》 · 《致富心態》
提到這個概念的文章
-
#260《靈活思維:如何在不確定中做出聰明決策》
靈活思維:如何在不確定中做出聰明決策 — 亞當·格蘭特 的閱讀筆記。
閱讀全文 → -
#240《蒙格的智慧:查理·蒙格的投資哲學與人生智慧》
蒙格的智慧:查理·蒙格的投資哲學與人生智慧 — 彼得·貝弗林 的閱讀筆記。
閱讀全文 → -
#233 《騙局:為什麼聰明人容易上當?》
「聰明人不會上當」這個假設,往往是騙局最喜歡的漏洞。從《騙局》這本書中,我們來拆解人類決策盲點與心理機制。
閱讀全文 → -
#214 高智商陷阱:聰明人如何避免「聰明反被聰明誤」的錯誤?
聰明人為何會「聰明反被聰明誤」?從愛因斯坦到柯南道爾的故事,探討高智商陷阱的成因與破解之道。
閱讀全文 → -
#212《灰階思考:掌握投資理財的九大關鍵心得》投資新手必讀的理財書籍
讀《灰階思考》的體悟:投資最難的不是選股看財報,而是在黑白之間找到屬於自己的那個色階。
閱讀全文 → -
#198 你的大腦在騙你:《聰明思考》的心智工具箱
大部分的錯誤決策不是因為笨。 而是因為大腦有太多內建的 bug。
閱讀全文 → -
#115 別被直覺騙了:《高手決斷》的科學思考法
你以為是常識的東西可能是錯的。 科學思考不是天賦而是一種可以學的技能。
閱讀全文 → -
#110《隱性偏見》:你以為你很客觀,但你的大腦不這麼想
我們每天做的決定裡,有多少是被自己看不見的偏見影響的?這本書讓我開始懷疑自己的「客觀判斷」。
閱讀全文 → -
那個營養師推薦的東西, 你確定沒被收買?
當食品公司開始花錢請醫生和營養師當網紅,健康建議的可信度還剩多少?聊聊食品行業如何透過社群媒體改寫我們的健康觀念。
閱讀全文 → -
#50 在假訊息時代保護自己:《反智》的批判性思考指南
你以為自己很理性? 大腦的偏見可能比你想像的多。
閱讀全文 → -
YouTube 開始刪健康假資訊了, 但這夠嗎?
YouTube 宣布加強打擊醫療錯誤資訊,刪除違背科學共識的內容。但在資訊爆炸的時代,平台審查真的能解決問題嗎?
閱讀全文 →
接下來讀什麼
這些連結是 Lenny 判斷的——不是演算法推的。點一個看看思路能不能延伸。
對照的概念
明確對立、幫你意識到自己站哪派- 逆向思考 尚未建立
- 反證原則 尚未建立
- 強意見鬆持有 尚未建立
更深一層
你懂了這個,接下來能走的地方- 回音室效應 尚未建立
- 極化 尚未建立