“Containment is not possible.”
讀到這句的時候, 我停下來想了一下。
不是因為這句話有多聳動, 而是它讓我意識到一件事: 我們正在打造的東西, 可能連我們自己都控制不住。
這不是科幻小說的情節

Mustafa Suleyman 是 DeepMind 的共同創辦人, 現在跑去微軟當 AI 的負責人。 他在這本書裡講的事情很直接: AI 跟合成生物學這兩個技術, 正在以指數級的速度發展, 而且它們有一個共同特性 — 一旦技術成熟, 成本會快速下降到幾乎人人可得。
這跟過去的技術革命不一樣。
核武需要鈾礦、需要國家級的資源。 但訓練一個 AI 模型? 幾年前還要幾億美金, 現在開源社群已經在筆電上跑了。
技術的民主化, 同時也是風險的民主化。
這句話聽起來很抽象, 但想想看: 當每個人都能用 AI 寫程式、 生成影像、 甚至設計分子結構的時候, 「誰有能力造成大規模傷害」這個問題的答案, 就從「少數國家」變成「很多人」。
Containment 為什麼失敗?

書裡花了很大的篇幅在講一件事: 為什麼傳統的管制手段對這波技術浪潮不管用。
他列了幾個原因, 其中一個我覺得特別真實 — incentive。
開發 AI 的公司有巨大的商業動機往前衝。 學術界有發表論文的壓力。 國家之間有地緣政治的競爭。 每個人都有「不能落後」的焦慮。
在這種情況下, 喊「慢下來」的人, 通常不是被忽略就是被超越。
這不是邪惡, 這是結構。
我在團隊裡也遇過類似的狀況。 不是沒有人想做對的事, 而是當激勵機制指向另一個方向的時候, 「對的事」很容易就被擠到後面去。
那怎麼辦?

Suleyman 沒有給一個漂亮的答案。 他承認自己也不確定。
但他提了一個框架, 叫 containment problem。 意思是: 我們需要找到方法, 在技術帶來巨大好處的同時, 把最壞的情況控制在可接受的範圍內。
聽起來很合理, 對吧?
問題是執行。
他提到幾個可能的方向: 國際協議、 技術本身的安全設計、 政府監管、 企業自律。 每一個他都分析了為什麼很難做到。
讀到這裡我有點沮喪。
但他說了一件事讓我覺得還是有希望的。
他說, 過去人類也面對過類似的時刻。 核武出現的時候, 也沒有人知道該怎麼辦。 但我們最後還是建立了某種不完美但勉強能用的體系。
關鍵不是找到完美的解法, 而是在技術全面失控之前, 建立起足夠的緩衝。
這本書讓我想到的事

之前讀《Antifragile》的時候, 塔雷伯講過一個概念: 系統的脆弱性往往來自於過度優化和缺乏冗餘。
Suleyman 講的 AI 風險, 某種程度上是同一件事的另一面。
當技術發展太快、 擴散太廣、 而且沒有內建的「煞車機制」時, 整個系統就變得很脆弱。
但這不代表我們該停止發展。
書裡有一段我很喜歡: 技術本身不是問題, 我們怎麼選擇使用它才是。
這話聽起來像老生常談。 但從一個親手打造這些技術的人嘴裡說出來, 感覺不一樣。
這本書沒有告訴你該怎麼做。
它做的事情是讓你沒辦法再假裝這個問題不存在。
而這個, 可能就是它最重要的價值。
📚 書籍資訊
- 書名:The Coming Wave
- 作者:Mustafa Suleyman
- 核心主題:AI 與合成生物學正在創造人類史上第一次「無法封鎖」的技術浪潮, 我們需要在失控之前找到 containment 的方法