去年有個同事跟我說, 他用 ChatGPT 寫完了一份原本要花三天的技術文件。 我的第一反應不是「好厲害」, 而是「那我們還需要技術寫作嗎?」
後來讀了 Ethan Mollick 的 《Co-Intelligence》, 才發現我問錯了問題。
不是取代, 是重新分工
Mollick 是華頓商學院的教授, 但他不是那種在象牙塔裡寫 AI 論文的學者。 他從 ChatGPT 上線第一天就開始在課堂上用它、 在研究中測它、 甚至要求學生必須用 AI 完成作業。
他得出的結論很簡單—— AI 不是工具, 是隊友。
差別在哪? 工具你告訴它做什麼它就做什麼。 隊友你需要跟它協作、 給它 context、 有時候還得修正它犯的錯。
把 AI 當工具用的人, 得到的是效率。 把 AI 當隊友用的人, 得到的是能力的延伸。
Jagged Frontier:AI 的能力邊界不是一條直線
這本書裡我印象最深的概念叫 Jagged Frontier。
大部分人對 AI 的認知是線性的—— 它很厲害或它很笨。 但 Mollick 說 AI 的能力邊界是鋸齒狀的。 在某些任務上它比 95% 的人類強(寫商業計畫書、 分析數據、 生成程式碼), 但在另一些任務上它連及格都不行(需要真實世界經驗的判斷、 涉及倫理的決策)。
問題是你不知道那條鋸齒線在哪裡。
最危險的不是 AI 做不到的事, 而是你以為它做得到、 但其實它在亂講的時候。
這讓我想到自己用 AI 寫程式的經驗。 簡單的 CRUD 和 boilerplate 它寫得又快又好。 但一碰到 edge case 多的商業邏輯, 它生成的 code 看起來對、 跑起來也對、 但在某個極端情境下會出錯—— 而且你第一眼看不出來。
越是看起來完美的 AI 輸出, 越需要人類的判斷力。
四種跟 AI 協作的原則
Mollick 提出了四個原則。 不是理論框架, 是他自己每天用 AI 的操作手冊:
1. Always invite AI to the table
不管什麼任務, 先讓 AI 試一次。 不是因為它一定做得好, 而是你需要知道它在這件事上的能力邊界在哪。
2. Be the human in the loop
AI 生成的東西永遠需要人類檢查。 不是偶爾, 是每次。 這不是因為 AI 笨, 是因為它不知道自己什麼時候在犯錯。
3. Treat AI like a person (but tell nobody)
Mollick 的研究發現, 用對話的方式跟 AI 互動(給它角色、 給它 context、 跟它來回討論)比精心設計 prompt 更有效。 就像跟一個聰明但沒有背景知識的新同事說話一樣。
4. Assume this is the worst AI you’ll ever use
今天的 AI 已經是你未來會用到的最差版本。 現在覺得「還不夠好」的地方, 一年後可能就不是問題了。
對工程師來說意味著什麼
讀完這本書之後, 我回頭看自己團隊的工作流程, 發現了一個盲點。
我們把 AI 當成「加速器」—— code completion、 自動寫測試、 幫忙 debug。 但 Mollick 說的是更根本的事—— AI 會改變工作本身的定義。
以前一個 junior 工程師需要三年才能獨立負責一個模組。 現在有 AI 的輔助, 這個時間可能縮短到一年。 但這不代表 junior 不需要學了—— 恰好相反, 他們需要學的東西變了。 從「怎麼寫 code」變成「怎麼判斷 AI 寫的 code 是不是對的」。
之前讀 Cal Newport 的 《Slow Productivity》 的時候就有類似的感覺—— 在一個加速的世界裡, 深度思考的能力反而更稀缺。 AI 讓所有人都能快速產出, 但能判斷品質的人會變得更有價值。
這本書不會過時(但會很快不夠用)
說一個有趣的矛盾。
Mollick 在書的最後說, 這本書寫的每一個觀點都有可能在出版半年後就被新的 AI 發展推翻。 他不是在謙虛, 是在陳述事實。
但這正是這本書最有價值的地方—— 它教你的不是怎麼用 ChatGPT 4 或 Claude 3.5。 它教你的是一種思維方式—— 怎麼在能力邊界不確定的情況下, 跟一個不完美的智能體協作。
這個能力不會因為 GPT 升到第幾版就過時。 因為不管 AI 變得多強, 人類的判斷力永遠是最後一道防線。
📚 書籍資訊
- 書名:Co-Intelligence: Living and Working with AI
- 作者:Ethan Mollick
- 出版:2024
- 核心主題:AI 時代的人機協作模式與工作方式轉型
喜歡這篇文章?
我每天整理一本好書的精華,直接寄到你的信箱。
加入 300+ 位讀者,一起用閱讀提升自己。