Showing Posts From
護城河
MIT 教授 Andrew Lo:AI 已經比你懂得多,但它不會因為建議錯誤而坐牢——你真正的護城河是『法律責任』
Andrew Lo:你的護城河不是「人情味」,是「出事時會被抓去關」 Andrew Lo 是麻省理工學院史隆管理學院(MIT Sloan)的金融學講座教授,也是 MIT 金融工程實驗室(Laboratory for Financial Engineering)的主任。他跟研究生 Jillian Ross 正在研究一個很尷尬的問題:一個每天處理 ChatGPT 投資諮詢的 AI,能不能真的「取代」理財顧問? 2026 年 4 月 6 日,他在 CNBC 的一篇報導 中給了一個讓整個理財顧問產業都該貼在牆上的答案。他沒有說「AI 不夠聰明」、「AI 缺乏同理心」、「AI 不懂人性」——這些都是已經被講爛的安慰話。他講的是一個更冷、更結構性的觀察:"The problem that we have to solve is not whether AI has enough expertise. The answer right now is, clearly, AI has the expertise. What they don't have is that fiduciary duty. They don't have the ability to suffer consequences if they make a mistake to the same degree that a human advisor does." (我們要解決的問題,不是 AI 夠不夠專業。答案很清楚——AI 已經具備了專業。AI 缺的是信賴義務。它不會像人類顧問那樣,為了犯錯而承擔同等的後果。)Lo 的整個框架可以濃縮成一個字:teeth(牙齒)。他說,「把客戶利益放在自己前面」這句理財業每個人都在講的話,如果沒有法律責任撐腰,就是「沒有牙齒」的口號。 「信賴義務缺口」框架:專業 vs. 後果的不對稱 要理解 Lo 的邏輯,要先區分兩件事:knowledge(知識)和 accountability(後果承擔)。 AI 的知識是可以無限複製的。一個 LLM 讀完了全世界的金融教科書、CFP 考題、SEC 判例,它的「專業儲量」在技術上已經超過任何一個單一顧問。這件事不必爭辯,Lo 自己就承認了。 但後果不能被訓練、不能被複製、不能被模擬。一個人類顧問如果違反信賴義務,他會面對什麼?SEC 或 FINRA 的行政處分 客戶提起的民事求償 嚴重時的刑事起訴 吊照,職業生涯結束 房子被拍賣、家人被連累這些後果在 Lo 眼中不是「副作用」,而是信賴義務真正有效的原因。"Putting client interests first has no teeth without responsibility or legal liability." (「以客戶利益為先」這句話,如果沒有責任承擔和法律責任在後面,根本沒有牙齒。)一個 AI 聊天機器人給了錯誤建議,它的「後果」是什麼?它不會被吊照、不會被監禁、不會失去家人、連電都不會停。就算 OpenAI 被告到破產,那個 GPT-5 版本的模型還是存在、還是在跑。它和你的損失之間,沒有一條承擔鏈。 這就是 Lo 講的「信賴義務缺口」(fiduciary gap)。而這個缺口,不是產品改版、也不是 prompt engineering 可以填補的——它是一個法律結構問題。 三個從「信賴義務缺口」推導出來的業務定位 1. 把「後果承擔」做成你產品的第一頁(Accountability as a Product) 做法: 不要再用「我有 15 年經驗」、「我很用心」當作差異化。把你的法律責任具體化、寫出來,讓客戶看到。 很多顧問談差異化時,講的都是軟性的東西——「我會聽你說話」、「我了解你的家庭」、「我有熱情」。這些 AI 都能模擬,而且越來越逼真。Lo 的框架告訴你,真正不能被 AI 模擬的是:你有東西可以被拿走,它沒有。 試著在客戶第一次會談時這樣開場:「我想先告訴你一件 AI 不會告訴你的事。今天我給你的每一個建議,如果被證明是為了我自己的佣金而犧牲你的利益,我會面對金管會的調查、民事賠償,嚴重一點我會失去執照、失去這個工作。我所有的建議後面,都有我的職業生涯在擔保。你在 ChatGPT 上問到的任何建議,背後沒有人承擔這種責任。」這段話不是銷售話術,是把法律結構翻譯給客戶聽。它比任何「我很專業」都更具體、更不可被複製。 2. 幕後用 AI、幕前做人:Schwab 研究揭露的「10% 整合鴻溝」 做法: 把 AI 當成你無形的副手,但絕對不要讓客戶以為他們在跟 AI 互動。 2026 年 1 月 Schwab Advisor Services 發布的 2026 RIA & AI Research Study(訪問 533 位美國註冊投資顧問)揭露了一個很有意思的現象:63% 的獨立顧問已經在用 AI,但只有 10% 真正把它整合進業務策略。剩下的 53% 在做什麼?記筆記、草擬 email、整理會議紀錄。 Lo 的框架告訴我們這不是「整合不足」,而是一種正確的本能直覺。如果你把 AI 推到客戶面前,說「這是我用來分析你資產配置的工具」,你等於在幫 AI 跟你搶位置——客戶很快就會想:「那我自己用 ChatGPT 不就好了?」 正確的分工是:後台(AI 的戰場):資料整理、歷史案例檢索、稅務試算、草擬報告、準備會議摘要、回覆例行信件 前台(你的戰場):判斷、建議、承擔、在客戶面前說出「我建議你這樣做,因為我為這個建議負責」AI 越強,客戶越需要一個「人」來把 AI 的輸出翻譯成可以被追究的承諾。這個翻譯過程,就是你的收費合理性。 3. 對年長客戶,你的「存在」本身就是服務 做法: 不要把時間浪費在教 70 歲客戶用 AI,把時間花在成為他們「不需要用 AI」的原因。 Cerulli Associates 2026 Q1 《U.S. Retail Investor Edition》 報告揭露了一個會讓很多年輕顧問驚訝的數據:50 歲以下富裕投資人:60% 以上對 AI 理財感到安心 50–59 歲:42% 70 歲以上:只有 16%整體來說,只有 38% 的富裕投資人覺得 AI 理財服務讓他們安心——而且這個數字跟 2024 年的 39% 相比幾乎沒動。 換句話說,人對 AI 理財的不信任,不是「時間會解決的問題」。它是一個跟年齡、資產規模、風險敏感度強相關的結構性偏好。 Cerulli 的研究分析師 John McKenna 特別點出:"If AI is to play a role in their business operations, advisors would do well to disclose where it is used, how clients' sensitive information will be protected, and how it enhances, rather than detracts from, the advisor-client relationship." (如果 AI 要在業務運作中扮演角色,顧問最好明確揭露 AI 用在哪裡、客戶敏感資訊怎麼被保護、以及 AI 是如何「強化」而不是「削弱」顧問跟客戶的關係。)對 70 歲以上、擁有退休金、房產、保險、繼承問題的高資產客戶來說,他們要的不是「更有效率的建議」,是一個會為這個建議負責的人。他們付你的錢,買的不只是專業,是承擔。 這是為什麼 Lo 跟他的共同研究者 Jillian Ross 目前在做的事情這麼重要——他們嘗試用 RAG(檢索增強生成)技術,把過去所有金融訴訟的判例訓練進 AI,想看看能不能用技術重建出一個「模擬的信賴義務」。研究還在早期階段,結果是:ChatGPT 4.0 表現「相對公平」,但其他模型吸收了網路資料裡的偏見(特別是性別偏見)。 Lo 自己也承認,在政策沒有同步改變之前——也就是,在監管機構沒有給 AI 建議加上法律後果之前——「我們不會走到可以把這些決定完全交給 AI 的那一天」。 信賴義務不會貶值,反而會升值 很多顧問現在的焦慮是:AI 會不會讓我的專業被稀釋?Lo 的框架給了一個反直覺的答案:AI 越強,信賴義務越值錢。 想像一個世界,AI 可以在三秒內給出一份比你更詳細的退休規劃建議。在這個世界裡,客戶最需要的不是「另一份建議」,而是一個會為這份建議的後果站出來的人。這個人的稀缺性,不會因為 AI 變強而降低——反而會因為「不負責任的免費建議」變得氾濫而變得更稀缺。 這就是為什麼 Lo 的結論不是「AI 會取代顧問」,也不是「顧問永遠不會被取代」。他的結論更精準: AI 把專業變成了 commodity,但把信賴義務變成了 premium。 你的工作不是跟 AI 比誰懂得多——那場比賽你注定會輸。你的工作是讓客戶清楚看到,你的建議後面有什麼 AI 永遠不會有的東西:一個可以被追究、可以被處罰、可以被告上法庭的『你』。 這聽起來很沈重。但在一個人人都能免費拿到「80 分建議」的時代,一個願意為建議負責的人,比任何時候都更值錢。📎 Andrew Lo 在 CNBC 的這篇訪談只是冰山一角。如果你想看他跟 Jillian Ross 完整的研究方法(包括他們怎麼用 RAG 把金融訴訟判例訓練進 AI、ChatGPT 4.0 跟其他模型在「公平性」上的差距、以及他們為什麼認為政府必須修法才能讓 AI 具備真正的信賴義務),建議直接讀 MIT Sloan 的完整訪談。想看 Schwab 研究裡「10% 真正整合 AI 的顧問」到底在做什麼用例,以及 2026 年 AI Summits 的議程,可以到 Schwab Advisor AI in Action 2026 專頁 看全貌。而 Cerulli 的年齡分層數據跟合規建議,原始新聞稿 有完整的圖表。
AI 會取代你嗎?管 170 億美元資產的 Graham Weaver 用「AI 四層論」告訴你:你根本不在被取代的那一層
打開任何一個業務員的手機群組,你會看到同樣的焦慮訊息:「我們會不會被 AI 取代?」「客戶以後都去問 ChatGPT 怎麼辦?」「我的業務技能還能撐幾年?」 Alpine Investors 的創辦人 Graham Weaver,在 2026 年 4 月 7 日的 My First Million Podcast 給了一個讓人意外的答案。這位管著 170 億美元資產、旗下擁有美國最大住宅 HVAC 服務商 Apex Service Partners(107 個品牌、8,000 名技師、年營收 13 億美元)的私募股權老闆說:真正會被 AI 重創的,不是傳統服務業,而是那些所有人以為會贏的 AI 新創公司。 他的論點來自他在史丹佛商學院教的「AI 四層論」,原版發表在他 2026 年的部落格文章 Four AI Truths That Will Define The Next Decade。拆開來看,這個框架和大多數業務員的直覺完全相反。 Graham Weaver:管 170 億美元資產的他,用一個三明治比喻拆穿 AI 新創的估值泡沫 Weaver 2001 年在史丹佛商學院宿舍裡創辦 Alpine,20 幾年來做的事很無聊:買下一家家從外表看毫無吸引力的傳統服務業公司(HVAC、水電、IT 服務、財富管理),然後派一個 28 歲的 MBA 去當 CEO,慢慢把它做大。在矽谷瘋狂追逐 AI 新創的這三年,他反而加碼進傳統服務業,2024 年底又成立了財富管理整合平台 Aspen Standard Wealth,一年內併了五家財務顧問公司。 他不是看不懂 AI,而是比誰都看得清楚。2026 年 4 月上 MFM 的時候,他直接把應用層的估值狂熱形容成一場「血浴」:年營收 200 萬美元、估值 5 億美元的 AI 新創,兩年後歸零的故事天天上演。但在血浴的另一邊,他旗下的 HVAC 公司用同一批工具安靜地把成交率翻倍。 AI 四層論:基礎設施、LLM、應用層、使用案例層,錢往哪一層流? Weaver 把整個 AI 產業畫成一個三明治。最底層是 基礎設施,包括資料中心、晶片、能源;中間那層,他形容是「三明治的肉」,也就是 LLM(大型語言模型),像 ChatGPT、Gemini、Claude;再上面是 應用層(app layer),建在 LLM 上面的各種 SaaS 工具;最上面是 使用案例層(use case layer),實際把 AI 用在某個行業、某個客戶關係上的企業。"LLMs such as ChatGPT, Gemini, or Claude. These are the center of the technology—like the meat of a sandwich." (ChatGPT、Gemini、Claude 這些 LLM 是整個技術的核心,就像三明治裡的肉。)他的重點在於:這四層的賺錢結構完全不同。基礎設施要砸幾千億蓋資料中心,只有少數巨頭玩得起;LLM 層是三、四家公司的軍備競賽;應用層是血流成河,因為一個 AI SaaS 做出來的功能,下個月另外五家就能複製;真正穩定賺錢的,是最上面那一層:使用案例層。 為什麼?因為使用案例層的人,手上已經有三樣 AI 公司花再多錢都買不到的東西:穩定的客戶關係、多年累積的客戶資料、現成的現金流。 技巧一:辨識你在哪一層,你不在會被取代的那一層(Know Which Layer You're On) 做法: 問自己三個問題:「我手上有沒有客戶資料?」「客戶是因為信任我才成交,還是因為產品功能?」「如果我停止服務,客戶會不會有實質損失?」 三個答案都是「有」的人,你就在使用案例層。 以保險業務員為例:你手上有客戶 10 年來的保單紀錄、理賠紀錄、家庭結構變動、風險偏好,這些資料,OpenAI 拿不到,Anthropic 也拿不到。Weaver 在 2026 年 4 月的部落格裡直接寫:"That data is yours, and that means you have the right to win." (那些資料是你的,這代表你有贏的權利。)這句話的反面意思更重要:一個只會用 GPT 生成話術、但沒有自己客戶資料的新業務員,他才是在應用層,才是會被取代的那個。客戶關係不是 API 呼叫能複製的。一個你認識 15 年、送過三個小孩禮物、幫過兩次重大理賠的客戶,AI 沒辦法把他搶走,因為 AI 連入口都沒有。 技巧二:把 AI 當尾風,不是當引擎(Use AI as a Tailwind, Not an Engine) 做法: 不要試著跟 AI 新創競爭「誰能做出最聰明的保險顧問機器人」。找出你現在流程裡最耗時的環節,用 AI 把它從 4 小時縮到 4 秒。 Weaver 舉的對比很殘忍:一家老派 HVAC 公司收到潛在客戶詢問,平均 4 小時後才回電;他旗下用了 AI Agent 的公司,4 秒內就打電話回去。同一批名單、同一批技師,差別只在有沒有把 AI 當放大器,但成交率差了好幾倍。 這個邏輯拿到業務工作上完全通用:「客戶上次理賠後 3 個月了,該追訊息」:AI 提醒你,你親自打電話。 「這份建議書客戶昨天看了 8 分鐘但沒回我」:AI 告訴你,你決定怎麼切入。 「這個保單到期前 60 天要主動聯絡」:AI 排進行程,你去做人的那一半。AI 處理掉所有「應該做但沒時間做」的長尾工作,你把時間留給那些只有人能做的:眼神、停頓、同理心、判斷。Weaver 反覆強調「use case layer wins」,講的就是這件事:AI 是你的尾風,不是取代你方向盤的那個東西。 技巧三:現在種橡樹,把客戶資料結構化,即使你還不知道要拿它做什麼(Plant the Oak Tree Now) 做法: 今天就開始把你手上的客戶資料數位化、結構化,即使你現在還不知道要拿這些資料做什麼。 Weaver 反覆引用一句諺語:"The best time to plant an oak tree was 20 years ago. The second-best time is now." (種橡樹最好的時間是 20 年前,第二好的時間是現在。)他對 Alpine 旗下 HVAC 公司、財富管理公司的指令都一樣:先不要管 AI 怎麼用,先把過去 10 年的客戶紀錄、服務紀錄、通話紀錄全部數位化。因為他知道一件事:當 LLM 三年後再變聰明 10 倍的時候,決定誰贏的不是「誰的模型比較厲害」,而是「誰餵進去的資料比較完整」。 這對個人業務員也成立。你現在手上有多少客戶資訊是還散在名片盒、Line 對話紀錄、你腦袋裡?把它們搬出來,放進一個結構化的地方,即使只是一個 Google Sheet。這就是你的橡樹。Weaver 在 2026 年 4 月的那篇文章結尾寫:"In terms of AI, it's only 1995." (就 AI 的發展階段來說,現在才 1995 年而已。)換句話說,你還有時間。但你得今天就動手。📎 Graham Weaver 的原始部落格 Four AI Truths That Will Define The Next Decade 還有兩段這篇沒涵蓋的內容很值得看:他拆解 1997 年 Kasparov 對 Deep Blue 那場棋賽、用晶體管數量的爆炸解釋「為什麼資料量 + 運算力會讓機器看起來像人在思考」,以及拿 1995 年的 Walmart 和 Amazon 做對比、回答「為什麼在『過度炒作期』堅持投資的人會贏」。他在 My First Million Podcast 那集還聊了 Alpine 怎麼把一間 800 萬美元的小公司做到 5 億美元、以及他對「哪些護城河擋得住 AI、哪些擋不住」的完整清單,推薦配著聽。