Showing Posts From

信賴義務

MIT 教授 Andrew Lo:AI 已經比你懂得多,但它不會因為建議錯誤而坐牢——你真正的護城河是『法律責任』

MIT 教授 Andrew Lo:AI 已經比你懂得多,但它不會因為建議錯誤而坐牢——你真正的護城河是『法律責任』

Andrew Lo:你的護城河不是「人情味」,是「出事時會被抓去關」 Andrew Lo 是麻省理工學院史隆管理學院(MIT Sloan)的金融學講座教授,也是 MIT 金融工程實驗室(Laboratory for Financial Engineering)的主任。他跟研究生 Jillian Ross 正在研究一個很尷尬的問題:一個每天處理 ChatGPT 投資諮詢的 AI,能不能真的「取代」理財顧問? 2026 年 4 月 6 日,他在 CNBC 的一篇報導 中給了一個讓整個理財顧問產業都該貼在牆上的答案。他沒有說「AI 不夠聰明」、「AI 缺乏同理心」、「AI 不懂人性」——這些都是已經被講爛的安慰話。他講的是一個更冷、更結構性的觀察:"The problem that we have to solve is not whether AI has enough expertise. The answer right now is, clearly, AI has the expertise. What they don't have is that fiduciary duty. They don't have the ability to suffer consequences if they make a mistake to the same degree that a human advisor does." (我們要解決的問題,不是 AI 夠不夠專業。答案很清楚——AI 已經具備了專業。AI 缺的是信賴義務。它不會像人類顧問那樣,為了犯錯而承擔同等的後果。)Lo 的整個框架可以濃縮成一個字:teeth(牙齒)。他說,「把客戶利益放在自己前面」這句理財業每個人都在講的話,如果沒有法律責任撐腰,就是「沒有牙齒」的口號。 「信賴義務缺口」框架:專業 vs. 後果的不對稱 要理解 Lo 的邏輯,要先區分兩件事:knowledge(知識)和 accountability(後果承擔)。 AI 的知識是可以無限複製的。一個 LLM 讀完了全世界的金融教科書、CFP 考題、SEC 判例,它的「專業儲量」在技術上已經超過任何一個單一顧問。這件事不必爭辯,Lo 自己就承認了。 但後果不能被訓練、不能被複製、不能被模擬。一個人類顧問如果違反信賴義務,他會面對什麼?SEC 或 FINRA 的行政處分 客戶提起的民事求償 嚴重時的刑事起訴 吊照,職業生涯結束 房子被拍賣、家人被連累這些後果在 Lo 眼中不是「副作用」,而是信賴義務真正有效的原因。"Putting client interests first has no teeth without responsibility or legal liability." (「以客戶利益為先」這句話,如果沒有責任承擔和法律責任在後面,根本沒有牙齒。)一個 AI 聊天機器人給了錯誤建議,它的「後果」是什麼?它不會被吊照、不會被監禁、不會失去家人、連電都不會停。就算 OpenAI 被告到破產,那個 GPT-5 版本的模型還是存在、還是在跑。它和你的損失之間,沒有一條承擔鏈。 這就是 Lo 講的「信賴義務缺口」(fiduciary gap)。而這個缺口,不是產品改版、也不是 prompt engineering 可以填補的——它是一個法律結構問題。 三個從「信賴義務缺口」推導出來的業務定位 1. 把「後果承擔」做成你產品的第一頁(Accountability as a Product) 做法: 不要再用「我有 15 年經驗」、「我很用心」當作差異化。把你的法律責任具體化、寫出來,讓客戶看到。 很多顧問談差異化時,講的都是軟性的東西——「我會聽你說話」、「我了解你的家庭」、「我有熱情」。這些 AI 都能模擬,而且越來越逼真。Lo 的框架告訴你,真正不能被 AI 模擬的是:你有東西可以被拿走,它沒有。 試著在客戶第一次會談時這樣開場:「我想先告訴你一件 AI 不會告訴你的事。今天我給你的每一個建議,如果被證明是為了我自己的佣金而犧牲你的利益,我會面對金管會的調查、民事賠償,嚴重一點我會失去執照、失去這個工作。我所有的建議後面,都有我的職業生涯在擔保。你在 ChatGPT 上問到的任何建議,背後沒有人承擔這種責任。」這段話不是銷售話術,是把法律結構翻譯給客戶聽。它比任何「我很專業」都更具體、更不可被複製。 2. 幕後用 AI、幕前做人:Schwab 研究揭露的「10% 整合鴻溝」 做法: 把 AI 當成你無形的副手,但絕對不要讓客戶以為他們在跟 AI 互動。 2026 年 1 月 Schwab Advisor Services 發布的 2026 RIA & AI Research Study(訪問 533 位美國註冊投資顧問)揭露了一個很有意思的現象:63% 的獨立顧問已經在用 AI,但只有 10% 真正把它整合進業務策略。剩下的 53% 在做什麼?記筆記、草擬 email、整理會議紀錄。 Lo 的框架告訴我們這不是「整合不足」,而是一種正確的本能直覺。如果你把 AI 推到客戶面前,說「這是我用來分析你資產配置的工具」,你等於在幫 AI 跟你搶位置——客戶很快就會想:「那我自己用 ChatGPT 不就好了?」 正確的分工是:後台(AI 的戰場):資料整理、歷史案例檢索、稅務試算、草擬報告、準備會議摘要、回覆例行信件 前台(你的戰場):判斷、建議、承擔、在客戶面前說出「我建議你這樣做,因為我為這個建議負責」AI 越強,客戶越需要一個「人」來把 AI 的輸出翻譯成可以被追究的承諾。這個翻譯過程,就是你的收費合理性。 3. 對年長客戶,你的「存在」本身就是服務 做法: 不要把時間浪費在教 70 歲客戶用 AI,把時間花在成為他們「不需要用 AI」的原因。 Cerulli Associates 2026 Q1 《U.S. Retail Investor Edition》 報告揭露了一個會讓很多年輕顧問驚訝的數據:50 歲以下富裕投資人:60% 以上對 AI 理財感到安心 50–59 歲:42% 70 歲以上:只有 16%整體來說,只有 38% 的富裕投資人覺得 AI 理財服務讓他們安心——而且這個數字跟 2024 年的 39% 相比幾乎沒動。 換句話說,人對 AI 理財的不信任,不是「時間會解決的問題」。它是一個跟年齡、資產規模、風險敏感度強相關的結構性偏好。 Cerulli 的研究分析師 John McKenna 特別點出:"If AI is to play a role in their business operations, advisors would do well to disclose where it is used, how clients' sensitive information will be protected, and how it enhances, rather than detracts from, the advisor-client relationship." (如果 AI 要在業務運作中扮演角色,顧問最好明確揭露 AI 用在哪裡、客戶敏感資訊怎麼被保護、以及 AI 是如何「強化」而不是「削弱」顧問跟客戶的關係。)對 70 歲以上、擁有退休金、房產、保險、繼承問題的高資產客戶來說,他們要的不是「更有效率的建議」,是一個會為這個建議負責的人。他們付你的錢,買的不只是專業,是承擔。 這是為什麼 Lo 跟他的共同研究者 Jillian Ross 目前在做的事情這麼重要——他們嘗試用 RAG(檢索增強生成)技術,把過去所有金融訴訟的判例訓練進 AI,想看看能不能用技術重建出一個「模擬的信賴義務」。研究還在早期階段,結果是:ChatGPT 4.0 表現「相對公平」,但其他模型吸收了網路資料裡的偏見(特別是性別偏見)。 Lo 自己也承認,在政策沒有同步改變之前——也就是,在監管機構沒有給 AI 建議加上法律後果之前——「我們不會走到可以把這些決定完全交給 AI 的那一天」。 信賴義務不會貶值,反而會升值 很多顧問現在的焦慮是:AI 會不會讓我的專業被稀釋?Lo 的框架給了一個反直覺的答案:AI 越強,信賴義務越值錢。 想像一個世界,AI 可以在三秒內給出一份比你更詳細的退休規劃建議。在這個世界裡,客戶最需要的不是「另一份建議」,而是一個會為這份建議的後果站出來的人。這個人的稀缺性,不會因為 AI 變強而降低——反而會因為「不負責任的免費建議」變得氾濫而變得更稀缺。 這就是為什麼 Lo 的結論不是「AI 會取代顧問」,也不是「顧問永遠不會被取代」。他的結論更精準: AI 把專業變成了 commodity,但把信賴義務變成了 premium。 你的工作不是跟 AI 比誰懂得多——那場比賽你注定會輸。你的工作是讓客戶清楚看到,你的建議後面有什麼 AI 永遠不會有的東西:一個可以被追究、可以被處罰、可以被告上法庭的『你』。 這聽起來很沈重。但在一個人人都能免費拿到「80 分建議」的時代,一個願意為建議負責的人,比任何時候都更值錢。📎 Andrew Lo 在 CNBC 的這篇訪談只是冰山一角。如果你想看他跟 Jillian Ross 完整的研究方法(包括他們怎麼用 RAG 把金融訴訟判例訓練進 AI、ChatGPT 4.0 跟其他模型在「公平性」上的差距、以及他們為什麼認為政府必須修法才能讓 AI 具備真正的信賴義務),建議直接讀 MIT Sloan 的完整訪談。想看 Schwab 研究裡「10% 真正整合 AI 的顧問」到底在做什麼用例,以及 2026 年 AI Summits 的議程,可以到 Schwab Advisor AI in Action 2026 專頁 看全貌。而 Cerulli 的年齡分層數據跟合規建議,原始新聞稿 有完整的圖表。