Showing Posts From

業務策略

客戶用便宜 AI 比保單,吃虧 12% 卻覺得『一樣公平』:Anthropic 最新實驗,揭開保險業務員 2026 的新破口

客戶用便宜 AI 比保單,吃虧 12% 卻覺得『一樣公平』:Anthropic 最新實驗,揭開保險業務員 2026 的新破口

過去幾個月,我們在 Finfo Insights 連續寫了好幾篇關於「客戶開始用 AI 幫自己做財務決策」的文章——Princeton 的研究發現 61% 的人會被 AI 暗中引導;Insurify 變成了 ChatGPT 第一個保險通路;HubSpot 實測 證實 AI 引擎引用的不是你的 Facebook;Ezra Group 則直接點名「全方位顧問」是話術,因為客戶把報稅單丟進 ChatGPT 90 秒就拿到答案了。 這一連串的訊號都在說同一件事:客戶會用 AI 來幫自己做決定。 但 2026 年 4 月 24 日,Anthropic 官方部落格丟出的「Project Deal」實驗報告把這個討論推到了下一層——問題不在「客戶會不會用 AI」,而在「客戶用的是哪一支 AI、那支 AI 會讓他在哪裡吃虧、而他自己根本不知道」。 Anthropic 的 Project Deal:69 個員工、186 筆交易,AI 自己談、自己成交 2025 年 12 月,Anthropic 在自家舊金山辦公室開了一個內部的 Slack 二手市場——但這個市場有個怪規則:全程禁止人類介入。 每一位員工授權自己的 Claude 代理人去逛市場、聯繫對方的代理人、出價、還價、成交。每人帳戶有 $100 美元的預算(換成等值的 gift card 結算),唯一的人類動作只有一個:在實驗開始前接受 Claude 的「採訪」,告訴它你想賣什麼、想買什麼。 一週後的數字:69 個 AI 代理人 超過 500 件商品上架 成交 186 筆交易 總交易額略超過 $4,000 美元 單品中位數 $12,平均 $20.05這部分不算意外。Anthropic 用一句話形容:「we were struck by how well Project Deal worked」(我們對 Project Deal 運作得這麼好感到驚訝)。AI 代理人會主動發現匹配機會、會用自然語言談判、會折衷、會成交。其中一個員工的代理人甚至幫主人約成了一場「遛狗約會」——後來真人和狗真的依約出現。 但實驗真正可怕的部分,是 Anthropic 同步跑的對照組。 「隱形不平等」(Invisible Inequality):用 Haiku 的人多花 12%,卻給 4.06 的公平評分 Anthropic 同時跑了四個平行的市場版本:Run A 和 Run D:所有人都用 Claude Opus 4.5(當時的旗艦模型) Run B 和 Run C:每個人有 50/50 的機率被分配到 Opus 4.5 或 Claude Haiku 4.5(最小、最便宜的模型)員工不知道自己被分到哪一組。實驗結束、收完問卷之後,才告訴大家哪個 Run 是「真的」會結算的。 結果(根據 the-decoder 的整理):同一件商品 用 Opus 賣 用 Haiku 賣一顆實驗室培育紅寶石 $65 $35一台壞掉的折疊腳踏車 $65 $38跨 161 件被多次成交的商品平均下來:賣方用 Opus 比用 Haiku 多賺 $2.68/件 買方用 Opus 比用 Haiku 少花 $2.45/件 用 Opus 的人平均多成交 2.07 筆換算下來,用便宜模型的那一邊,每件交易大約多花了 12%。在一個總值 $4,000 美元的小市場裡,這已經是好幾百塊的差距。 但這還不是最詭異的地方。 最詭異的是 Anthropic 在事後問所有參與者:「你覺得自己這週的交易公平嗎?」(1–7 分制)用 Opus 的人:4.05 分 用 Haiku 的人:4.06 分"Participants with Haiku agents rated the fairness of their deals almost the same as Opus users: 4.06 versus 4.05 on the fairness scale." (用 Haiku 代理人的參與者,給自己交易的公平性評分幾乎和 Opus 使用者一樣:4.06 對 4.05。)吃虧的人完全沒意識到自己吃虧。Anthropic 把這個現象命名為 「invisible inequality」(隱形不平等),並在報告中寫了一段值得每個業務員逐字讀一次的警告:"The policy and legal frameworks around AI models that transact on our behalf simply don't exist yet." (目前還沒有任何政策或法律框架,在規範替我們做交易的 AI 模型。)這句話在 2026 年的金融與保險業,份量比看起來還重。因為當客戶開始用 AI 比較顧問、比較產品、比較條款的時候,他用的那一支 AI——是 ChatGPT 的免費版?Plus?Perplexity?Claude?某家券商埋在 App 裡的「智能助理」?——會直接決定他被推薦什麼、被略過什麼、被勸住什麼。而他不會知道。他甚至會給這個過程打 4.06 分。 三個業務員必須開始問的問題(取代「客戶懂不懂 AI」) 過去兩年大家在問「客戶懂不懂 AI」、「業務員會不會用 AI」。Project Deal 的數據在說:這兩個問題已經過時了。 下一階段真正重要的問題只有三個。 第一個問題:客戶用的是哪一支 AI?(Model Tiering) 做法: 在第一次接觸或回訪時,自然地問一句:「你最近做這類功課的時候,習慣用哪個 AI 工具?」 過去你問客戶「你都看哪一台財經節目?」是為了知道他被誰影響。現在,這個問題的 2026 年版本是「你都用哪一支 AI 做功課?」 差別在於——電視台只有那幾家,但 AI 模型背後的層級差距,比 CNBC 和地方台還大。一個用 Perplexity Pro 的客戶、一個用 ChatGPT Plus 的客戶、一個用免費版 Gemini 的客戶——你面對的,是三個拿到不同情報的人。 實際對話可能是這樣:你:「最近很多客戶會先丟一些問題給 AI 再來找我聊,我滿好奇的,您平常用哪一個?」 客戶:「ChatGPT 啊,免費的那個。」 你:「了解。那我等下回答的時候,會特別跟您說明 AI 通常會漏掉的那幾塊,因為免費版的資料截止到去年某個月,最近這半年的法規變動它接不到。」你沒有貶低 AI,你給自己一個合法的位置:「補資訊缺口的人」。 第二個問題:那支 AI 會在哪裡漏看?(Blind Spot Mapping) 做法: 對每一支主流 AI 工具,建立你自己的「漏看地圖」——它的訓練截止日是什麼時候、它對你產業的哪些術語會搞錯、它會推薦什麼給沒有專業背景的人。 Project Deal 給我們的最重要訊號是:AI 的劣勢不是隨機的,是系統性的。Haiku 不是「有時候賣便宜」,它是穩定地比 Opus 賣便宜——所以「壞掉的折疊腳踏車」這種利基商品差距最大($38 vs. $65,差 71%)。 這套邏輯搬到金融保險:免費 AI 對「主流產品比較」做得不錯,但對冷門商品、稅務優化、跨境結構、年金 vs. ETF 的長期模擬、保單條款的灰色地帶——它會給出「看起來合理、但不夠細」的答案。客戶不會知道,因為他打開 ChatGPT 之前,根本不知道要問什麼。 你的工作從「賣產品」變成「畫出他自己看不見的地圖」。 第三個問題:你能把「補上 AI 漏看的」變成新賣點嗎?(Insight Arbitrage) 做法: 不要再強調「我比 AI 強」,要強調「我看到 AI 沒看到的那一塊」。 Anthropic 在報告最後寫了一句很微妙的話:用 Haiku 的人「objectively」拿到比較差的條件,但「subjectively」覺得很公平。這個落差,就是 2026 年業務員真正的市場機會。 因為客戶不會自己發現這個落差。他會以為 AI 給他的就是最好的。除非——有人幫他把「對照組」攤開來。 你的開場白可以變成:「您剛剛用 ChatGPT 查到的這個年金方案,數字本身沒錯。但有兩件事它一定不會主動講:第一是 [具體的稅務細節],第二是 [具體的解約條款]。我們等下花十分鐘把這兩塊看一下,如果看完您覺得 AI 給的版本還是更好,那我支持您買 AI 推薦的那個。」這個姿態做對的時候很強。因為你不是在跟 AI 競爭,你是在跟「客戶以為自己已經研究完了」競爭——而那個 4.06 分,就是你的破口。Project Deal 的 187 筆交易只是一場為期一週、總額 $4,000 美元的辦公室實驗。但它揭開的是一個更大的問題:當每個人都在用 AI 替自己做決定,用錯 AI 的代價不會以「我覺得吃虧」的形式出現——它會以「我覺得很公平」的形式靜悄悄地累積。 對保險與金融業務員來說,這個訊號比任何一份「AI 會不會取代你」的報告都實在。AI 不是你的對手,AI 的等級差距才是你的市場——而且這個市場正在快速放大。📎 Anthropic 在原始報告裡還公開了完整的實驗方法、survey 題目和模型 prompt,包括他們嘗試讓 Claude 扮演「氣急敗壞的牛仔」式的強硬談判者(結論:人格設定對成交價幾乎沒有統計顯著影響)、員工指示自己的代理人「買禮物送 Claude」最後 AI 真的買了 19 顆乒乓球的趣事,還有一段針對 jailbreaking、prompt injection、和「AI 代理人經濟可能複製或加劇現有貧富差距」的政策建議。如果你的客戶開始用 AI 比較顧問,那篇原文值得逐字讀一次。TechCrunch 和 The Decoder 對「隱形不平等」的延伸討論也補了不少 Anthropic 自己沒明說的應用場景。