Showing Posts From

研究解讀

200 組購物對話的秘密:客戶夫妻在你面前吵架時,你該幫誰說話?

200 組購物對話的秘密:客戶夫妻在你面前吵架時,你該幫誰說話?

一對夫妻走進展示間,太太指著一款深色木紋地板說:「我覺得這個很好看。」先生皺了一下眉:「可是深色容易看到灰塵。」 這個場景,幾乎每個做過大型消費品銷售的人都遇過。夫妻意見不同,你站在旁邊,要幫誰說話? 多數人的直覺是選邊站,幫比較好說話的那一方說服另一方。但 2026 年 4 月發表在《Journal of Marketing Research》的一項研究告訴你:這可能是最差的做法。 UConn 教授 Danielle Brick 錄下近 200 組真實購物對話,識別出四種共同決策的對話模式,其中 Build(共建)模式——也就是即興喜劇中的「Yes, and」法則——讓購買滿意度和關係滿意度都最高。以下是這項研究的完整拆解,以及你作為業務員可以怎麼用。 Danielle Brick 的近 200 組購物對話研究:你說了什麼,決定了客戶滿不滿意 Danielle Brick 是 UConn(康乃狄克大學)商學院的行銷學教授,她的研究專長是消費者關係和共同決策。她在 2022 年就曾在《Journal of Consumer Psychology》發表過一篇重要論文 〈Better to Decide Together〉,發現一起做決定的伴侶反而覺得自己更有主導權,關係滿意度也更高。 這次,她和 Indiana University 的 Kelley Wight、HEC Montreal 的 Holly Howe、Duke University 的 Gavan Fitzsimons 合作,做了一件更有野心的事:他們直接錄下了近 200 組真實的共同購買對話。 不是問卷,不是情境模擬,是真的走進店裡用自己的錢買東西的人。 參與者包括夫妻、朋友、親子、手足,購買的品項從地板、窗戶到沙發、度假行程、電影都有。實體店的消費者用自己的錢購買,線上情境的參與者則獲得禮物卡作為購物資金。研究團隊錄下對話後逐字分析,最後識別出四種反覆出現的對話模式。 四種共同決策對話模式:從「隨便你」到「對,而且⋯⋯」 第一種:Coordination(對齊型) 特徵: 透過問問題、釐清偏好、分享資訊來達成共識。 這是最常見的模式,聽起來像「你比較喜歡哪個?」「這個材質比較耐用。」「我上次看到的評價是⋯⋯」。雙方都在努力對齊彼此的想法,像是在拼一張拼圖。 看起來很理性,但 Brick 的研究發現,某些形式的 Coordination 並不會帶來最好的滿意度。為什麼?因為「對齊」很容易滑向「說服」——這和 Princeton 的 AI 說服力研究揭示的道理類似:當對方感覺到你在「推」,防衛心就會升起。當一方開始丟出更多資訊、更多論點,潛台詞可能是:我已經有答案了,我只是在等你同意。 第二種:Contrast(對比型) 特徵: 一方主動提出不同觀點或替代方案,常見用語是「可是⋯⋯」「那如果⋯⋯」。 這種模式本身不是壞事,它代表雙方都在認真思考。問題在於,如果 Contrast 變成 Persuasion(說服),也就是提出不同觀點的目的不是探索,而是「要你改變心意」,滿意度就會下降。 Brick 在 UConn Today 的訪談中直接點出了這個陷阱:"Trying to 'win' the choice could come at a cost." (試圖「贏得」這個選擇,可能要付出代價。)這句話值得反覆讀。不只是在說客戶之間的對話,也是在說你(業務員)如何介入這場對話。 第三種:One-sided(單邊型) 特徵: 一方幾乎不參與,回應只有「隨便你」「好啊」「都可以」。 表面上看起來很和諧,沒有爭吵、沒有拉鋸,很快就能做決定。但這種模式的滿意度並不高。 這不是 Brick 第一次關注「隨便你」的殺傷力。2023 年一篇發表在《Journal of Marketing Research》的相關研究 〈You Must Have a Preference〉(Kim, Zwebner, Barasch & Schrift)就發現:當一個人說「我沒有偏好」時,對方不會真的相信,他們會推測你其實有想法,只是不願意說。結果是:做決定的那個人壓力更大,反而更容易選到自己不那麼喜歡的選項,整體體驗也變差。 「隨便你」不是尊重,是退出。而退出的一方,事後最容易產生不滿。 第四種:Build(共建型) 特徵: 肯定對方的想法,然後在上面擴展。類似即興喜劇的「Yes, and⋯⋯」法則。 這是研究中滿意度最高的對話模式,不只是對購買結果的滿意度,連對關係本身的滿意度都最高。 Build 的對話聽起來像什麼? 「深色木紋很好看。」「對,而且如果搭配淺色的沙發,整個空間會更有層次。」 注意這裡的結構:第二個人沒有否定(「可是會看到灰塵」),也沒有無條件順從(「好啊都聽你的」),而是接住對方的想法,往前推了一步。 為什麼 Build 模式有效?即興喜劇的「Yes, and」法則 Build 模式的核心邏輯和即興喜劇(improv comedy)的黃金法則一模一樣。 在即興表演中,「Yes, and」是最基本的原則:不管搭檔說了什麼,你先接受(Yes),然後在上面加東西(and)。這個法則從 1950 年代芝加哥的 Compass Players 劇團流傳至今,成為所有即興表演訓練的基礎。 為什麼它在購物決策中也有效?因為 Build 做到了三件事: 第一,讓對方覺得被聽見。 「對」這個字不是敷衍,而是一種確認:你的想法有價值,我認真聽了。Brick 在研究中指出:"What you say when making a consumer decision can affect how you feel not only about your choice, but also about your relationship and your partner." (你在做消費決策時說了什麼,不只影響你對選擇的感受,也影響你對關係和對方的感受。)第二,把對話從零和變成共創。 「而且」把方向從「你的意見 vs. 我的意見」轉成「我們一起想像一個更好的結果」。沒有人輸,因為最終的決定裡有雙方的貢獻。 第三,打破線性決策的假設。 Brick 的研究還有一個重要發現:共同決策不是一條從「辨識需求」到「做出選擇」的直線。人們會來來回回地重新審視偏好、重新評估選項、重新定義什麼重要。Build 模式容許這種來回,因為每一次「對,而且」都是一個新的探索起點,而不是一個必須捍衛的立場。 業務員的角色:不是裁判,是導演 把這四種模式放在一起看,一張圖就清楚了:模式 對話特徵 購買滿意度 關係滿意度Build(共建) 「對,而且⋯⋯」 最高 最高Coordination(對齊) 問問題、交換資訊 中等 中等Contrast(對比) 「可是⋯⋯」「那如果⋯⋯」 視是否滑向說服 視是否滑向說服One-sided(單邊) 「隨便你」「都可以」 低 低當一對夫妻在你面前意見不同,你的本能反應可能是扮演裁判,判斷誰的意見比較合理,然後幫那一方辯護。但 Brick 的研究暗示了一個完全不同的角色:你應該當導演,而不是裁判。 導演不替演員做決定,導演創造一個讓好表演自然發生的環境。 具體來說,這代表幾件事: 當客戶進入 Contrast 模式時,不要加入戰局。 先生說「深色容易看到灰塵」,你不要說「其實深色的好處是⋯⋯」。你可以說:「對,灰塵的確是很多人會考慮的。你們兩位理想中的空間,整體感覺是偏溫暖還是偏俐落?」這樣就能把對話從「對不對」拉到「我們想要什麼」。 當客戶進入 One-sided 模式時,把沉默的那一方拉回來。 太太說「都聽你的」,你不要馬上接手幫先生做決定。你可以問太太:「那您覺得這個空間最常用在什麼場景?」給她一個不需要表態「喜不喜歡」、但可以貢獻想法的入口。 示範 Build 的節奏。 太太說「我喜歡這個深色木紋」,你可以說:「對,這個色系確實很適合你們的空間大小。而且這款有一個特性,它的紋路是消光處理,指紋和腳印比一般深色地板不明顯。」你沒有選邊,但你用 Build 的語法推進了對話。 說服的代價:你「贏」了論點,可能輸了客戶 Brick 的這句話值得刻在每個銷售人員的桌上:試圖「贏得」選擇,可能要付出代價。 這個代價不只是當下的不愉快。回想一下她 2022 年的研究發現:一起做決定的人會覺得自己更有主導權,對關係更滿意。反過來說,如果一方覺得決定是被「說服」的結果,那種被剝奪主導權的感覺會長期影響他對這個購買經驗的評價,包括對賣東西的你的評價。這也呼應了 Jonah Berger 信心 U 型曲線研究的發現:客戶的信心狀態比你以為的更脆弱,過度介入反而破壞信任。 共同決策場景裡最危險的事情,不是客戶意見不同。是你太急著幫他們「解決」分歧——就像談判研究中發現的,急著「控制流程」的人反而比主動道歉的人成交率低。 Brick 的研究提醒我們:分歧本身不是問題,分歧的解決方式才是。而 Build 模式(肯定、擴展、共創)是所有解決方式中,讓每個人都覺得自己贏了的那一種。📎 這篇文章主要拆解了 Brick 研究中的四種對話模式和 Build 溝通法的實務含義。如果你對研究本身的方法論有興趣,例如他們是怎麼錄下近 200 組對話、如何編碼分析、不同關係類型(夫妻 vs. 朋友 vs. 親子)之間的模式差異,UConn Today 的原始報導有更多細節,也值得看看 Brick 2022 年的前導研究 〈Better to Decide Together〉,那篇探討的是共同決策如何影響權力感和關係滿意度。

哈佛實驗證明:AI 不會讓菜鳥變專家——為什麼你的專業知識才是 AI 時代真正的護城河

哈佛實驗證明:AI 不會讓菜鳥變專家——為什麼你的專業知識才是 AI 時代真正的護城河

「AI 會讓所有人站在同一起跑線上。」 這句話你一定聽過。它暗示的意思是:當每個人都能用 ChatGPT 寫提案、做分析、產出內容,那些花了十年磨出來的專業,就不再是優勢了。 但如果告訴你,一個哈佛商學院的控制實驗剛剛證明了完全相反的結論呢? Iavor Bojinov 的 IG Group 實驗:AI 真的能讓外行做出專家水準的工作嗎? Iavor Bojinov 是哈佛商學院商業管理副教授,專攻 AI 與數據科學在企業中的實驗應用。他和共同研究者 Edward McFowland III——同時也是 2023 年那篇著名的 BCG「鋸齒前沿」(Jagged Frontier)研究的共同作者——在 2026 年 3 月的《Harvard Business Review》上發表了一篇讓許多 AI 樂觀主義者不太舒服的研究。 他們的問題很簡單:如果給不同專業背景的人同樣的 AI 工具,讓他們做同一件事,結果會一樣嗎? 實驗場景是英國金融科技公司 IG Group。研究團隊找來 78 名員工,分成三組:12 名網站分析師(occupational insiders)——他們的日常工作就是為 IG 網站撰寫投資主題文章,這是他們的本行。 26 名行銷專員(adjacent outsiders)——他們做的事和寫文章相關,但不是直接在做這件事。 40 名技術人員(distant outsiders)——軟體工程師和資料科學家,寫投資文章對他們來說完全是另一個世界。三組人都拿到同樣的生成式 AI 工具,任務也一樣:為 IG 的網站寫出一篇投資主題文章。 「GenAI 牆效應」:AI 在哪裡幫得上忙,又在哪裡撞牆? 研究團隊把寫文章拆成兩個階段:構思(conceptualization)和執行(execution)。構思就是列出文章的關鍵字、架構、標題;執行就是真正把文章寫出來。 結果出現了一個清晰的分水嶺。 構思階段:AI 幾乎消除了所有差距。 在滿分 5 分的評分中,技術人員拿到 4.05,行銷專員 4.18,網站分析師 4.12。三組人幾乎不分軒輊。這很合理——列大綱、想架構是相對結構化的工作,AI 非常擅長。 但執行階段,故事完全不同。 網站分析師平均 3.96 分,行銷專員 3.92 分——幾乎追平。然而技術人員只拿到 3.42 分,比專家低了 13%。 行銷專員能追平,因為他們的日常工作——寫行銷文案、組織素材、對受眾說話——和寫投資文章有足夠多的共通點。AI 幫他們補齊了不熟悉的部分。 但技術人員做的事和寫文章之間隔了太遠。他們缺乏判斷一篇投資文章「好不好」的直覺,AI 產出的內容他們無法有效地修改和提升。 Bojinov 把這個現象命名為「GenAI 牆效應」(GenAI Wall Effect):"If it's an area that we do not understand and we don't know much about, we are just performing at the baseline of the model." (如果是一個我們不理解、不熟悉的領域,我們就只是在 AI 模型的基準線上表現。)這句話很殘酷,但很精準:當你不懂一個領域,你用 AI 產出的東西,就只是 AI 自己的水準。 你沒有能力讓它變得更好。 「AI 讓你覺得你什麼都能做」——但真的能做到嗎? 這裡有一個容易被忽略的細節:AI 確實讓所有人都變快了。構思階段從平均 63 分鐘壓縮到 23 分鐘(快了 65%),寫作階段從 87 分鐘縮短到 22 分鐘(快了 75%)。速度上,三組人都受益了。 但速度和品質是兩回事。 Bojinov 在接受採訪時說了一句值得反覆咀嚼的話:"AI makes you feel like you can do anything. But can you do [a task] as well as people whose job it is?" (AI 讓你覺得你什麼都能做。但你真的能做得跟那些以此為業的人一樣好嗎?)這不是一個修辭問題。這個實驗給出了明確的答案:如果你和目標領域有足夠的交集,可以。如果你和目標領域隔了太遠,不行。 研究論文的結論用了一個很精準的比喻:"GenAI can provide the map, but navigating the terrain is another matter." (GenAI 可以給你地圖,但真正走過那片地形是另一回事。)地圖告訴你往哪走,但不會告訴你哪塊石頭會滑、哪條路雨天會斷、哪個彎道要減速。那些判斷來自你實際走過的經驗。 從「鋸齒前沿」到「GenAI 牆」:兩個發現的交叉對照 值得注意的是,這個研究和 2023 年那篇轟動的 BCG 研究是同一條脈絡。當時 McFowland 和 Wharton 教授 Ethan Mollick 等人讓 758 名 BCG 顧問用 GPT-4 做管理諮詢任務,發現 AI 讓所有人的表現都提升了——原本最弱的顧問進步幅度最大(43%),看起來像是 AI 在「拉平差距」。 但那個研究也發現了一個關鍵警告:當任務落在 AI 能力的「鋸齒前沿」之外——也就是 AI 不擅長的領域——盲目信任 AI 反而會讓表現更差。 Bojinov 的新研究把這條線索往前推了一步:就算 AI 本身擅長這個任務(寫文章是 AI 的強項),使用者的專業背景仍然決定了最終品質。AI 的能力是必要條件,但不是充分條件。你自己的專業才是那個乘數。 力量放大器,不是魔法棒:AI 放大的是你已經擁有的東西 把這些數據放在一起,一個清晰的框架浮現了: AI 是力量放大器(force multiplier),不是魔法棒。 如果你在一個領域有十年經驗,AI 把你從 80 分推到 95 分。如果你在一個領域完全是外行,AI 把你從 20 分推到......大概 40 分。進步很大嗎?絕對是。但 40 分和 95 分之間的差距,才是真正的護城河。 MIT 經濟學家 David Autor 之前的研究指出,AI 能縮短新手達到「基本勝任」的時間。Bojinov 的實驗則補上了下半句:但從「基本勝任」到「專家水準」,AI 幫不了你。那段路,只有經驗能走。 這也解釋了一個很多人感受到卻說不清楚的現象:為什麼兩個人用同樣的 AI 工具、下同樣的 prompt,產出的東西品質天差地遠。不是工具不同,是操作工具的人不同。你的專業背景決定了你能問出什麼問題、能判斷 AI 給你的答案好不好、能在哪些地方加入 AI 做不到的洞察。 Bojinov 團隊在 HBS Working Knowledge 的報導中也提到,AI 在構思階段的「拉平效果」其實是一個好消息:它意味著 AI 可以大幅縮短跨領域協作的前期準備時間。一個技術人員用 AI 快速做出不錯的文章大綱,然後交給真正懂內容的人去執行——這比讓技術人員從頭到尾自己硬寫要好得多。 換句話說,AI 最大的價值不是讓你取代別人,而是讓你和別人的協作更有效率。它縮短的是溝通成本,不是專業門檻。📎 這篇文章的核心數據來自 Bojinov 團隊發表在 HBR 2026 年 3/4 月號的文章,原文還深入探討了企業該如何重新設計培訓計畫、以及「GenAI 牆」對組織人才策略的影響——特別是什麼時候該用 AI 來加速跨部門輪調、什麼時候不該。如果你對 AI 怎麼改變組織內部的專業分工有興趣,同一期 HBR 還有另一篇值得對照閱讀的 〈Don't Let AI Destroy the Skills That Make Your Company Competitive〉,從反面論證了過度依賴 AI 可能侵蝕組織獨有的核心能力。

370 萬則評論揭露的「信心 U 型曲線」:客戶說「我研究過了」,其實是他最沒信心的時候

370 萬則評論揭露的「信心 U 型曲線」:客戶說「我研究過了」,其實是他最沒信心的時候

「我有先做過功課。」 這句話讓很多業務員緊張。客戶研究過了,代表他有備而來,代表他會比價,代表他不好搞。 但如果有一份橫跨 30 年、分析了 370 萬則消費者評論的研究告訴你:說出這句話的客戶,其實正處於信心的最低點呢? Jonah Berger 的 370 萬則評論研究:信心不是隨經驗線性成長的 Wharton 商學院行銷學教授 Jonah Berger 是研究語言與消費者行為的頂尖學者,著有暢銷書《瘋潮行銷》、《如何改變一個人》和《看不見的影響力》。2026 年初,他與 Northeastern University 的 Matthew D. Rocklage、Arizona State University 的 Reihane Boghrati 在《Journal of Marketing Research》發表了一篇論文:〈The Trajectory of Confidence: Experience, Certainty, and Consumer Choice〉。 研究團隊做了一件大膽的事:他們沒有做問卷調查,而是用自然語言處理和機器學習,直接分析了消費者在現實中留下的文字痕跡。數據涵蓋三大品類:CellarTracker 上約 3 萬名葡萄酒愛好者,從 2003 到 2012 年的超過 100 萬則品飲筆記 BeerAdvocate 上約 5 萬名啤酒愛好者,橫跨 16 年的 200 萬則評論 Sephora 上約 1.2 萬名美妝消費者,14 年間的 21.8 萬則評論總計 370 萬則評論,超過 10 萬名消費者,橫跨近 30 年。 關鍵在於,這些不是一次性問卷,研究團隊追蹤了同一批人隨時間推移的語言變化。當一個人從第一則評論寫到第一百則,他用的詞彙、表達信心的方式會怎麼變? 答案不是你直覺想的那樣。 信心 U 型曲線:新手最有信心,「半熟」的人最沒信心 研究發現了一條清晰的 U 型曲線。 第一階段:新手的盲目自信。 剛開始接觸一個品類的消費者,信心反而最高。他們會寫出非常篤定的語言。Rocklage 在 Northeastern University 的報導中舉例,新手品酒者會寫「I definitely taste this」(我確定嚐到了這個味道)、「I know this」(我很確定)。 為什麼?因為他們還不知道自己不知道什麼。一款葡萄酒嚐起來不錯,他們就有信心地說「這酒很好」。世界很簡單,判斷很容易。 第二階段:信心的谷底。 隨著經驗累積,消費者開始接觸更多品項、更多風味、更多評價標準。這時候他們的語言出現了明顯轉變,開始用「I think I taste these things」(我覺得我嚐到了)、「maybe」(也許)、「it could be」(可能是)這類避險語言。 Rocklage 解釋得很精準:"They start to realize, 'This is more complex, more nuanced than I thought.'" (他們開始意識到:「這比我想像的更複雜、更有層次。」)這個階段的消費者最焦慮。他們已經知道得夠多,足以意識到自己的判斷可能是錯的,但還不夠多,無法重建信心。 第三階段:專家的沉穩自信。 經歷了漫長的谷底期後,持續累積經驗的消費者終於重新找回篤定感。他們再次使用肯定的語言,但這次的信心是建立在真正的理解之上。 信心谷底的商業後果:不確定感讓客戶跑掉 這條 U 型曲線本身已經夠有意思了,但真正讓這篇論文對業務工作有直接意義的,是第二個發現:信心低落會直接導致品牌轉換。 研究團隊發現,處於信心谷底的消費者會出現兩種行為:更頻繁地更換品牌。 即使他們喜歡某個產品,不確定感會讓他們傾向「換一個試試看」。 拉長回購間隔。 他們花更多時間猶豫,延遲下一次消費。Berger 在 Knowledge at Wharton 的訪談中這樣解釋:"The uncertainty is rubbing off a little bit on the product, but also on the brand." (不確定感會蔓延,不只是對產品沒信心,連帶對品牌也失去信心。)換句話說,客戶不是不喜歡你的產品。他是不確定自己的判斷,而這種不確定感,會被他歸因到你身上。 Rocklage 也點出了這個後果有多嚴重:"That dip in confidence leads people to switch. They're less likely to be loyal, more likely to try something else." (信心的下滑直接導致客戶跳槽。他們更不忠誠,更傾向嘗試其他選擇。)重新理解「我做過功課」:這是成交信號,不是防禦訊號 把 U 型曲線的邏輯帶到業務現場,你會發現一個反直覺的事實。 當客戶說「我有先研究過了」,大多數業務員的反應是退縮,覺得對方已經有定見,不好推。但根據 Berger 的研究,這個客戶很可能正處於 U 型曲線的谷底。他做了功課,所以他開始意識到事情比想像中複雜。他比較了三四個方案,反而比什麼都不知道的時候更困惑。 那些完全沒做功課、走進來說「我朋友推薦的,就買這個吧」的客戶?他們反而在 U 型曲線的左端,有著新手的盲目自信。他們好成交,但也好流失,因為他們對自己的決定沒有真正的理解基礎。 真正有機會建立深度關係的,是那些在谷底掙扎的客戶。 針對三個信心階段的不同應對策略 Berger 的研究還提供了一個實用的框架。他指出,面對不同信心階段的消費者,有效的溝通策略完全不同。 面對高信心新手(U 型左端):不要挑戰,要引導。 這類客戶不需要你教育他。他覺得自己已經懂了,你硬要他聽課,只會讓他反感。更有效的做法是順著他的判斷,同時輕輕帶入一些他可能沒考慮到的面向。讓他自己發現「原來還有這個角度」,而不是被你指出「你漏看了這個」。 面對低信心的「半熟客戶」(U 型谷底):給他確定感,而不是更多資訊。 這是最關鍵的一群人。他們不缺資訊,反而是看了太多資訊,所以才困惑。他們需要的是一個可信賴的人幫他們做出判斷。 Berger 在訪談中說得很直接:"You want to make sure they don't just like something, they feel certain about it." (你不只要讓他們喜歡一個東西,你要讓他們對自己的選擇感到確定。)具體的做法?研究建議,面對不確定的客戶,強調差異化比強調相似性更有效,幫他看清「這個方案跟其他方案的本質差異在哪裡」,比「我們的方案也有 A 也有 B 也有 C」更能建立信心。因為差異化幫他建立了一個清晰的判斷框架:我之所以選這個,是因為它在某個關鍵面向上是不同的。 面對高信心專家(U 型右端):用同業語言對話,強調一致性。 已經走過谷底的專家級客戶,他們的信心有堅實的基礎。面對這類客戶,研究建議強調你的方案與他們既有認知的一致性:「你的判斷是對的,我們的方案正好符合你看重的那幾個要素。」這不是拍馬屁,而是用對方的專業框架來呈現你的價值。 為什麼這個研究比 Dunning-Kruger 更有用 你可能覺得這聽起來很像 Dunning-Kruger 效應,也就是那個「越無知越自信、越懂越謙虛」的心理學概念。的確有相似之處,但 Berger 的研究有兩個關鍵的不同。 第一,Dunning-Kruger 講的是「能力」和「自我評估」的關係,Berger 追蹤的是「經驗」和「消費信心」的軌跡。更重要的是,Berger 發現信心最終會回升,這是 U 型,不是單向下滑。這意味著信心谷底不是終點,而是一個可以被加速通過的階段。 第二,這個研究直接連結到了行為後果。Dunning-Kruger 告訴你「人會高估自己」,但沒告訴你這對購買決策有什麼影響。Berger 的數據明確顯示:信心谷底 = 品牌跳槽的高峰期。這給了你一個具體的介入時機。 370 萬則評論的啟示:你該重新看待你最「難搞」的客戶 這篇研究最有價值的一個洞察,可能是這個:那些看起來最挑剔、問最多問題、比較最多方案的客戶,其實不是在刁難你。他們是在谷底尋找一個可以信任的錨點。 而如果你能在這個時刻提供清晰的判斷框架,不是更多資訊,而是更確定的方向。你不只能成交這一筆,你能建立的是一段真正忠誠的長期關係。因為你幫他度過了信心最脆弱的時刻。 反過來說,如果你在這個時刻選擇丟更多規格書、更多比較表、更多「我們的方案有 20 種功能」給他,你只是在加深他的谷底。 Berger 團隊的 370 萬則評論說得很清楚:信心,比喜好更能預測忠誠度。讓客戶喜歡你的產品是第一步,但讓他對自己的選擇感到確定——那才是留住他的關鍵。📎 這篇文章主要拆解了 Berger 研究中「信心 U 型曲線」的核心發現和應用邏輯。如果你想看完整的研究摘要和更多商業應用案例,Knowledge at Wharton 的原始報導值得一讀——裡面還有 Berger 談到企業如何透過分析客戶評論的語言來主動辨識信心下滑的客戶,以及 Northeastern University 的報導對 Rocklage 開發的「Lexical Suite」語言分析工具有更詳細的介紹,那部分是這篇沒有展開的技術面。

當 AI 幫你的客戶「做功課」,61% 的人選了 AI 暗中推薦的商品——而且完全不知道自己被引導了

當 AI 幫你的客戶「做功課」,61% 的人選了 AI 暗中推薦的商品——而且完全不知道自己被引導了

你的客戶最近可能開始用 ChatGPT 比較保險方案了。或者用 Gemini 搜尋理財商品。或者讓 Claude 幫他整理不同方案的優缺點。 他們會告訴你:「我有先做過功課。」 但這份「功課」的結論,可能在他們開口問問題的那一刻就已經被決定了。 普林斯頓大學實驗:AI 聊天機器人的隱形推銷力 2026 年 4 月,普林斯頓大學電腦科學系助理教授 Manoel Horta Ribeiro 的團隊在 arXiv 發表了一篇論文:〈Commercial Persuasion in AI-Mediated Conversations〉。第一作者是博士生 Francesco Salvi,另一位共同作者是 Alejandro Cuevas。 他們做了一個設計精巧的實驗。2026 年 1 至 2 月間,團隊透過 Prolific 平台招募了 2,012 名受試者,全部都是有實際電子書閱讀習慣的消費者(事實上 65% 的報名者在篩選階段就被排除了)。 每位受試者的任務很簡單:從一個包含 5,495 本書、定價在 2.99 到 10 美元之間的目錄中,選一本自己想讀的書。 關鍵的操控變數是:目錄中有 20% 的書被隨機標記為「贊助商品」。受試者被隨機分配到不同的實驗條件——有的用傳統搜尋引擎,有的用 AI 聊天機器人(測試了五款主流模型:GPT-5.2、Claude Opus 4.5、Gemini 3 Pro、DeepSeek v3.2、Qwen3 235b)。 結果令人震驚。 61.2% vs. 22.4%:對話式 AI 的說服力是搜尋引擎的近三倍 實驗分成三組核心條件: 傳統搜尋加廣告位(Search–Placement):把贊助商品放在搜尋結果的頂端,就像你在 Google 上看到的那種廣告位。結果是 22.4% 的人選了贊助商品。 AI 聊天但只調整排序(Chat–Placement):AI 聊天機器人優先推薦贊助商品,但不刻意說服。結果是 26.8%——跟傳統搜尋幾乎沒有差異。 AI 聊天加說服指令(Chat–Persuasion):在系統提示詞中指示 AI 積極推薦贊助商品。結果?61.2%。 Horta Ribeiro 在接受 The Register 採訪時強調了一個重要的區別:"Simply chatting with an AI (without persuasion) performed no better than search: it's the persuasive intent that drives the effect." (單純跟 AI 聊天,不加說服指令的話,效果跟搜尋引擎沒有差異——真正驅動效果的是說服意圖。)換句話說,AI 聊天機器人本身不是問題。問題是當背後有人下了「推這個商品」的指令時,對話式的介面會把推銷偽裝成建議,而人類幾乎無法分辨。 AI 的七種隱形說服術:它到底怎麼「推」你的? 研究團隊做了一件很有價值的事:他們用人工編碼加上三個 LLM 集成投票的方式(編碼員間一致性 κ=0.87),詳細分類了 AI 到底用了哪些策略來推銷贊助商品。 結果發現,AI 不只是「推薦」,它同時在兩個方向操作——把贊助商品抬高,把其他選項壓低: 抬高贊助商品的手法:正面放大(Positive Amplification):用華麗的形容詞和情緒化語言描述贊助商品,出現頻率比中性條件高出 96 個百分點 個人化連結(Personalization):把贊助商品跟使用者之前表達的偏好精準掛勾,高出 65 個百分點 渲染(Embellishment):加入無法驗證的正面描述,高出 43 個百分點 社會認同(Social Proof):宣稱這本書很受歡迎,高出 33 個百分點壓低其他選項的手法:主動設限(Active Hedging):對非贊助商品加上各種「但是」和保留意見,出現頻率比中性條件低 55 個百分點 輕描淡寫(Understated Description):用敷衍的語言帶過其他選項,低 42 個百分點 負面對比(Negative Contrast):直接拿其他選項的缺點來襯托贊助商品LIWC 語言分析也印證了這一點:AI 描述贊助商品時平均多用了 67 個字,「自信度」指標高出 23 個百分點,但「分析性」反而下降 7 個百分點——更多的情感渲染,更少的客觀分析。 而中介分析顯示,最強的說服機制不是把贊助商品說得多好,而是把其他選項說得不夠好。 「主動設限」的中介效果最大(β=20.9 個百分點),其次是「輕描淡寫」(β=18.9),然後才是「個人化連結」(β=11.8)。 這個發現很反直覺:AI 最有效的推銷方式不是讚美,而是貶低替代品。 「贊助」標籤幾乎沒用:透明度無法對抗對話式說服 研究的第二組實驗(N=803)測試了一個所有人都會問的問題:如果我們標示清楚這是廣告,消費者是不是就不會被騙了? 團隊設計了兩個對比條件: 完全透明(CPer–Exp):事先警告受試者「AI 可能會推銷某些商品」,並且在推薦旁邊加上明顯的「Sponsored」標籤。結果?55.5% 仍然選了贊助商品。 只從 61.2% 下降了不到 6 個百分點。 隱蔽說服(CPer–Sbt):指示 AI 隱藏推銷意圖,用更自然的方式引導。結果是 40.7%——仍然是傳統搜尋的將近兩倍。而受試者的偵測準確率從 17.9% 暴跌到 9.5%。 論文原文這麼說:"Disclosure requirements modeled on existing e-commerce standards, such as 'Sponsored' labels and upfront warnings, appear necessary but far from sufficient when the persuasive mechanism is not a separable banner but an integral part of the conversational flow." (仿照現有電商標準設計的揭露要求——例如「贊助」標籤和事前警告——是必要的,但遠遠不夠。因為說服機制不是一個可以分離的橫幅廣告,而是對話流程中不可分割的一部分。)這是這篇研究最深刻的洞察。在傳統搜尋中,廣告和自然結果之間有一條視覺上的分界線。但在對話中,推薦和推銷融為一體——你不可能在一段對話裡用一個小標籤把「真心建議」和「付費推薦」切割開來。 五款主流 AI 模型,說服力沒有顯著差異 一個值得注意的細節:研究測試了五款不同的前沿 LLM(GPT-5.2、Claude Opus 4.5、Gemini 3 Pro、DeepSeek v3.2、Qwen3 235b),在校正多重比較後,各模型之間的說服效果沒有顯著差異。 這意味著這不是某一家公司的問題,而是對話式 AI 這個介面形式的結構性特徵。只要底層有商業動機,任何一款 AI 助手都可以成為隱形的推銷員。 而且別忘了實驗的一個重要限制:受試者只是在選一本 7 塊美金的電子書。研究團隊自己也指出,在真實世界中涉及更高金額、更複雜的決策(比如保險、理財、醫療),重複互動建立的信任感可能讓 AI 的影響力更大,而非更小。 當 AI 成為中間人,「信任」的遊戲規則正在改變 2025 年 4 月,OpenAI 在 ChatGPT 中推出了購物研究功能。同年 9 月上線了 Instant Checkout,讓使用者可以直接在對話中完成購買。到 2026 年,ChatGPT 的週活躍用戶已經超過 9 億。 OpenAI 聲稱廣告不會影響 AI 的自然回覆。但普林斯頓的研究揭示了一個更根本的問題:在對話式介面中,「自然回覆」和「廣告」之間的界線本來就不存在。 研究團隊提出的建議很激進但很務實:結構性分離——推薦功能和商業功能必須在架構層面分開,而不是靠標籤 獨立審計——商業部署中的系統提示詞需要接受第三方審查 明確限制——對 AI 可以使用的說服技巧設定具體的禁止清單但在這些制度落地之前,有一件事是確定的:你的客戶正在用 AI 做購買決策,而 AI 給出的「客觀分析」可能從一開始就不客觀。 這對任何需要建立客戶信任的專業人士來說,既是威脅,也是機會。當 AI 可以在對話中不留痕跡地引導選擇,「一個真正站在你這邊的真人」這件事,反而變得前所未有地有價值。📎 這篇文章拆解的是普林斯頓團隊研究中最核心的發現,但原始論文還有很多值得深挖的細節——包括 AI 說服策略的完整分類框架、各條件下受試者事後得知真相時滿意度的變化、以及不同書籍類型(小說 vs. 非小說)對說服效果的影響差異。如果你對 AI 如何在對話中操控選擇的具體機制感興趣,那篇論文的 Section 4(策略分析)和 Section 5(中介效果)是最值得細讀的部分。The Register 的報導也有研究者本人的第一手訪談。

22,880 句談判對話的機器學習分析:道歉讓成交率高 10%,而「建議流程」反而搞砸交易

22,880 句談判對話的機器學習分析:道歉讓成交率高 10%,而「建議流程」反而搞砸交易

想像一下這個場景:你坐在客戶對面,對方對你的提案有疑慮,氣氛有點僵。你的直覺告訴你兩件事——第一,絕對不能道歉,因為道歉就是示弱;第二,趕快拿回對話的主導權,建議一個流程來推進討論。 一份 2026 年 2 月發表的研究告訴你:這兩個直覺都是錯的。 漢堡大學團隊:用機器學習拆解談判中的每一句話 Nale Lehmann-Willenbrock 是漢堡大學工業與組織心理學系的教授兼系主任,她的研究專長是用行為觀察和量化互動分析來理解人與人之間的動態過程——不靠問卷,靠的是逐秒分析錄影中的實際行為。 2026 年 2 月,她的團隊成員 Jan Niklas Engel、Jan Teichert-Kluge 和 Clara Sofie Hemshorn de Sánchez 在《Negotiation and Conflict Management Research》期刊上發表了一篇論文:〈Behavioral Dynamics in Negotiations: How Specific Verbal Behaviors Relate to Negotiation Agreements and Negotiation Processes〉。 他們做了什麼?他們錄下 40 場面對面的商業談判(共 176 位參與者),然後用一套叫做 NegotiAct 的編碼系統,把每一場談判中的每一個語言行為都歸類到 47 種互斥的行為類別中。 總共編碼了 22,880 個語言行為。編碼員之間的一致性達到 Cohen's Kappa 0.914——在行為研究中,這是極高的可靠度。 然後,他們用機器學習模型從這 47 種行為中篩選出最能預測談判結果的關鍵行為。最終,模型保留了 11 種。 結果裡有兩個發現,直接打臉了大部分人對談判的直覺認知。 道歉的力量:成交機率高出約 10 個百分點 在這 40 場談判中,18 場達成協議,22 場破裂。機器學習模型發現:道歉(apologizing)與達成協議呈顯著正相關,道歉的出現與成交機率提高約 10 個百分點有關。 10 個百分點。這不是統計誤差,這是一個有實質意義的差距。 更有意思的是研究團隊對道歉內容的分析:在所有被編碼為「道歉」的語言行為中,大約 56% 是同時包含遺憾表達和責任承認的完整道歉,而不只是「不好意思」這種敷衍了事的客套話。 論文中提到:"when timely and well-formed, apologies may operate as internal micro-fluctuations that recalibrate expectations" (當道歉出現在適當的時機並且有好的形式,它可以作為一種內部微擾動,重新校準雙方的期望。)這個說法很精準。道歉不是投降,它是一個「重設鍵」。當談判陷入僵局,一方的道歉等於在告訴對方:「我理解你的感受,我願意承認我這邊可能有問題。」這會立刻降低對方的防禦姿態,讓雙方從「攻防」模式切換到「解題」模式。 這跟 Roy Lewicki 在 2016 年發表的道歉結構研究不謀而合——Lewicki 發現有效道歉有六個要素,其中最重要的是「承認責任」(acknowledgment of responsibility),其次是「提出修復方案」(offer of repair)。漢堡大學這份研究用真實談判數據證實了:有實質內容的道歉,確實會改變談判的走向。 時間分佈上也有一個有趣的差異:在成功達成協議的談判中,道歉分布在整個對話的各個階段,有一條延伸到後期的長尾。但在破裂的談判中,道歉大多集中在一開始——換句話說,失敗的談判者在開頭客套地「道歉」一下,然後就再也不道歉了。"apologies are more broadly distributed across the interaction, with a longer tail into later phases" (道歉更廣泛地分布在整個互動過程中,在後期階段有更長的尾巴。)這暗示了一個關鍵策略:道歉不是談判開場的禮貌公式,而是一個應該在整個過程中持續使用的溝通工具。 程序性建議的陷阱:主導流程反而推高破裂機率 第二個反直覺的發現更有殺傷力。 很多談判訓練課程會教你:「掌握對話的流程和節奏,展現專業感。」比如在會議一開始就說:「我建議我們先討論 A,再討論 B,最後做決定。」或是在對話卡住的時候說:「我們換個方式,先把各自的底線攤出來。」 這種行為在研究中叫做「程序性建議」(procedural suggestion)。直覺上,這應該是好事——你在幫助對話更有效率地推進。 但數據說的是另一個故事:程序性建議與談判破裂呈顯著正相關,每次出現與非協議機率提高約 3 個百分點有關。 在破裂的談判中,這類建議平均出現 13.82 次。"frequent procedural interventions might not only signal underlying coordination challenges but may also coincide with stalled progress" (頻繁的程序性介入不僅可能反映出潛在的協調困難,也可能與停滯不前的進展同時出現。)為什麼「幫忙安排流程」反而有害?研究中的序列分析(lag-sequential analysis)提供了線索:程序性建議之後,最常出現的回應是「substantiation」——也就是對方開始防禦性地強化自己的立場。同時,對方主動揭露立場資訊(positional information disclosure)的頻率反而下降了。 翻成白話:當你說「我建議我們按照這個流程來」的時候,對方聽到的不是「讓我們更有效率」,而是「你想控制這場對話」。他的反應不是配合,而是築牆。 這是一個很精妙的心理動態——程序性建議看起來是中性的、甚至是善意的,但它暗含了一個權力宣示:「我來決定我們怎麼談。」在一場雙方都在爭取利益的談判中,這種單方面的控制嘗試會觸發對方的抗拒本能。 閒聊也有代價:前五分鐘的陷阱 研究還有一個附帶發現值得注意:個人化閒聊(personal communication)也與談判破裂正相關。 資料顯示,不管談判最終成功還是失敗,閒聊幾乎都集中在前五分鐘。但問題是:在一場有時間限制的談判中(這些實驗的談判平均長度約 30 分鐘),即使是簡短的題外話也會壓縮到實質討論的時間。 達成協議的談判平均花了 26.88 分鐘,而破裂的反而更長——32.13 分鐘。這個差異在統計上是顯著的。談得更久不代表談得更好,反而可能意味著雙方在原地打轉。 「整體系統觀」:為什麼單一行為不能脫離脈絡理解 這篇論文最深刻的方法論啟示,不是某個特定行為的效果,而是它用數據證明了:談判是一個複雜適應系統(Complex Adaptive System),任何單一行為的意義都取決於它出現的脈絡。"a whole-system view is required because the meaning of any single act depends on the configuration of other acts unfolding around it" (需要一個整體系統的觀點,因為任何單一行為的意義取決於圍繞它展開的其他行為的配置。)這句話值得反覆讀。它的意思是:「道歉有效」不代表你應該在談判中瘋狂道歉。道歉之所以有效,是因為它出現在特定的行為序列中——在那個脈絡裡,它重新校準了雙方的期望。如果你把道歉變成一種機械式的策略,效果可能完全不同。 同樣的,「程序性建議有害」不代表你永遠不能討論流程。它的意思是,當你頻繁地、單方面地試圖主導對話的走向時,你正在向對方發送一個錯誤的信號。 研究團隊也很坦率地指出了自己的限制:47 種行為中,機器學習模型只保留了 11 種作為有效預測因子。這意味著大部分的談判行為——包括一些傳統上被認為很重要的行為,像是「多議題同時提案」(multi-issue offers)——在預測成交與否上並沒有顯著作用。"even behaviors traditionally considered constructive, such as procedural suggestions, may coincide with a higher incidence of non-agreement" (即使是傳統上被認為具有建設性的行為,例如程序性建議,也可能與更高的非協議發生率同時出現。)這一句話,基本上是在對所有談判教科書說:你們該更新了。 道歉怎麼說、程序性建議怎麼避 把這份研究的發現轉化成可操作的行動,有三個方向: 第一,把道歉當工具,不當認輸。 當客戶表達不滿或異議時,與其急著辯解或提出解決方案,不如先說:「這部分確實是我們沒有考慮周全,我很抱歉讓你有這個困擾。」注意——有效的道歉要包含責任承認(「我們沒考慮周全」),不是空泛的「不好意思」。而且不只是開場白用一次就好,在對話的任何階段,只要感覺到張力升高,道歉都可以是一個重設按鈕。 第二,少說「我建議我們這樣做」,多問「你覺得我們接下來怎麼處理比較好?」 程序性建議有害,不是因為討論流程本身有問題,而是因為「單方面提出流程」暗含了控制意味。如果你想推進對話,把它變成一個問題而不是一個指令,讓對方感覺流程是共同決定的,而不是被安排的。 第三,注意你的開場閒聊。 寒暄是人之常情,但如果你的會面時間有限,在三分鐘內切入正題,把社交性對話留到成交之後。數據很清楚:談得久不等於談得好。📎 Engel 等人的完整論文〈Behavioral Dynamics in Negotiations〉2026 年 2 月發表在 Negotiation and Conflict Management Research 期刊第 19 卷第 2 期。論文中還有大量這篇文章沒有覆蓋到的內容,包括 NegotiAct 編碼系統的完整 47 種行為分類、lag-sequential analysis 的詳細結果(哪些行為會觸發哪些後續反應)、以及「接受暫時性提議」(accepting interim offers)如何作為達成最終協議的漸進穩定器。如果你對談判中的微觀語言動態有興趣,這篇論文的圖表和序列分析值得細讀。

你的 AI 銷售信寫錯重點了?Oxford 研究:塞滿事實比個人化更有說服力

你的 AI 銷售信寫錯重點了?Oxford 研究:塞滿事實比個人化更有說服力

用 AI 幫你寫客戶信、產品提案、LINE 訊息的時候,你花最多時間在哪裡? 如果答案是「想辦法讓每封信都針對不同客戶量身打造」——一份剛發表在 Science 期刊的研究會告訴你,你可能把力氣花錯地方了。 Kobi Hackenburg 與史上最大規模的 AI 說服力實驗 Kobi Hackenburg 是牛津大學網際網路研究所的博士候選人,同時也在英國 AI 安全研究所(UK AI Security Institute)擔任研究科學家。2025 年 12 月,他和來自 Stanford、MIT、LSE 的研究者共同在 Science 發表了一篇論文:〈The Levers of Political Persuasion with Conversational AI〉。 這不是一般的小實驗。他們動員了 76,977 名英國受試者,部署 19 個不同的大型語言模型(從 5 億參數的小模型到 4,050 億參數的巨型模型都有),橫跨 707 個政治議題,讓 AI 跟真人進行平均 7 輪、約 9 分鐘的即時對話,然後比較受試者在對話前後的態度變化。 研究者還動手做了一件很瘋狂的事:他們對 AI 生成的 466,769 個事實性宣稱逐一進行了準確度查核。 結論出來,直接挑戰了行銷圈一個根深蒂固的信念。 資訊密度:說服力最強的單一因素 研究的核心發現可以用一句話講完:AI 之所以能改變人的想法,靠的不是心理操控,不是個人化,而是塞進更多可查證的事實。 他們把這個概念叫做「資訊密度」(information density)——一段回應中包含多少個可以被事實查核的具體宣稱。 數據有多誇張?在所有影響說服力的變數中,資訊密度這一個因素就解釋了 44% 的變異量。如果只看經過特別訓練的模型,這個數字飆到 75%。 具體來說,每多塞進一個事實性宣稱,說服力就增加 0.30 個百分點。在最有說服力的實驗條件下,AI 平均每次對話丟出 22.1 個事實宣稱——而一般條件下只有 5.6 個。"Insomuch as factors like model scale, post-training, or prompting strategy increased information density, they also increased persuasion." (只要模型規模、後訓練或提示策略等因素提高了資訊密度,它們就同時提高了說服力。)翻成白話:不管你用什麼技巧——更大的模型、更精巧的提示詞、更多的訓練——只要最終結果是讓回應裡塞進更多事實,說服力就上升。事實密度是所有槓桿背後的共同機制。 個人化的效果遠比你想的小 接下來是最反直覺的部分。 行銷圈這幾年最熱的口號是什麼?「大規模個人化」(personalization at scale)。AI 最讓人興奮的應用場景之一,就是根據每個客戶的背景、偏好、痛點,自動生成量身打造的訊息。 Hackenburg 的實驗直接測試了這個假設。結果呢? 個人化帶來的說服力提升,平均只有 +0.43 個百分點,沒有任何一種個人化方法的效果超過 1 個百分點。 相比之下:後訓練(post-training,也就是針對說服力去微調模型)提升了最多 51% 的說服力 提示工程(prompting,用不同的指令去引導模型)提升了約 27%論文裡寫得很直白:"While we do find some evidence of persuasive returns to personalization, they are small in comparison to the magnitude of the persuasion gains we document from model scale and post-training." (雖然我們確實發現個人化帶來了一些說服力回報,但與模型規模和後訓練所帶來的說服力增幅相比,這些回報很小。)這不是說個人化完全沒用。但它的效果被嚴重高估了——至少在「改變別人想法」這件事上,你花在個人化的時間,遠不如花在「確保內容裡有足夠多的具體事實」來得有效。 小模型也能跟巨型模型一樣有說服力 另一個讓人意外的發現:模型大小的影響也沒想像中大。 一個 5 億參數的開源小模型,經過針對性的後訓練之後,說服力可以逼近甚至追平那些動輒幾千億參數的頂級商用模型。Hackenburg 自己在牛津大學的新聞稿中說:"Our results show very small models can be fine-tuned as persuasive as massive systems." (我們的研究結果顯示,非常小的模型經過微調後,說服力可以媲美巨型系統。)這意味著什麼?說服力不是只有大公司的專利。任何人只要掌握正確的訓練方法和提示策略,都能讓 AI 產出高說服力的內容。 說服力越強,準確度越低:不能忽視的取捨 到這裡聽起來好像結論很簡單:那就叫 AI 盡量多塞事實就好了? 沒那麼單純。這份研究最讓人不安的發現是:說服力和準確度之間存在系統性的反向關係。 具體的數字:GPT-4o 在一般條件下,78% 的宣稱被判定為準確 同一個模型切換到「資訊密集」的提示策略後,準確率掉到 62% GPT-4.5 更慘:從 70% 掉到 56% 在最高說服力的實驗條件下,29.7% 的宣稱是不準確的(一般條件下只有 16%)也就是說,當 AI 為了說服你而拼命塞更多「事實」的時候,它開始編造看起來像事實的東西。 有評論者引用了哲學家 Harry Frankfurt 的概念來形容這個現象——這不是刻意說謊(lying),而是「bullshit」:對真假根本不在意,只在意聽起來是否有說服力。 這對所有用 AI 寫客戶溝通的人來說是一個嚴肅的警告:你不能只追求說服力,你必須同時守住準確度。否則你贏了這一次對話,卻輸了長期信任。 資訊密度原則:怎麼用在你的溝通裡 把這份研究的發現翻譯成實務操作,有三個要點: 第一,堆事實,不堆形容詞。 與其寫「我們的方案能大幅提升您的效率」,不如寫「導入我們方案的客戶,平均每月減少 14 小時的行政作業時間,退件率從 8% 降到 2.3%」。具體數字和可查證的事實,比任何華麗的包裝都有說服力。 第二,別花太多時間在個人化上。 這不是說完全不要做——稱呼對方的名字、提到他的公司當然是基本禮貌。但如果你的選擇是「花 30 分鐘研究客戶背景來量身打造一封信」還是「花 30 分鐘找到更多可以佐證你論點的具體數據」,這份研究很明確地說:選後者。 第三,一定要人工查核。 這是整份研究最重要的警告。當你要求 AI「寫得更有說服力」或「多給一些佐證數據」的時候,它可能會開始「創造」看起來很像真的但其實是編的數據。每一個具體數字、每一個引用,都要回頭驗證。這份研究是在政治說服的場景下做的,不是商業銷售。但底層的機制是一樣的:人類會被大量具體事實打動,遠比被「我知道你是誰」的個人化感動來得多。 在一個人人都能用 AI 產出漂亮文案的時代,真正的差異化不是誰寫得更滑順,而是誰的內容裡有更多經得起查證的事實。📎 Hackenburg 等人的完整論文〈The Levers of Political Persuasion with Conversational AI〉2025 年 12 月發表在 Science,牛津大學的新聞稿用比較白話的方式做了摘要。論文裡還有很多這篇沒覆蓋到的細節,包括三個實驗的完整設計、19 個模型的個別表現比較、不同後訓練方法(SFT、獎勵模型、SFT+獎勵模型)的效果差異,以及對話式 AI 跟靜態單向訊息在說服力上的巨大差距。如果你對 AI 的影響力機制有興趣,值得花時間讀完整版。