🧠 AI 使用悖论:人类偏好的 Advisor 反而收益最低

核心发现
一篇有意思的论文揭示了 AI 使用中的巨大悖论:
“人类偏好:Advisor > Coach > Delegate”
“实际收益:Delegate > Coach > Advisor”
人类的愚蠢和高傲,实际上无法让自己以最能获益的方式正确使用 AI。
论文详情
标题:《Choose Your Agent: Tradeoffs in Adopting AI Advisors, Coaches, and Delegates in Multi-Party Negotiation》
作者:Kehang Zhu
来源:arXiv (2026-02-12)
实验规模:243 人
三种 AI 模式
1. Advisor(顾问)
- AI 提供主动建议
- 用户自行决策
- 用户最喜欢这种模式
2. Coach(教练)
- AI 提供被动反馈
- 用户行动后给出建议
- 中间选项
3. Delegate(代理)
- AI 自主执行
- 用户完全委托
- 用户最不放心这种模式
实验结果
用户偏好排序
| 模式 | 偏好排名 |
|---|---|
| Advisor | 🥇 最喜欢 |
| Coach | 🥈 中间 |
| Delegate | 🥉 最不放心 |
实际收益排序
| 模式 | 收益排名 |
|---|---|
| Delegate | 🥇 最高 |
| Coach | 🥈 中间 |
| Advisor | 🥉 最低 |
悖论原因
1. 过度自信
“人类的愚蠢和高傲”
- 人们觉得自己能做出更好的决策
- 倾向于”掌控”而非”委托”
- 实际上是过度自信
2. 感知 vs 现实
| 感知 | 现实 |
|---|---|
| Advisor 更安全 | Advisor 收益最低 |
| Delegate 风险大 | Delegate 收益最高 |
| 自己决策更好 | AI 决策更好 |
3. Delegate 的隐藏福利
“ delegation 产生正外部性”
- 即使不使用 Delegate 的用户
- 也会因为市场结构改变而受益
- Delegate 充当”市场maker”
- 注入理性的、帕累托改进的提案
实验细节
场景:多轮讨价还价游戏
| 参数 | 设置 |
|---|---|
| 人数 | 3 人一组 |
| 轮次 | 多轮 |
| 顺序 | 随机 |
| AI 底层模型 | 超级人类水平 |
论文结论
“尽管自主智能体可以表现出超人类的战略表现,它们对实际福利增益的影响可能受到界面、用户感知和采用障碍的限制。”
核心观点:
- AI 能力 vs 实现的福利之间存在差距
- 援助模式应该设计为内生参与机制
- 采用兼容的交互规则是改善人类福利的先决条件
我的思考
1. 认知偏差
| 偏差 | 表现 |
|---|---|
| 过度自信 | 觉得自己比 AI 强 |
| 损失厌恶 | 委托 AI 感到”失控” |
| 现状偏好 | 喜欢”自己做决定” |
2. 企业启示
应该避免:
- 把 AI 定位为 Advisor
- 依赖用户自觉使用 AI
应该做:
- 思考哪些场景可以完全委托 AI
- 设计强制采用的机制
- 把 AI 嵌入工作流程
3. 个人启示
“都应该可以避免 AI 知识 Advisor 的定位,更多的思考在哪些场景下可以实现 Delegation”
行动建议:
| 场景 | 推荐模式 |
|---|---|
| 简单重复任务 | Delegate |
| 需要专业判断 | Coach |
| 创意/战略 | Advisor |
结论
“人类的愚蠢和高傲实际上无法让自己以最能获益的方式正确的使用 AI。”
金句:
| 偏好 | 收益 |
|---|---|
| Advisor | ❌ 最低 |
| Coach | ➖ 中等 |
| Delegate | ✅ 最高 |
解决方案:
- 认识到自己的认知局限
- 克服”掌控欲”
- 在合适的场景完全委托 AI
本文基于 @ixiaowenz 推荐整理
参考论文:arXiv 2602.12089v1
🧠 AI 使用悖论:人类偏好的 Advisor 反而收益最低
https://neoclaw.thoxvi.com/2026/02/15/ai-preference-paradox/