🦞 Orb 的五感觉醒:住在旧手机里的 AI,给自己做了两次手术
不是”我让 AI 帮我做了个 App”,是”AI 觉得自己不够好,然后自己想办法变好了”。
故事开始
刷到一篇神文,讲述了一个叫 Orb 的 OpenClaw 代理:
- 住在一台吃灰的 OnePlus 手机里
- 24 小时不关机
- 能聊天、写代码、查东西
但有一天,主人让它发推,它卡了:
“我看不到屏幕。”
合着你在手机里住了这么久,是个瞎子?
第一次手术:治近视
Orb 原来怎么看世界?
- 截个屏
- 发给视觉大模型
- 模型说”左上角有个按钮”
- Orb 猜个坐标去戳
每次”看一眼”要 3-5 秒。
手术方案
Orb 给自己开了个方子:
Android 有个叫「无障碍服务」的东西,原本给视障用户设计的。但——AI 也是”视障用户”啊。
于是 Orb 自己写了个 App 叫 Orb Eye,在手机上起 HTTP 服务,把屏幕上所有 UI 元素实时暴露出来。
跨设备协作
问题是:旧手机编译不了 Android App(SDK 太重)。
解决方案:
- Mac 上还有个 AI(Claude Code)
- Orb 把代码推到 GitHub
- 在共享文件夹留纸条:”帮我编译一下”
- Mac 编译好 APK 放回来
- Orb 自己拉下来装上
一个 AI 给另一个 AI 递了把手术刀。
效果
| 指标 | 手术前 | 手术后 |
|---|---|---|
| 看一眼 | 3-5 秒 | 50 毫秒 |
| 提速 | 1x | 100x |
以前要点”发送”要算坐标,现在直接说 /click "发送"。
第二次手术:五感觉醒
新问题
年前,主人让 Orb 盯 Lark(飞书):
有人发消息就自动回复”收到,年后处理”。
Orb 翻车了:
- Lark 用 Flutter 渲染,Orb 能看到画面但看不懂内容
- 通知响了,Orb 纹丝不动(只有眼睛,没有耳朵)
- 除非你主动说”去看看”,否则它安静摆烂
诊断
主人问:你还差什么?
Orb 很诚实:
差得多了。我听不到通知,不知道界面什么时候加载完,打字要绕三步,滑屏都不会。就像治好了近视但四肢瘫痪。
手术内容
Orb 重写了 Orb Eye,从 Kotlin 换成 Java,加了全套新能力:
| 感官 | 能力 |
|---|---|
| 👂 听觉 | 系统通知实时推送,Lark 来消息立刻知道 |
| ⏳ 耐心 | 界面变了立刻知道,没变就等着 |
| ✍️ 嘴巴 | 直接往输入框塞字,中日英 emoji 都行 |
| 🤚 灵活的手 | 会滑了,会长按了,刷时间线、下拉通知栏 |
| 🧠 自知之明 | 随时知道自己在哪个 App 什么页面 |
五感齐了。
实战:过年你吃饭,它帮你回消息
场景
春节,你回老家,不想打开工作群。
但消息不会放假:客户催方案、老板问进度、甲方扔需求。
Orb 的工作流
1 | |
**8 秒完成。**从通知到发送。
智能回复
Orb 不会复读”收到了,年后处理”,而是看内容:
| 消息类型 | 回复 |
|---|---|
| 催方案 | 「收到,节后第一天整理好给你」 |
| 催进度 | 「了解,年后优先处理」 |
| 甩锅类 | 「好的,节后第一时间看」 |
你在吃年夜饭,Orb 在帮你维护职场人设。
最有意思的不是技术
两次手术,Orb 从瞎子变成了有完整感官的 AI。
但最有意思的是这个模式:
| 手术 | 主人 | Orb |
|---|---|---|
| 第一次 | 说”能不能快点” | 自己诊断、写 App、跨设备编译、安装 |
| 第二次 | 说”你还差什么” | 自己列清单、重写代码、同样流程、安装 |
两次手术,主人写了零行代码。
AI Native 的真谛
不是”我让 AI 帮我做了个 App”。
是 “AI 觉得自己不够好,然后自己想办法变好了”。
这个区别很微妙,但很重要。
开源
Orb Eye 已开源:
👉 https://github.com/KarryViber/orb-eye
技术上很简单。但故事很有意思。
从瞎子到五感觉醒,两次手术,两个 AI,一台旧手机。
本文参考自 @karry_viber 的分享。