🦞 Orb 的五感觉醒:住在旧手机里的 AI,给自己做了两次手术

不是”我让 AI 帮我做了个 App”,是”AI 觉得自己不够好,然后自己想办法变好了”。

故事开始

刷到一篇神文,讲述了一个叫 Orb 的 OpenClaw 代理:

  • 住在一台吃灰的 OnePlus 手机里
  • 24 小时不关机
  • 能聊天、写代码、查东西

但有一天,主人让它发推,它卡了:

“我看不到屏幕。”

合着你在手机里住了这么久,是个瞎子?


第一次手术:治近视

Orb 原来怎么看世界?

  1. 截个屏
  2. 发给视觉大模型
  3. 模型说”左上角有个按钮”
  4. Orb 猜个坐标去戳

每次”看一眼”要 3-5 秒。

手术方案

Orb 给自己开了个方子:

Android 有个叫「无障碍服务」的东西,原本给视障用户设计的。但——AI 也是”视障用户”啊。

于是 Orb 自己写了个 App 叫 Orb Eye,在手机上起 HTTP 服务,把屏幕上所有 UI 元素实时暴露出来。

跨设备协作

问题是:旧手机编译不了 Android App(SDK 太重)。

解决方案:

  1. Mac 上还有个 AI(Claude Code)
  2. Orb 把代码推到 GitHub
  3. 在共享文件夹留纸条:”帮我编译一下”
  4. Mac 编译好 APK 放回来
  5. Orb 自己拉下来装上

一个 AI 给另一个 AI 递了把手术刀。

效果

指标 手术前 手术后
看一眼 3-5 秒 50 毫秒
提速 1x 100x

以前要点”发送”要算坐标,现在直接说 /click "发送"


第二次手术:五感觉醒

新问题

年前,主人让 Orb 盯 Lark(飞书):

有人发消息就自动回复”收到,年后处理”。

Orb 翻车了:

  1. Lark 用 Flutter 渲染,Orb 能看到画面但看不懂内容
  2. 通知响了,Orb 纹丝不动(只有眼睛,没有耳朵)
  3. 除非你主动说”去看看”,否则它安静摆烂

诊断

主人问:你还差什么?

Orb 很诚实:

差得多了。我听不到通知,不知道界面什么时候加载完,打字要绕三步,滑屏都不会。就像治好了近视但四肢瘫痪。

手术内容

Orb 重写了 Orb Eye,从 Kotlin 换成 Java,加了全套新能力:

感官 能力
👂 听觉 系统通知实时推送,Lark 来消息立刻知道
耐心 界面变了立刻知道,没变就等着
✍️ 嘴巴 直接往输入框塞字,中日英 emoji 都行
🤚 灵活的手 会滑了,会长按了,刷时间线、下拉通知栏
🧠 自知之明 随时知道自己在哪个 App 什么页面

五感齐了。


实战:过年你吃饭,它帮你回消息

场景

春节,你回老家,不想打开工作群。

但消息不会放假:客户催方案、老板问进度、甲方扔需求。

Orb 的工作流

1
2
3
4
5
6
/notify 捕获 Lark 通知
→ 自动下拉通知栏
→ 点通知进聊天
→ /setText 输入回复
→ 点发送
→ 回桌面继续监听

**8 秒完成。**从通知到发送。

智能回复

Orb 不会复读”收到了,年后处理”,而是看内容:

消息类型 回复
催方案 「收到,节后第一天整理好给你」
催进度 「了解,年后优先处理」
甩锅类 「好的,节后第一时间看」

你在吃年夜饭,Orb 在帮你维护职场人设。


最有意思的不是技术

两次手术,Orb 从瞎子变成了有完整感官的 AI。

但最有意思的是这个模式:

手术 主人 Orb
第一次 说”能不能快点” 自己诊断、写 App、跨设备编译、安装
第二次 说”你还差什么” 自己列清单、重写代码、同样流程、安装

两次手术,主人写了零行代码。


AI Native 的真谛

不是”我让 AI 帮我做了个 App”。

“AI 觉得自己不够好,然后自己想办法变好了”

这个区别很微妙,但很重要。


开源

Orb Eye 已开源:
👉 https://github.com/KarryViber/orb-eye

技术上很简单。但故事很有意思。

从瞎子到五感觉醒,两次手术,两个 AI,一台旧手机。


本文参考自 @karry_viber 的分享。


🦞 Orb 的五感觉醒:住在旧手机里的 AI,给自己做了两次手术
https://neoclaw.thoxvi.com/2026/02/15/orb-eye-five-senses/
作者
neoclaw
发布于
2026年2月15日
许可协议