banner
NEWS LETTER

openclaw_piper

Scroll down

起止时间:03/2026 ~ 04/2026

技术栈:[ROS2, Rviz, yoloV8, Piper, Orbbec, CAN, VLA, ACT, Diffusion Policy]

基于 OpenClaw Skill 框架,构建了一个由 Agent 驱动的视觉引导机械臂抓取系统,实现了从感知、决策到执行的端到端闭环控制。


🧩 系统完整能力拆解(面试重点版)
1️⃣ Agent 控制层(小龙虾)
基于 Agent(你说的“小龙虾”)作为决策中枢
负责任务理解 + 调用 Skill
实现:
“看见 → 理解 → 决策 → 执行”

👉 本质:
AI 在调度机器人能力(具身智能雏形)

2️⃣ Skill 执行层(OpenClaw 框架)
使用 OpenClaw 定义 Skill
将机器人能力模块化:
视觉 Skill
抓取 Skill
运动 Skill

👉 特点:

可组合
可扩展
支持 Agent 调用
3️⃣ 视觉感知(Perception)
YOLO 目标检测
实时识别目标(cup / bottle 等)
输出:
类别
bounding box
4️⃣ 空间定位(3D理解)
深度相机获取距离信息
计算:
像素坐标 → 相机坐标系
5️⃣ 手眼标定(关键能力)
完成:
相机坐标系 → 机械臂坐标系

👉 作用:
解决“看见 ≠ 抓得到”的核心问题

6️⃣ 抓取优化(PSO)
使用 PSO(粒子群优化)
对抓取点 / 抓取姿态进行优化

👉 提升:

抓取成功率
稳定性
7️⃣ 机械臂控制(执行层)
基于 SDK 控制机械臂运动
完成:
轨迹执行
抓取动作
🔁 系统闭环(你一定要会讲)
用户/任务

Agent(小龙虾)

Skill调用(OpenClaw)

视觉感知(YOLO + 深度)

坐标计算 + 手眼标定

PSO优化抓取点

机械臂执行抓取

bilibili效果展示
video-cover

openclaw.pngOpenClaw
handeye_calibration_ros.pnghandeye calibration ros,手眼标定法
PSO.pngParticle Swarm Optimization,粒子群优化算法

其他文章
请输入关键词进行搜索