首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

Python 机器人学习手册:6~10

在上一章中,我们讨论了构建机器人所需的硬件组件的选择。 机器人中的重要组件是执行器和传感器。 致动器为机器人提供移动性,而传感器则提供有关机器人环境的信息。 在本章中,我们将集中讨论我们将在该机器人中使用的不同类型的执行器和传感器,以及如何将它们与 Tiva C LaunchPad 进行接口,Tiva C LaunchPad 是德州仪器(TI)的 32 位 ARM 微控制器板,在 80MHz。 我们将从讨论执行器开始。 我们首先要讨论的执行器是带有编码器的直流齿轮电动机。 直流齿轮电动机使用直流电工作,并通过齿轮减速来降低轴速并增加最终轴的扭矩。 这类电机非常经济,可以满足我们的机器人设计要求。 我们将在机器人原型中使用该电机。

02

ROS2机器人编程简述humble-第二章-SIMULATED ROBOT SETUP .4

到目前为止,已经看到了基本包,展示了ROS2的基本元素,以及如何创建节点、发布和订阅。ROS2不是通信中间件,而是机器人编程中间件,试图为机器人创建行为。因此,需要一个机器人。机器人相对昂贵。有可能有一个真正的机器人,比如装有激光和RGBD相机的Kobuki,价格约为1000欧元。一个被认为是专业机器人的价格可以达到数万欧元。由于并非所有读者都计划购买机器人来运行ROS2,将在模拟器中使用Tiago机器人。Pal Robotics的Tiago机器人由带距离传感器的差动底座和带手臂的躯干组成,头部装有RGBD摄像头。在我们已经添加到worsespace的软件包中,已经有必要在Gazebo中模拟Tiago机器人(ROS2中的参考模拟器之一)。

04

伯克利智能体观看视频片段学习动作技能,无需手动标注

无论是像洗手这样的日常动作还是惊人的杂技技能,人类都可以通过观察其他人来学习。随着YouTube等来源的公开视频数据的激增,现在比以往任何时候都更容易找到我们感兴趣的任何技能的视频剪辑。每分钟都会有300小时视频上传到YouTube。不幸的是,我们的机器从大量的视觉数据中学习技能仍然非常具有挑战性。大多数模仿学习方法都需要简洁的表征,例如从动作捕捉(mocap)记录的表征。但获取mocap数据可能非常麻烦,通常需要大量的仪器。Mocap系统也往往局限于室内环境,闭塞程度最小,这可以限制可记录的技能类型。如果我们的智能体也可以通过观看视频片段来学习技能,那就相当好了。

05

使用10几行Python代码,快速建立视觉模型识别图像

视觉 进化的作用,让人类对图像的处理非常高效。 这里,我给你展示一张照片。 📷 如果我这样问你: 你能否分辨出图片中哪个是猫,哪个是狗? 你可能立即会觉得自己遭受到了莫大的侮辱。并且大声质问我:你觉得我智商有问题吗?! 息怒。 换一个问法: 你能否把自己分辨猫狗图片的方法,描述成严格的规则,教给计算机,以便让它替我们人类分辨成千上万张图片呢? 对大多数人来说,此时感受到的,就不是羞辱,而是压力了。 如果你是个有毅力的人,可能会尝试各种判别标准:图片某个位置的像素颜色、某个局部的边缘形状、某个水平位置的连续颜

09

机器人抓取汇总|涉及目标检测、分割、姿态识别、抓取点检测、路径规划

最近读了一些关于机器人抓取相关内容的文章,觉得甚是不错,针对一些方法和知识点,做下总结。本文综述了基于视觉的机器人抓取技术,总结了机器人抓取过程中的四个关键任务:目标定位、姿态估计、抓取检测和运动规划。具体来说,目标定位包括目标检测和分割方法,姿态估计包括基于RGB和RGBD的方法,抓取检测包括传统方法和基于深度学习的方法,运动规划包括分析方法、模拟学习方法和强化学习方法。此外,许多方法共同完成了一些任务,如目标检测结合6D位姿估计、无位姿估计的抓取检测、端到端抓取检测、端到端运动规划等。本文对这些方法进行了详细的综述,此外,还对相关数据集进行了总结,并对每项任务的最新方法进行了比较。提出了机器人抓取面临的挑战,并指出了今后解决这些挑战的方向。

04
领券