机器人的起源发展和常见的种类
扫描二维码
随时随地手机看文章
小编与大家一起了解了机器人的起源发展和常见的种类。随着机器人越来越多地参与到我们的生产生活中,它们的“类人”属性逐渐凸显,有时我们甚至产生它们拥有人的感官和思维的错觉。它们可以灵巧躲避障碍物,甚至能听会看可交流,逐渐成为了我们工作生活中不可或缺的伙伴。其实,机器人这一系列类人能力的背后离不开日益成熟的感知技术。今天与大家一起了解下机器人那些“神奇”的感知技术。
一、机器人是什么?你不知道的那些事儿二、形态各异、功能多样,机器人种类知多少?
机器人感知系统的基础硬件单元是由不同种类的传感器构成的,它们作为机器人身上的感觉器官,充当了眼睛、耳朵、鼻子等重要角色。不同类型的传感器用于收集不同的测量信息,经过数据处理阶段,输送到不同的感知算法,为机器人后续的规划、控制阶段提供支持。
感知技术是机器人获取和理解环境信息的基础,它可以给应用层带来更多可能。一般可分为视觉感知、听觉感知和触觉感知等大类。
视觉感知
机器人视觉感知技术包括硬件传感器的研发、软件算法的研发等。主流视觉传感器系统包括单目、双目立体、全景、混合等。依据不同的应用场景选择合适的传感器配置,从而得到目标视觉信息的全周期、全覆盖。
单目视觉系统仅使用一个摄像头,由于三维空间的深度信息在成像过程中丢失,这种系统无法直接测量物体的距离,通常依靠其他技术或算法间接估计深度。单目系统的视角取决于摄像头镜头的参数,通常视角有限,但可以通过调整镜头来改变,广泛应用于目标跟踪、室内定位导航等不需要非常高精度深度信息的场合。
双目视觉系统通过两个摄像头模仿人眼的体视功能,利用三角测量原理获得场景的深度信息,可以比较准确地恢复视觉场景的三维形状和位置。双目系统的视角较宽,因为两个摄像头从不同角度捕获图像,有助于深度信息的获取。用于需要高精度深度信息的应用,如移动机器人的定位导航、避障和地图构建。
全景视觉系统是具有较大水平视场的多方向成像系统,突出的优点是有较大的视场,可以达到360度,全景视觉系统可以通过图像拼接的方法或者通过折反射光学元件实现,适合需要大范围监测的应用,但本质上是一种单目系统,无法直接获取深度信息。适用于机器人导航和某些监控任务,需要大范围监视但不需深度信息的场景。
混合视觉系统结合了多种视觉系统的优点,例如单目或双目视觉系统与其他传感器如激光雷达的结合,能够同时提供宽广的视场和精确的深度信息。混合系统的视角取决于组合的各个传感器,可以实现广角监测同时也能精确测距。混合系统结构配置复杂,需要多种传感器的配合,多用于复杂的应用环境,如自动驾驶,既需要广阔的视野又需精确的障碍物检测与测距。
触觉感知
机器人的触觉感知能力是实现与物体之间柔性交互的重要部分。触觉感知技术是现代机器人领域中的关键技术进步,它模拟人类的触觉,使机器人能够更智能地与环境和人类进行交互。触觉传感器根据其信号转换机制的不同,可以分为多种类型,每种类型具有不同的工作原理和应用场景:
压阻型传感器:利用弹性体材料的电阻率随压力变化的性质制成。当外力作用在传感器上时,弹性体发生形变,导致电阻变化,进而将机械刺激转化为电信号。
电容型传感器:利用两极板间电容的变化来检测受力信息。当外力作用于传感器时,两极板间的相对位置或介质厚度发生变化,导致电容值变化,通过检测电容变化量来获取受力信息。
压电型传感器:基于压电效应,当受到外力作用时,材料内部发生电极化现象,从而产生电信号。常用的压电材料如锆钛酸铅因其高灵敏度和快速响应被广泛采用。
光电式传感器:利用光学原理进行工作,通常由光源和光电探测器构成。当施加在界面上的压力发生变化时,传感器敏感元件的反射强度和光源频率也会相应变化。
磁导式传感器:在外力作用下磁场发生变化,并把磁场变化转换为电信号,以此感受接触面上的压力信息。
听觉感知
机器人听觉感知的应用包括让机器人能够听懂人说的话,此时需要在机器人系统上增加声波传感器、语音接口,对应的传感器阵列可以全面向接受声音信息,解析复杂的声波频率,提取连续自然语言中单独语音和词汇,结合自然语言处理技术实现人机语音交互。自ChatGPT等大语言模型、语音智能、自然语言处理技术爆发以来,服务型机器人如引导服务机器人、迎宾机器人、展厅讲解机器人、智能音箱等产品广受推崇。
当然机器人听觉感知,不单单指对于人类语音的识别,还包括通过声音传感器对于一切物体发出声音的判断。相比较机器人视觉感知对于物体判断的简单直接,听觉感知确实是人们一直忽略的领域。
在我们的日常生活场景中,其实除了用视觉来判断物体的远近、颜色和大小之外,我们通常也会用到听觉来识别物体的距离远近、质地,推测事件的发生。声源定位技术也是机器人主要的听觉感知技术之一。例如在巡检任务中,机器人的听觉感知可以帮助其快速定位到异常声源,实时监测工业设备的噪声状态。
激光雷达
激光雷达成像可以简单理解为使用激光发射部件向一定视场角FOV(Field OfView)内发射光线,同时使用接收部件接收范围内反射回的光线,利用已知和获取的发射光线与反射光线的相关信息,直接计算或推导出反射点的信息(速度、距离、高度、反射强度等)。
激光雷达探测技术可以分为TOF飞行时间法与相干探测法。
飞行时间(ToF)法:通过计算光波发射与返回的时间差来测量目标的距离。
相干探测法:与ToF直接测量时间不同,相干探测法通过测量发射电磁波与返回电磁波的频率变化解调出目标的距离及速度。这种方法的优势在于其高精度和抗干扰能力,特别适用于需要长距离和高精度测量的领域。
FOV即视场角,指激光雷达能够探测到的视场范围,可以从垂直和水平两个维度以角度来衡量范围大小。
垂直FOV:常见的车载激光雷达通常在25°,形状呈扇形:
水平FOV:常见的机械式激光雷达可以达到360°范围,通常布置于车顶;常见的车载半固态激光雷达通常可以达到120“范围,形状呈扇形,可布置于车身或车顶。
多传感器融合
在自动驾驶、移动机器人应用里,当机器人处于未知环境中,移动机器人的运动规划前提是要有精确的自主定位和环境感知,虽然摄像头和激光雷达都可以产生对环境进行信息感知,同时配置两者在一定程度上可以做到信息互补,补完路况中不确定性。
将摄像头与激光雷达产生的信息进行融合,利用冗余互补的信息形成更全面、更可靠的感知结果。目前比较常见的多模态传感器数据融合的方法有如下三种:
1、数据级融合(前融合):直接将不同模态的原始数据在空间上对齐后进行融合。
2、特征级融合(深度融合):分别对不同模态的原始数据进行特征提取并在特征空间中将各模态特征混合在一起。
3、目标级融合(后融合):在每个模态都对目标进行预测,然后综合不同模态的结果形成单一的目标输出。这种方法可以当成一种集成学习方法。
机器人感知技术的发展趋势指向更加智能化、综合化的方向。多模态感知融合技术将视觉、触觉、听觉等多种感知方式结合起来,使机器人在复杂多变的环境中具备更强的适应性和决策能力。深度学习的应用推动了感知技术的快速进步,通过大量的数据训练,机器人可以更准确地识别和处理复杂的感知信息。随着研究的深入,未来的机器人将不仅仅是执行命令的工具,而是成为能够理解人类意图和情感,与人类协同作业的智能伙伴。