融合图像处理与超声测距的工件精确抓取
熊春山, 黄心汉, 王敏, 彭刚
华中理工大学控制科学与工程系,武汉430074
WORK-PIECE PRECISE GRASPING BY IMAGE FUSION PROCESSING AND ULTRASONIC RANGE MEASUREMENT
XIONG Chun-shan, HUANG Xin-han, WANG Min, PENG Gang
Control Science and Engineering Department, Huazhong University of Science and Technology, Wuhan, 430074
全文:
PDF
(241 KB)
HTML
( )
输出: BibTeX | EndNote (RIS)
引用本文:
熊春山, 黄心汉, 王敏, 彭刚. 融合图像处理与超声测距的工件精确抓取[J]. 机器人, 2000, 22(3): 183-187..
XIONG Chun-shan, HUANG Xin-han, WANG Min, PENG Gang. WORK-PIECE PRECISE GRASPING BY IMAGE FUSION PROCESSING AND ULTRASONIC RANGE MEASUREMENT. ROBOT, 2000, 22(3): 183-187..
摘要 图像处理给出工件的形心在图像的位置与姿态,利用本文提出了一种简单与高精度的映射算法,求出形心在机器人参考坐标的位置,引导超声波距离测量仪测量到工件的正上方测量工件的深度数据.融合图像处理给出的形心的位置与姿态和超声波测量得到工件深度数据,获得机器人的控制输入向量,控制机器人运动并实现精确抓取工件.图像处理的低误差与超声波的高精度深度测量,获得了工件抓取的高精确度.
关键词 :
边缘 ,
角点 ,
超声波 ,
多传感器数据融合
Abstract :The center pointer and pose of work-piece are given by image processing and are transformed to the robot coordinate by a simple and high precise mapping algorithm. The depth of work-piece is obtained by ultrasonic range measurement. The data fusion of center pointer, pose and depth of the work-piece and the control input-vector of robot is computed out. The robot movement is precisely controlled by the control input-vector and work-piece is precisely grasped. The low error of image processing and high precision of depth measurement ensure that the grasping is highly precise.
Key words :
Edge
corner
ultrasonic
multi-sensor data fusion
收稿日期: 1999-07-15
基金资助: 国家自然科学基金项目(69585003);国家863智能机器人子项目(863-512-20-01-9801)
作者简介 : 熊春山(1971- ),男,博士生.研究领域:机器人技术,多传感器数据融合,智能控制,通信与网络. 黄心汉(1946- ),男,教授,博士生导师.研究领域:机器人技术,多传感器数据融合,智能控制.
1 蔡自兴. 智能机器人技术的研究与展望.中国人工智能学会机器人专业委员会成立大 会暨首届学术研讨会论文集 1993 7:1 2 Bhanu B, Faugeras O D. Shape Matching of Two Dimensional Objects.IEEE PAMI,19 85,7(6):137-156 3 Radu Horaud Fadi Dornaika. Hand-Eye Calibration. The International Jour nal of Robotics Research, 1995,14(3):195-210 4 杨劲松 王敏 黄心汉. 超声波可变阈值测距装置 电子技术应用 1998 24(7):7-9 5 王敏 黄心汉 胡建元.集成化接近觉传感器研究.华中理工大学学报 1995 23(9): 33-36
[1]
赵威, 王锴, 徐皑冬, 曾鹏, 杨顺昆, 孙越, 郭海丰. 面向智能制造的工业机器人健康评估方法 [J]. 机器人, 2020, 42(4): 460-468.
[2]
姚二亮, 张合新, 宋海涛, 张国良. 基于语义信息和边缘一致性的鲁棒SLAM算法 [J]. 机器人, 2019, 41(6): 751-760.
[3]
罗元, 付瑜, 张毅. 基于FAST角点和仿射改进的随机蕨丛的单目视觉实时匹配算法 [J]. 机器人, 2014, 36(3): 271-278.
[4]
唐恒博, 陈卫东, 王景川, 刘帅, 李国波, 赵洪丹. 高精度高鲁棒性的轨道机器人全局定位方法 [J]. 机器人, 2013, 35(5): 623-629.
[5]
邹宇华, 陈伟海, 吴星明, 刘中. 一种室外非理想光照条件下的立体匹配算法 [J]. 机器人, 2012, 34(3): 344-353.
[6]
皮喜田, 徐林, 周升山, 魏亢, 王振宇, 刘洪英, 郑小林, 温志渝. 无创伤老鼠生物机器人的运动控制 [J]. 机器人, 2011, 33(1): 71-76.
[7]
魏军, 刘达, 王田苗, 曹莉. 基于段测试的X角点检测与亚像素定位 [J]. 机器人, 2011, 33(1): 97-101.
[8]
李阳铭, 孟庆虎. 一种广泛适用的激光雷达数据特征提取方法 [J]. 机器人, 2010, 32(6): 812-821.
[9]
刘威, 魏存伟, 赵逢, 段勃勃, 袁淮, 赵宏. 基于单目视觉的自车运动参数鲁棒估计 [J]. 机器人, 2009, 31(1): 20-24,32.
[10]
沈志忠, 王硕, 曹志强, 谭民, 王龙. 基于边缘检测的图像分割方法及其在机器鱼中的应用 [J]. 机器人, 2006, 28(4): 361-366.
[11]
孟江华, 朱纪洪, 孙增圻. 未知环境下基于传感器的移动机器人路径规划新方法 [J]. 机器人, 2005, 27(4): 319-324.
[12]
刘年庆, 周光明, 陈宗海. 一种基于多超声波信息精确建立环境模型的新方法 [J]. 机器人, 2005, 27(3): 261-266.
[13]
全红艳, 张田文, 蔺想红. 全景图拼接中的一种快速图像点对应策略 [J]. 机器人, 2005, 27(3): 236-240.
[14]
尹建芹, 田国会, 宁春林. 自动化立体仓库中的一种货物识别新方法 [J]. 机器人, 2003, 25(3): 201-204.
[15]
周延武, 李保国, 宗光华. 小波及模糊理论在擦窗机器人实时图像检测中的应用 [J]. 机器人, 2002, 24(5): 404-408.