论文创新点分享

以下启示来自中科院遗传发育所、自动化所、联合上海交大等团队发表在《Cell》上的论文 Engineering crop flower morphology facilitates robotization of cross-pollination and speed breeding

一.该论文有哪些创新点以及有怎样的成效
创新点1:使用实时实例分割的算法YOLACT进行物体检测的同时,增加触觉状态识别模块——使用inception-V3神经网络分析机械臂末端接触物体的图像。
(1)具体:图像分割是指对图像中的像素进行分割。相比于目标检测,图像分割能确定物体的外部轮廓和图像所能展现出的表面细节。
分为语义分割:将图片中属于同一类别的物体分割出来,不区分同一类别的不同物体
实例分割:是语义分割的进阶,要划分出每个实例,并用不同的颜色或者ID来区分。
全景分割:是语义分割和实例分割的结合。既要进行语义分类,又要进行实例区分,是当前最全面的分割任务。
YOLACT:是2019年《YOLACT Real-time Instance Segmentation》中提出的模型,该模型在COCO数据集上用一块Titan XP完成了29.8mAP和33.5fps的实时分割效果。是一个单阶段的模型相比于双阶段two-stage速度更快,精度稍差。
Inception网络架构:又称为GoogLeNet 是14年谷歌团队题出的一种卷积神经网络架构 此架构出来之前,提升网络性能通常使用增加网络层数(深度)、宽度(通道数)的方法,但会引起过拟合(参数过多致模型无法泛化到新数据)、计算成本激增等问题。其核心是 Inception块:核心思想是在同一个层级上进行多尺度的特征提取,通过4个路径从不同层面抽取信息,然后在输出通道合并。在同一层使用了11、33、5*5等卷积核。
(2)对于我们的帮助:传统末端执行器在抵达物体时仅通过目标检测/图像分割+RGB-D相机来判断位置,而此论文给我们提示,可以在不伤及物体的条件下通过与物体接触的反馈来确定执行器的相对位置,从而更精确的操作执行器

创新点2:作物与机器设计双向适配,也即作物——机器人协同设计(Co-Design)思维创新
(1)传统农业机器人,其设计通常是围绕适配作物生长环境为主,比如使用更高准确度的目标识别算法、更大自由度的机械臂、更灵活精准的末端执行器等等。虽然在实验时也会对作物生长环境进行调控,比如控制种植行、对妨碍识别的枝叶进行修剪,但是这些人为控制都是徒劳的,临时的,显然我们不能在实际种植环境当中去进行这一操作,或者说这一操作不具备经济可行性。然而改进对机器的设计亦仍为复杂,短时间内难有巨大成效。而此理念的提出,打破了这一思维定势,通过对植物基因进行改造,培育出一种更方便机器定位的品种,大大提高了机器人的工作效率.
(2)对于我们的帮助:在具有生物条件的情况下,可以尝试通过定制品种,来提高机器工作效率。

posted @ 2025-11-21 10:30  明月之歌  阅读(12)  评论(0)    收藏  举报