一个正在被解决的瓶颈。
全球粮食产量年增长率目前约 1.3%,要满足 2050 年的需求需要达到 2.4%。差了一倍。更难的是,现有增产路线正在逼近天花板——到某个时间点,谷物产量会停滞在比现在高不了多少的水平线上。
增产靠育种,育种靠数据。但传统表型采集效率低、破坏性强——拔出来量完,这一株的生育期数据就断了。时间维度上的连续变化,传统方式根本拿不到。
这是整个表型组学领域的核心矛盾,也是一批表型机器人团队正在试图解决的核心问题。
田间表型机器人:从尺子到机器人
这个方向的演进,经历了四个阶段:
1960s:纯人工阶段。 尺子+记录本,几十株,数据质量完全依赖操作者的经验。
2000s:遥感阶段。 卫星和无人机加入,覆盖面大了,但分辨率不够,受天气影响严重——云一厚,数据就废了。
2010s:高通量阶段。 地面传感器阵列配合 UAV,数据量和精度都上来了。但大部分还是"单次采集",时间维度依然残缺——本质上,还是在用更快的尺子。
2020s:自主地面机器人阶段。 这才是真正值得花时间讨论的方向。轮式、六足、轮腿复合的移动平台,配合传感器阵列,可以在整个生育期内自主巡检——同一批作物,从出苗到灌浆,每个阶段都留下数据。
真正让这个阶段和之前不同的,是"连续"两个字。
产量是遗传率最低的性状之一,单独看产量来选种,效率很低。但如果能把跟产量相关的其他性状都测出来,做联合分析,预测精度会高很多。这是表型研究里一个关键判断。
问题变成了:你能不能对同一批作物,在不同时间点连续地、非破坏性地把多个性状都测量出来?
能,你就拿到了真正有价值的数据基础。不能,后面建再多模型都是巧妇难为无米之炊。
四代平台:各有各的局限,没有全能冠军
拖拉机改装的平台——承重强,能装大型成像腔体,可以控制光照环境。但问题是土壤压实,频繁下地会把土压板结,反而影响作物生长。另外轮胎震动会干扰精密传感器的精度。
手推车/电动的平台——轻便,成本低,组装容易。但人工推着走,速度慢,不适合大面积作业。
缆索/门架式平台——固定安装在田里,传感器可以在 XYZ 三个方向精确定位,不接触土壤和作物,全天候自动运行,精度最高。但只覆盖固定的一小块地,建设和维护成本极高,只适合高价值作物的小区试验。
移动机器人——轮式控制简单,成本低,适合平坦大田;六足稳定性好,适合复杂地形。这是目前最新的一代,也是我认为最有前景的方向:解决了"在整个生育期自主巡检,积累同一批作物的连续数据"这件事。
没有哪种平台是全能冠军。选择哪种,取决于具体场景和测量需求。
传感器:不是越多越好,是越匹配越好
聊到表型机器人,一定会聊传感器。六种主流传感器,各有各的适用场景:
RGB 相机——最常用,分辨率高,配套算法成熟。但没有深度信息,在玉米田这种叶片重叠严重的场景,冠层内部的测量精度经常达不到育种要求。另外对光照敏感,正午过曝、阴天信息量急剧下降。
LiDAR——精确测距,主动发射激光,不依赖环境光。擅长三维结构测量:冠层高度、点云密度、生物量估算。但贵,重量大,实时处理对边缘计算要求高。
热成像——测的不是温度本身,是水分状态。水分胁迫时气孔关闭,叶温上升,这是 proxies,不是直接测量。而且单测一个叶片的温度没有意义,需要同时测环境温度、空气湿度、太阳辐射,做归一化对比。这个标定过程不 trivial。
高光谱成像——能捕获几十到几百个连续波段,同一像素的光谱曲线就是它的"指纹"。核心优势是生化指标反演:叶绿素含量、水分、氮含量。它解决的是其他传感器都解决不了的问题——不接触作物就能估算内部生化状态。但数据量极大,传输、存储、处理都是挑战。
多光谱成像——可以理解为"简化版高光谱",几个到几十个离散波段。成本低、采集快、重量轻。能告诉你"这片区域健康程度如何",但没法告诉你"叶绿素浓度具体是多少"。定性或半定量,不是精确定量。
3D 激光扫描——精度最高,毫米级,但需要静止扫描,扫描一个小区可能需要几分钟到几十分钟。大面积动态作业不适用。
选型不是选"最好的",是选"最合适的"。传感器融合的目的不是堆数量,是互补。每种传感器填补现有数据的哪个空白?想清楚这个,再决定上什么。
AI 正在改变游戏规则
整个领域最被低估的部分,就是 AI 在表型数据分析里的应用。
传统方式:从原始信号到可用性状,需要人工解析。点云里哪段是茎秆、哪段是叶片,光谱里哪个波段跟叶绿素含量相关,这步做不好,原始数据就是噪音。
机器学习改变的是这件事:算法可以从大量数据里自动学习这些映射关系,不需要人工一条一条定规则。
更重要的是,AI 让"预测"变成了可能。有一批性状数据——株高,叶面积、穗位高、叶片倾角——育种者真正需要的不是这些数字本身,是这些数字和最终产量之间的关系。模型做的是这件事。
但一个关键瓶颈是:数据的质量和数量决定模型的上限。测 100 株和测 10000 株,训练出来的模型判别能力差一个量级。
数据到决策之间,隔着一整套知识体系。采集端,分析端、决策端,每一环都是独立的壁垒。能把这三个环节串起来的团队,在整个行业里非常稀缺。
无人机和地面机器人,到底谁更有前途?
这个问题我被问了无数遍。
无人机适合: 大面积快速筛选,发现"这块地有没有问题"。上帝视角,永远是地面平台做不到的优势。
地面机器人适合: 高分辨率器官级别测量,冠层内部的多角度观测,受叶片遮挡影响小的精确三维重建。
说白了,无人机看的是"面",机器人看的是"点"。两个层次的数据,缺一不可。
但地面机器人的壁垒在于,它是真正的高分辨率数据源——株高、叶面积、穗位高、叶片倾角,这些育种家最关心的性状,恰恰需要近距离、侧视、甚至仰视才能测准。无人机做不到这个精度。
国内外都在做什么
这是整个领域最有意思的部分。
国外代表性系统:
BoniRob(德国,2009):早期代表,铰接臂连接底盘和传感器模块,可调行距,主要测玉米和小麦冠层。后续迭代逐步增加了更多传感器和自主性。
Thorvald Ⅱ(挪威):多用途平台,可以在果园和大田之间切换,既做表型数据采集,也可以配合采摘机械臂做辅助作业。
TerraSentia(美国,2023):小型化,激光雷达+侧视 RGB 相机,灵活穿行于玉米和大豆行间,专门解决冠层内部的数据获取问题。
Ladybird(澳大利亚,2019):光伏遮阳板——既供电,又给光学传感器提供稳定光照条件。解决的是田间光学测量受光照变化干扰的老问题。
国内走得更有针对性:
农机院的摆臂底盘:根据地面起伏自动调整姿态,专门解决复杂农田路况的通过性。
浙大的多传感器适配平台:针对国内主要作物行距设计,可同时搭载高光谱、多光谱和热成像仪。
华中农大团队的 HPS-FR:加了一个暗室结构,隔绝光照干扰,提升数据可重复性。这个思路在国内很少见,但逻辑很清晰——越精准的测量,越需要控制变量。
一个反直觉的判断:机会不在本体
聊这个方向的人,多数在关注导航做得准不准、通过性够不够好、续航行不行。
这些当然重要。但真正的价值窗口不在这里。
本体解决的是"能采到数据"。分析层解决的是"数据能变成决策"。
现在行业的真实瓶颈是什么?是有数据的团队不知道怎么分析,有算法的团队拿不到足够的真实标注数据。
真正稀缺的是能把这条链路跑通的人:传感器采集原始数据 → 算法解析出性状 → 性状数据训练预测模型 → 模型辅助育种决策。能做这件事的团队,在整个行业里非常少。
表型机器人公司如果只卖硬件,天花板很低;如果能同时提供数据分析能力和育种决策建议,完全不一样。
这是我们做未农智能的核心判断:机会窗口在感知-分析层,不在本体层。 本体是入口,不是出口。
结语
表型机器人的本质,是一个可以反复使用、长期观察、不破坏作物的数据采集系统。
它的价值不在某一次测量有多准,而在拿到整条生长曲线。这个曲线才是育种决策真正需要的。
无人机看天,机器人看地。两者各有所长。但对于真正想把表型数据用起来的团队,地面机器人是绕不过去的工具。
而比机器人本体更值得布局的,是感知-分析这条链。
参考文献
- Khan M.A. et al. Autonomous Field Phenotyping: Revolutionizing Crop Breeding with Artificial Intelligence. Custom-Designed Crop Breeding: Advanced Technologies, Wiley 2026.
- 宋鹏,李正达等. 作物表型机器人研究现状与展望. 华中农业大学学报, 2025.
- Furbank R.T. & Tester M. Phenomics – technologies to relieve the phenotyping bottleneck. Trends in Plant Science, 2011.
- Ray D.K. et al. Climate change and the persistence of static yield forecasts. Nature, 2012.