姜岳升回到家后,感觉胸前好像压了一块石头,茶饭懒餐。
他一直在不停地思考一个问题,为什么在试验场,人们用肉眼一眼就能看出来机器人的伪装?而机器人确不能。
其实,在试验场,不管机器人是否改变伪装的形式,单个也好、聚集也好,我们人类都能轻松看出来。就好像我们看见一匹正吃草的马以后,我们也能辨认飞奔的马、打滚的马。
这还是因为我们的大脑捕捉到了很多机器人捕捉不到的特征。
也就是说,我们还是需要在识别单个机器人特征上下功夫。如果能抓住机器人足够多的特征,不管他怎么伪装,都能一眼识破。
想到这里儿,姜岳升觉得应该彻底改变思路,把重点放在机器人外观特征的建模上,而不是放在环境建模上,环境是千变万化的,我们建模的速度不可能跟得上环境的变化,而我们的目标是机器人、不是环境,只要抓住机器人足够多的特征,就可以以不变应万变。
他突然想起了AI大模型,于是在手机上打开AI大模型终端,输入:请问,监控是如何区分人和其他运动物体的?
很快,大模型的答案来了:
第一、识别轮廓特征,包括十个方位的轮廓特征;
第二、识别结构特征,包括肢体部位的相对位置特征和比例特征;
第三、识别运动特征,包括站立、走、跑的特征;
第四、识别面部特征,包括瞳孔距离、两耳宽度、鼻尖眉梢距离;
第五、识别运动轮廓特征,包括双腿摆动角度、双腿与躯干角度、双臂角度、双臂与躯干角度;
第六、识别运动结构特征,包括头部、上臂、腿部位置关系;
看到了大模型上的描述,姜岳升立刻有了主意,因为机器人的结构是模仿人类制造的,识别人的这些特征大多数是可以直接移植过来的。只需要让机器人能够准确地区别人类和机器人不就行了吗?
想到这里,他进入了AI大模型的编程入口