脑机接口|脑机接口+自动驾驶,未来驾驶新场景?( 二 )


如何通过脑机接口实现复杂驾驶?在现有技术能力下 , 能否更好地突破脑机接口在驾驶领域的应用呢?
国防科大有个想法 。
12月24日 , 国防科大的一件专利《一种基于脑机交互的车辆控制方法及装置》获得授权 , 将脑机接口与智能汽车结合了起来 。 能通过脑机交互 , 实现超车、跟车、左转、右转、环道等变换复杂的驾驶环境 。

没错 , 不是近期在自动驾驶领域崭露头角的华为 , 不是特斯拉 , 也不是百度阿波罗、小鹏这些智能车玩家 , 而是那个在校门口拍个照片都要被赶走的神秘大学——国防科大 。
他是怎么做到用脑机接口实现复杂驾驶的?
根据专利内容描述 , 其主要包括以下几个模块:
S1.信息感知:被控车辆在驾驶过程中 , 通过车辆自身传感器 , 实时感知被控车辆的外部环境信息以及被控车辆的自身状态信息;
S2.决策需求判断:根据实时感知到的被控车辆的外部环境信息以及被控车辆的自身状态信息 , 判断与当前环境匹配的所有驾驶场景 , 并作为可选驾驶决策输出以提供给驾驶员选择;
S3.决策指令提取:实时采集驾驶员的脑电波信号 , 并从采集的所述脑电波信号中提取出驾驶员对于所述驾驶决策的决策选择指令;
S4.车辆控制驾驶:当接收到所述决策选择指令时 , 根据所述决策选择指令从预先训练得到的多个驾驶行为模型中调用对应的目标驾驶行为模型 , 所述驾驶行为模型包括不同驾驶场景下驾驶员对方向盘的转向控制信息 , 使用目标驾驶行为模型控制车辆驾驶行为 。

简单来说 , 这项专利并不是在底层技术上——脑机信号识别、脑机芯片 , 这方面创新 , 而是在模式上创新 。
驾驶过程中需要识别的信号种类太多?那好 , 我们将部分信号处理的事情交给汽车的传感器 。 现在自动驾驶汽车技术进步飞速 , 基于视觉、激光雷达、V2X各种途径已经可以获取大量驾驶信息 , 且这类信号的获取能力已日趋成熟 。 将其能力融合进来 , 可以省去大量需要解析的信号 。
现阶段脑机信号识别不是很难识别复杂的信号吗?那好 , 我们把复杂信号处理的事情交给“专家决策系统”(放到现有的自动驾驶系统中 , 可以与ADAS系统结合) , 让决策系统提供给我们“选择题” , 例如 , 在道路口时是直行还是转弯?转向哪个方向?而人脑只需要决策选哪个选项 , 而不是做“填空题” 。 这样 , 就解决了难以识别复杂信号的问题 。
根据专利描述 , 国防科大尚未将其应用在真实场景中 , 只是进行了仿真测试 。 在仿真环境中 , 能够很好地完成障碍物规避、超车、会车功能 , 仿真车辆的速度在25km/h~50km/h 。

图:仿真测试使用工控机6108采集模型运算所需的感知特征信息、图像数据 , 通过UDP传输给7164工控机 , 7164工控机接收感知特征信息、图像数据 , 通过调用不同场景下的驾驶行为模型得到车辆控制值或者决策策略 , 通过UDP传输给工控机6108进行车辆决策控制
结语或许 , 你会觉得这项尚未被应用到实际驾驶中的脑机控制车辆技术是空中楼阁 , 但是其提供了一种与自动驾驶结合的新思路:
在辅助驾驶、自动驾驶过程中 , 难以避免会出现复杂的路况 , 需要人工接管 。 现在 , 在人工接管状态下 , 完全退变回了人工驾驶的状态 。
但其实有相当一部分需要人工接管的场景 , 自动驾驶系统是有选项的 , 只不过限于识别准确率 , 自主决策的风险太高 。 能否把这一部分需要人工接管的场景 , 由自动驾驶系统处理成选项 , 交给人做选择题呢?结合脑机控制接口 , 这个时候 , 我们仍然不需要去物理触碰方向盘、刹车、油门 , 只需要帮自动驾驶系统做出决策就可以了 。

相关经验推荐