2019/1/29 16:47:27
据外媒报道,微软和麻省理工开发了一个模型,可以捕捉这些自动驾驶汽车系统的虚拟的“盲点”。据麻省理工称,这种方法让人工智能将一个人在特定情况下的行为与它本来会做的行为进行比较,并根据它与反应的匹配程度来改变其行为。
如果一辆自动驾驶汽车在救护车疾驰而过时不知道如何靠边停车,它可以通过观察一名真实的司机移到路边来学习。
自动驾驶汽车仍然容易出错,部分原因是人工智能训练只能解释这么多情况。而该模型还可以实时修正,如果人工智能出了问题,一个人类司机就可以接管并指出了问题。
研究人员甚至有办法防止无人驾驶汽车变得过于自信,并将给定响应的所有实例标记为安全。机器学习算法不仅可以识别可接受和不可接受的响应,还可以使用概率计算来识别模式,并确定某样东西是真正安全的,还是仍然存在潜在的问题。即使一个行动在90%的情况下是正确的,它可能仍然会看到它需要解决的弱点。
这项技术还没有应用到这个领域。科学家们只是用电子游戏来测试他们的模型,在游戏中有有限的参数和相对理想的条件。
微软和麻省理工学院仍然需要用真正的汽车进行测试。不过,如果这种方法奏效,它可能在让自动驾驶汽车变得实用方面大有作为。早期的车辆在处理像雪天这样简单的事情上仍然存在问题,更不用说在快节奏的交通中,一个错误就可能导致撞车。这可以帮助他们处理棘手的情况,而不需要精心设计的定制解决方案或将乘客置于危险之中。
来源: AI 锐见
声明:本网站部分文章转载自网络,转发仅为更大范围传播。 转载文章版权归原作者所有,如有异议,请联系我们修改或删除。联系邮箱:viviz@actintl.com.hk, 电话:0755-25988573