不。谷歌的汽车已经在自动控制下行驶了超过16万英里,没有造成任何事故。其中一辆谷歌汽车曾卷入前一次汽车追尾事故,当时它在红灯处被追尾。但目前还没有关于一辆由机器驾驶的谷歌汽车引发事故的报道。
谷歌在事故发生后发表声明说:“我们对谷歌司机最近造成的小事故表示遗憾,我们很感激没有人受伤。安全是我们的首要任务。我们的目标之一是防止像这样的小车祸,这种事故是在一个人手动驾驶汽车的时候发生的。”
我们没有理由怀疑该公司声称汽车是在人而不是机器的控制下。(当时这辆车实际上并没有进行试驾研究。)但这起事故引发了人们对自动驾驶汽车未来的一个有趣想法。在发生撞车事故时,执法人员能否证实事故发生时确实有人在开车?
只要调查人员能够查看汽车的记录,看看它是处于人驾驶模式还是自动驾驶模式,就不难确定汽车的电脑还是人驾驶模式。谷歌从其自动驾驶车队收集数据,包括自动驾驶模式下的数据。但是,在自动驾驶汽车的规则制定出来之前,没有人能确切地说,谷歌或任何其他开发自动驾驶技术的公司需要向执法部门提供多少权限。
这次意外,除了谷歌的话外,没有什么可说的了。山景城警察局对这起事故做出了回应,证实了这名人类司机说他正在开车,仅此而已。由于涉案车辆上的人没有报告任何伤亡,因此没有打开任何案卷。
虽然这个问题经常出现,但答案可能并不复杂。斯坦福大学互联网与社会中心(Stanford Center for Internet and Society)隐私与机器人技术主任瑞安·卡罗(Ryan Calo)说:“说到底,是车里的人,还是车的制造者。”也就是说,在普通的,现代的交通事故中,一旦事故中出现了过失,有两种可能是谁的责任——司机,或者,很少情况下,制造商,如果是汽车缺陷导致了事故。
在基本层面上,自动驾驶汽车应该没有任何不同。如果汽车在自动控制下出了问题,那可能是汽车的硬件缺陷、车内人员(如果他们当时在控制中)或计算机驱动系统的故障。然而,自动驾驶汽车的奇怪之处在于,驾驶员是硬件。虽然会有毫无疑问,自治系统的制造商将过错引发事故,我们soon-to-be-antiquated责任制必须决定是否计数自动驾驶系统的部分机械(在这种情况下,公司会承担制造商)或作为一个“操作符”。
内华达州正在努力解决这个问题。国家最近通过了一项法律,允许自主车辆在路上,和法律要求的一部分国家部门的机动车辆(DMV)来创建一个驾照背书”操作的自主车辆的公路上,”,背书必须“承认一个事实,一个人不需要积极推动自主车辆。”因此,用不了多久,电脑就可以拿到驾驶执照了。不过,目前还没有消息说,电脑是否需要在驾驶座上接受一个身材魁梧、令人生畏的执法人员的驾驶考试。
只有内华达州的法律明文允许自动驾驶汽车。在加州,这起事故发生的地方,谷歌并没有违反法律,因为他们的车辆在路上行驶,因为总有一个有执照的司机坐在驾驶座上,随时准备在出现问题时接手。在内华达州以外的州,使用自动驾驶汽车在技术上并不违法,原因很简单,因为没有法律明确禁止它。“当某件事不违法时,它就是合法的,”卡罗说。
也就是说,道路规则的制定并没有考虑到自动驾驶。例如,自动驾驶汽车理论上可以比人类驾驶距离更近地跟随彼此,因为它们可以彼此交流,反应更快。但许多州都有法律规定车辆之间的距离必须达到最小,这些法律需要修改。Calo称这样的法律是遗留规则的“灌木丛”,可能会阻止自动驾驶汽车在短期内充分发挥其潜力。为了扫清障碍,2011年6月,内华达州通过了一项法律,要求机动车管理局制定自动驾驶汽车的相关规定。法律要求DMV设计程序,以便在州内许可、测试、管理和批准任何自动驾驶汽车。国家要求这些规定在2012年3月1日前完成。
尽管扫除官僚障碍可能是一场噩梦,但卡罗指出,至少在技术方面,自动驾驶并不像你想象的那么遥远。他表示:“自动驾驶不是某种二进制的东西(一个开关),它就像一个频谱。”今天汽车的许多部件实际上是自动运转的。巡航控制在很多汽车中都很常见,自动停车技术也越来越普遍。他说,如果我们愿意让一辆车平行泊车,那么让一辆车行驶的跳跃幅度并不大。