包包吖 的讨论

发布于: 雪球回复:53喜欢:1
想知道:fsd出车祸,谁来承担责任?

热门回复

交通肇事致人死亡在国内和美国大多数州都是涉及刑事责任的可能要坐牢的行为,请问保险公司如何替你去坐牢?

Mark下,题主这类技术男有典型性,要不是干了七八年硬科技风投,换十年前听到,确实容易激动(被洗脑)

它说的是“up to”,换句话说就是“情节恶劣”的。哪些情况下会需要坐牢呢?酒驾或毒驾、高速逆行、闯红灯、肇事逃逸这些会需要。当然,如果是使用FSD的话,如果有证据可以证明司机在看电影,玩游戏之类的,也可以算情节恶劣。但是你如果就是正常驾驶,时刻保持警惕,FSD出错发生了意外,那就不可能算是情节恶劣。如果确实是用一个L2系统,还在高速玩游戏、看电影那也应该要坐牢。正常情况的交通意外,就和开车走神的交通事故一样,只要不跑路,去积极救人,做血检没有问题,再找个律师,想坐牢都很难吧……
另外,讨论任何问题也得实事求是吧。电话会议里说了,v12的试用中,全北美170万车主有一半都参与了试用,在过去20天里,FSD的驾驶里程就增加了约5亿公里。在这近百万车,约5亿里程里,一个造成伤亡的安全事故都没有。注意,5亿公里,一个都没有。

拿锤子的人,看什么都像是钉子。你可能误解了FSD v12的实现原理,你以为他们是用强化学习实现的,但其实不是。FSD v12并不是闭环端到端,它不是通过深度强化学习去实现的,而是基于模仿学习实现的。他的迭代是基于现实世界实测数据的反馈,再去做相应的数据调整,以及生成视频做对抗训练。所以我认为,你基于你自己能力圈对于FSD所做出的“无法胜任复杂情况”的判断是不适用的。
自动驾驶的模型一定要在真车上去测试,现实世界里,真车1公里测试数据抵得上模拟100公里。当我们讨论自动驾驶的端到端,指的并不是下围棋那种,给一个决策端到端输出胜率,而是指“光子入,控制出”的一体化的神经网络,输入到输出中间全部黑盒。
FSD v11是先做占用网络用来识别异型障碍物,然后再用搜索树做路径规划,最后再输出车辆控制。v12将多个模块进行了整合(不再使用搜索树),使得上游的微妙信息可以无损流向下游,这理论上可以让FSD更高效的做出预测。比如在车底下看见一双脚,就可以知道后面可能有人,就可以提前减速。在v12之前的模块化方法中,这种能力是不可能实现的,而FSD v12已经在很多实测中都展现了这种能力。
其实想想也知道,交通系统的安全性,不在于无止境的追求最好的驾驶技能,而在于与其他参与者配合融入。无人车是要和人类驾驶员一起上马路的,所以如果要去做闭环模拟,用强化学习来训练一个“最优”策略,你怎么预测其他交通参与者的行为呢?想想就很奇怪。用模仿学习来训练FSD,再用现实世界的接管反馈来做调整明显要更靠谱一些。

就我目前使用情况看,FSD自身的安全性很高,但估计也没有办法杜绝其他车辆行人违章导致的事故,好在有相关法律,该谁的责任就谁负责,而且特斯拉有自己的保险公司

雷兄解释的非常好,那种人在国内很多,对技术一知半解,其实就是技术方面的井底之蛙,夏虫不可语冰

我要不是刚重新考了一遍笔试我就信你了

按交通法责任划分,保险公司承担部分。因为特斯拉fsd大大降低交通事故几率,保险公司大赚,最后马斯克自己收购一家汽车保险公司。

你这些都是从Tesla的分析报告中学的吗?挺强的哈。但是误区的是你,不是我[捂脸]模仿学习也是dqn的一个分支,是同一个研究领域。举个例子,alphaGo就是模仿学习+自博弈finetune。第二点就是,算法层面,模仿学习的效率是远远低于和环境交互的自我学习。参考alphago和zero的天差地别。自动驾驶需要用模仿学习和真车环境,是因为仿真环境不够真实而不得不进行的妥协,并非优势。第三点就是,端到端、光子进策略出,我给你翻译成学名,你可以搜搜资料,cs phd应该很容易看懂。输出胜率的是value based,输出策略的是policy based,最新的基于ppo的a2c/a3c很早就对他们做结合了。而且可以说已经一统江湖了。自动驾驶因为是一个...怎么说呢,对bad case非常敏感的领域,所以才会导致整体工程实现上要落后最新的dqn算法1~2代。你讲的v12的这些概念,在dqn真的已经非常普遍了。但是稳定性...真的不行,在复杂情况下。当然,比拆分模块的效果当然是碾压的,现代所有非端到端建模的方案早就已经没有存在的意义了[捂脸]

然而你肯定不知道AlphaGo Zero,端到端架构版本的阿尔法狗。仅40来天就以100%的胜率赢了那个可以随便虐柯洁的老版本。你不会以为v12还和v11一样在用蒙特卡洛搜索树吧?
另外,围棋棋盘的状态数是3的361次方(比整个宇宙的原子数更多),我要是没有深入了解过,可能也信你说的可以穷举了……