核心不核心就看华为智驾就可以了
包括2024年ces 法雷奥的ceo介绍激光雷达时说 它可以看到摄像头或者人的眼睛或者雷达看不到的东西。设计的这款激光雷达是基于130km/h探测距离200米可以在晚上可以看到150米以外的黑色轮胎在沥青的地面。可以根据雨滴的多少去计算制动时机。1200w的点云,角分辨率0.5*0.5。法雷奥正在将激光雷达成为智能驾驶的主传感器这件事变成可能。所以又回到了老生常谈的,什么是自动驾驶?什么是高阶辅助驾驶。两者区别是什么?高阶辅助驾驶只需要做到丝滑,安全不安全都不需要考虑,为什么?因为驾驶员始终对驾驶负责,你随时要接管。就像空客有一个金科玉律,最后一条超出预期随时接管。那么自动驾驶只要车厂承担责任,丝滑是必须的,安全是第一的。感知 决策 执行。三者都要强大,才能够去实现安全第一,感知 决策强大执行不行,等于0,决策 执行强大,感知不行,聪明面孔笨肚肠一样不行。感知 执行强大决策不行,头脑简单四肢发达,绣花枕头一包草。一切都是以实际行动为表率,事实胜于雄辩。corner case不可能只靠聪明的大脑去完成,AI的出现只会让模型变得更聪明但不会解决corner case。激光雷达未来不是智能驾驶的安全冗余,是主传感器!$炬光科技(SH688167)$炬光科技(SH688167)$
核心不核心就看华为智驾就可以了
去掉激光雷达,本质上是为了省成本,而不是提高智驾水平。
不懂端到端,就不要谈自动驾驶和机器人。现在机器人的训练也是端到端,否则机器人根本就没有实用的可能性。自动驾驶和机器人都是学习人的操作,无缝学习。雷达只会造成混乱。遇到雨天和大雾天,汽车的视频比人类看得更清晰。那么,人类遇到这种情况下如何开车,自动驾驶也就会如何开车。需要明白一个前提,汽车没有经过屏蔽信号的视频,比人类看得清楚。不要用我们日常用的电子产品来衡量汽车摄像头。特斯拉对摄像头的信号都是自行处理,不用第三方的cis视频处理器,这样得到的数据都是原始的,非常丰富。
科普:现在最热门的chatgpt这类叫语言大模型,和特斯拉声称的端到端模型是两码事,它们仅在实现原理上可以归入深度学习这个很粗的类别,就像人和大猩猩都可以归为灵长目。语言大模型没有表现出任何具备高阶规划决策能力的迹象。特斯拉的端到端模型,不管名字里有没有大,目前也没能证明达到人类司机对于物理世界的理解和判断能力,更不用说决策和规划,离颠覆商业模式还差得远。
各位粉丝还是没有理解我这个帖子的内涵。
我的意思是,以后衡量谁家的AI能力强,要看他的大模型能力。
而纯视觉路线,是检验大模型能力的试金石。
如果你都不敢旗帜鲜明地走这条路,说明你的AI能力很强菜。
蜜大的这个判断觉得乐观了
曾经的电子工程师笑而不语,安全第一