Ryuuji
2025-07-21T06:54:20+00:00
正常人在开车时发现意外突发情况后一定先减速 确认情况安全后 才会快速通过
毕竟自己的命是最重要的 人都怕死嘛
但是智驾在发现情况后想的却是如何通过转向变道闪避来规避掉意外情况来快速通过
这是不是说明智驾的底层逻辑是 即使有危险 但是只要有成功的概率 他就会去尝试
嗯 ai是不怕死的
现在流行的端到端的逻辑是通过海量训练数据模仿人类驾驶,当然训练数据是可以人口筛选的,肯定不能用新手司机或者鲁莽驾驶的数据。目前的端到端来说,越接近人类驾驶的行为,这个模型越成熟。
安全第一是肯定的
但是现在评价智驾很多时候用到一个词 拟人
不拟人的会被认为是智障 没人用
现在暴露出来的这些安全问题,要么是模型仍然是规则和逻辑型辅助驾驶,要么是训练数据不够或者模型不够先进,要么是训练数据质量不佳。大模型AI现在就是这么模糊的一个东西,一般来说数据越多效果越好,但是没有一个保底的机制。
效率第一的感知最强,也最容易通过各种小视频得出遥遥领先
但是越效率越激进越等于危险驾驶
只要有一次失误,就可能致命
最开始做肯定是安全为先
后面竞争起来了。赶时间。冲宣传。打造卖点。
安全?谁在乎谁死。
[quote][pid=833600979,44706694,1]Reply[/pid] Post by [uid=62245939]一伊两月[/uid] (2025-07-27 15:07):
现在流行的端到端的逻辑是通过海量训练数据模仿人类驾驶,当然训练数据是可以人口筛选的,肯定不能用新手司机或者鲁莽驾驶的数据。目前的端到端来说,越接近人类驾驶的行为,这个模型越成熟。[/quote]看懂车帝的视频 没觉得这些模型有任何接近人类的表现
以一个老司机的经验 当你前面有一辆车横着需要绕过它时 一般都会选择从车尾绕 这样碰撞的几率最小
但是几乎所有的智驾都是选择从车头绕
[quote][pid=833601310,44706694,1]Reply[/pid] Post by [uid=64477979]廿九小只马[/uid] (2025-07-27 15:11):
看懂车帝的视频 没觉得这些模型有任何接近人类的表现
以一个老司机的经验 当你前面有一辆车横着需要绕过它时 一般都会选择从车尾绕 这样碰撞的几率最小
但是几乎所有的智驾都是选择从车头绕[/quote]模拟人类不等于能够接近人类啊。我的意思是端到端大模型的原理是模拟人类,但是目前,显然和真正人类差距还很大。就好比,拿篮球做例子,我训练投篮的方式是模拟库里的投篮方式,但是显然我的投篮表现没有接近库里表现。
Reply to [pid=833601310,44706694,1]Reply[/pid] Post by [uid=64477979]廿九小只马[/uid] (2025-07-27 15:11)
之前有智驾公司老板说过。
挺多是假的端到端。只是为了好宣传,加上的词。真正搞明白的,就那几个他认识的。
[quote][pid=833601310,44706694,1]Reply[/pid] Post by [uid=64477979]廿九小只马[/uid] (2025-07-27 15:11):
看懂车帝的视频 没觉得这些模型有任何接近人类的表现
以一个老司机的经验 当你前面有一辆车横着需要绕过它时 一般都会选择从车尾绕 这样碰撞的几率最小
但是几乎所有的智驾都是选择从车头绕[/quote]另外还有一种情况就是,数据集当中,高难度的类似场景的数据非常少。这种情况下,大模型就很难做出类似人类驾驶员的行为,毕竟对于大模型来说数据越多效果越好。
端到端这个技术选型
从根上就没办法实现以任何东西优先
一个企业端到端方案训练出的[保守驾驶]不能保证比自己的[狂野瞎b开]方案总是采用更保守的策略
这技术路线顶多只能选事故率低的司机操作作为训练集
至于这帮人是运气好还是真驾驶思路安全合理也不知道
可能实现你要的这种的
只可能是奔驰和哄蒙这种规则转化成高维规划求解的技术路线
因为这种技术路线才存在给安全、效率、假设路上其他参与者的啥比程度、其他参与者的圣人程度等等参数单独输入定价指标或系数
只不过显然哄蒙是把效率设为最高优先、同时觉得路上都是必须让他们的圣人的
[quote][pid=833601264,44706694,1]Reply[/pid] Post by [uid=62245939]一伊两月[/uid] (2025-07-27 15:10):
现在暴露出来的这些安全问题,要么是模型仍然是规则和逻辑型辅助驾驶,要么是训练数据不够或者模型不够先进,要么是训练数据质量不佳。大模型AI现在就是这么模糊的一个东西,一般来说数据越多效果越好,但是没有一个保底的机制。[/quote]我觉得训练越多可能会效果越差
路上正常驾驶时遇上意外的情况是较少的
然后大量安全情况的场景稀释了数据
导致AI认为出现意外的情况是小概率事件
那么在策略选择时就选择了更大胆的操作
码农 他自个知道 这行代码 安全第一,
还训练个锤子啊。[s:ac:无语]
各种训练过程中,需要人工审核 行为时,不就是为了找出 安全的那种模式么。
[quote][pid=833602217,44706694,1]Reply[/pid] Post by [uid=64477979]廿九小只马[/uid] (2025-07-27 15:21):
我觉得训练越多可能会效果越差
路上正常驾驶时遇上意外的情况是较少的
然后大量安全情况的场景稀释了数据
导致AI认为出现意外的情况是小概率事件
那么在策略选择时就选择了更大胆的操作[/quote]大模型AI现在就是没有保底机制的
其实是以客户感知最强为第一优先级的[s:ac:闪光]
[quote][pid=833602825,44706694,1]Reply[/pid] Post by [uid=62245939]一伊两月[/uid] (2025-07-27 15:28):
大模型AI现在就是没有保底机制的[/quote]我觉得需要保底机制
人是有本能的 当人懵逼时 不知道该做什么 就会先停下来再说
但是AI就是没有本能 他一定要先思考该怎么做 然后才能决定怎么做 但是紧急情况等你思考完 什么都晚了
安全优先=效率必定受影响,效率优先=安全必定受影响。谨慎要被一部分网友骂是人工智障,激进要被另一部分网友骂不敢用,什么时候可以突破规则,什么时候要严守规则光靠什么优先是解决不了的。所以现在的解决办法是用大量人类驾驶的样本喂给AI,优化算法,尽可能做到拟人的效果。只可惜现在大多智驾还做不到拟人[s:ac:哭笑]