理想马上的索尔芯片算力和vla到底都是什么,有科普吗

raahul-avatar

raahul

vla最大的作用是看懂可变车道,现在vlm也能做到但是准确率差点
至于什么车找人之类的还是算了吧,法规不允许
Soup<3-avatar

Soup<3

大概是极氪用的那个?英伟达出的。
_cursedd-avatar

_cursedd

单索尔理论上优于双O,但是猜测不会有质变,双索尔碾压双O,应该有质变,可以达成自动驾驶算力冗余
DatStapleBoi-avatar

DatStapleBoi

vla你可以理解为升级了一个手机电脑上用的类似deepseek的ai,然后这个ai指导智驾系统开车。原来一些没法处理的极端情况照样可以处理了。
Moncho-avatar

Moncho

理想的辅助驾驶是否在第一梯队?
hɔnoːs̠-avatar

hɔnoːs̠

楼上说的没错,只是冗余设计。相当于你的牛子从25cm增加到30cm,无论怎样还是留出一大截在外面用不完。
理想智驾目前不看好,外包团队
beanies-avatar

beanies

+ by [杯鲜橙汁] (undefined)

楼上说的没错,只是冗余设计。相当于你的牛子从25cm增加到30cm,无论怎样还是留出一大截在外面用不完。
理想智驾目前不看好,外包团队

闹麻了,极氪还来看不起理想智驾。还张嘴外包团队。这套话术海军都不好意思用了,还去捡垃圾。茶
ashsongh-avatar

ashsongh

+ by [扣扣扣子] (undefined)

单索尔理论上优于双O,但是猜测不会有质变,双索尔碾压双O,应该有质变,可以达成自动驾驶算力冗余

看到算力冗余
就想到蔚来4o的笑话
ashsongh-avatar

ashsongh

+ by [whoami4587] (undefined)

理想的辅助驾驶是否在第一梯队?

我认为是第一梯队
Swatt-avatar

Swatt

+ by [whoami4587] (undefined)

理想的辅助驾驶是否在第一梯队?

我个人认为,华为t0,理想,小鹏,momenta t1
_cursedd-avatar

_cursedd

+ by [杯鲜橙汁] (undefined)

楼上说的没错,只是冗余设计。相当于你的牛子从25cm增加到30cm,无论怎样还是留出一大截在外面用不完。
理想智驾目前不看好,外包团队

冗余算力可以拿出来做纠错计算,更安全
DGNo1-avatar

DGNo1

感觉贸易战这么大,thor落地不了
REA7ER-avatar

REA7ER

理想VLA,华为这次发布的ADS4,蔚来六月份发布的世界大模型,本质上是一样的东西。就看各自能发挥多少硬实力
unhappyface-avatar

unhappyface

+ by [杯鲜橙汁] (undefined)

楼上说的没错,只是冗余设计。相当于你的牛子从25cm增加到30cm,无论怎样还是留出一大截在外面用不完。
理想智驾目前不看好,外包团队

关海涛教你这么说的么哭笑
MonsterHNTER-avatar

MonsterHNTER

索尔芯片算力比vla 好!
Tesla101-avatar

Tesla101

你说的是Thor u吧应该。
1、Thor u:雷神索尔系列最底端的一款,4nm工艺,算力700T。Thor系列原设计算力为2000T,一路优化瘦身,目前入门级的Thor u应该是达到了漂亮国的出口限制要求/

2、VLA(vision language action):自动驾驶端到端2.0时代的一个技术方向,目前比较火热,早先应用于智能机器人等具身智能领域。
VLA的核心是L,大语言模型(LLM)。通过大语言模型的多模态和通用性特征,训练各类用于自动驾驶的不同维度的数据,达到拟人化的驾驶输出。
这一点有别于目前各家端到端1.0架构,端到端1.0主要是视觉神经网络模型,以视频数据训练为主干网络,模仿人类开车的方式和习惯。能实现动态场景行驶高度拟人化,但不具备长思考和长时序理解决策,在部分长距离静态场景中,无法达到满意的效果。
Gnomas-avatar

Gnomas

+ by [霸晚安] (undefined)

索尔芯片算力比vla 好!

绷不住了,这两个能这么比较?
JollyCo0perat1on-avatar

JollyCo0perat1on

我试驾看的就是副驾屏上有个对话框,实时输出当前传感器的信息,然后给一段语义分析
Zeen-avatar

Zeen

现在所有宣传VLA的都是假VLA,因为LLM的Decoder架构对算力要求太高,只能在云端训练大模型,再蒸馏到车端,搞个0.5B左右的小模型,而且这玩意儿延迟贼大。

很多人都在说特斯拉故意不说V12的架构,然后大张旗鼓宣传E2E,嫖了很多厂家。很多家实际做了才发现,刚开始数据量一上去效果很好,跑了一段就发现进入平台期,压了这头,抬另外一头,效果怎么也提不上去,还不如以前规则化的稳定。

现在有人反思,认为V12内部也是有一些特殊结构小模型去处理细节的,不然做不到很迅速的反馈速度。

当然,VLA未来可期,只要算力上去,算法改进,效果还是刚刚的。