汽车技术市场动态分析

汽车技术市场动态分析
参考文献链接
https://mp.weixin.qq.com/s/DA_zr0-Ph0Wd7Eruc6SoUQ
https://mp.weixin.qq.com/s/EU–APLAgU-R73ztZQLtEg
https://36kr.com/p/1873317254449797
https://mp.weixin.qq.com/s/V03HWlM6SIkhe3EguoFriA
https://mp.weixin.qq.com/s/4ifHdjSM2XJZBN_hqXn2hg
https://mp.weixin.qq.com/s/WARn4j2T05ibZ7KUvM3Dag
SOA框架设计
由盖世汽车、AUTOSAR组织联合主办,AUTOSEMO指导的2022第三届软件定义汽车论坛暨AUTOSAR日在武汉举办。均联智行首席架构师汪浩伟博士受邀在会上发表演讲,分享基于SOA框架设计的人机共驾系统的思考。此次论坛吸引了近1000位业内人士参与,首日在线观看直播人数超过10万。
智能驾驶的发展的初衷是为了解决危险驾驶这个终极难题,安全是智能驾驶的第一要素。但只有安全还不够,系统还要做到足够智能,才能真的体现在实际生活中的价值。用户都希望自动驾驶辅助是个“老司机”而不是“萌新”。
目前的智能驾驶技术中,安全和智能在某种程度上存在矛盾之处。更高的智能会带来更多的安全上的挑战。因此需要在设计系统时就明晰安全边界,因为系统的成本框架会定义其复杂度,也就是定义其不同场景的功能和安全极限。
在这里插入图片描述

图片:安全与智能的矛盾
在这里插入图片描述

在未来较长的一段时间内,高智能的自动驾驶系统(L2++)会在乘用车上占据主导地位,驾驶员与智能系统同时共享对车辆的控制,人机结合完成驾驶任务。在人机共驾系统内,驾驶员和自动驾驶的交互十分重要,不单影响使用体验,也影响自动驾驶系统的安全性。为了能满足用户对于智能的要求,同时能做到足够安全,需要深入融合智能驾驶与智能座舱两大领域,让自动驾驶辅助成为陪伴司机的人工智能助手。称之为Co-Pilot AI.

在现有域控平台上开发Co-Pilot AI会在通讯,系统交互和统一化设计上遇到很多挑战,因此均联智行CCU与SOA以用户体验驱动为核心,设计可灵活部署、成本可控、满足未来座舱和自动驾驶深度融合的解决方案。在汪浩伟看来,基于SOA框架开发的人机共驾系统,能以最好的效率整合智能座舱、智能驾驶和驾驶员监控系统已有能力,并且充分发挥微服务框架的架构设计领先性。

在这里插入图片描述

汽车电子电气架构的发展推动了整个汽车行业开发方式的转变以及产品迭代速度的变化。从分布式到集中网关,到目前正在经历的以域控制器为核心,有中央化的功能和中央化的供电方案。再到几年后进入中央计算架构(区域-中央架构),其特点之一是软件比较彻底地从硬件剥离,软件开发不再受硬件的桎梏,另一点是区域控制器会将汽车物理信息系统进行分割。
中央计算平台不等于“吸收”传统ECU的所有功能,区域-中央架构提出了一种垂直分割的功能分层,而非“一站式”的解决方案。在区域-中央架构内,每一层都有清晰的职责:中央计算单元是全车的“大脑”,负责处理高层信息并决策所有行为。
在这里插入图片描述

图片:区域-中央架构的功能分配
当前汽车正面向自动化、智能化、网联化发展,软件在汽车中日益扮演着重要角色,需要以SOA框架和云原生的方式来支撑座舱域、自动驾驶域及其他功能的开发,在减少不必要冗余的同时满足多域之间频繁的信号交互需求。
软件定义汽车时代,整车的价值将不再由传统的机械硬件决定,而是由软件以及与软件所适配的电子硬件决定。均联智行立足场景与交互,挖掘SOA框架的价值,以实现用户思维和用户核心价值在智能驾驶汽车上的落地,带给用户更好的出行体验及安全性。
高级别自动驾驶2.0技术架构
由上汽人工智能实验室(上汽AI LAB)主办的“上汽AI LAB入驻临港—暨高级别自动驾驶2.0技术架构发布会”在上海临港举行,临港新片区管委会党工委副书记吴晓华,上汽人工智能实验室主任项党等人出席了活动。
上汽AI LAB高级别自动驾驶2.0技术架构由上汽AI LAB自主研发,其搭载面向量产的新一代多传感器深度融合方案,具备优质的感知精度和视域广度、优秀的长尾场景的应对能力,感知系统与车辆集成度更高,更好地实现了美观、安全性。该方案充分整合上汽集团产业链优势资源及强大技术实力,实现以业务驱动为主的技术成果转化,推动自动驾驶在城市场景中的规模化落地应用,促进临港地区的智能化、网联化发、规模化展,为未来建立临港“无人出租”业态场景打下基础。
率先于上海临港正式发布的上汽AI LAB高级别自动驾驶2.0技术架构,将在年内正式搭载在上汽Robotaxi 2.0上,并在临港开启运营。临港新片区管委会党工委副书记吴晓华到场致辞,并在讲话中称:“上汽AI LAB的技术发布,对临港新片区的人工智能、汽车电子产业发展具有重要意义。上汽AI LAB在自动驾驶城市场景中的规模化落地,为未来临港‘无人出租车’场景打下了坚实基础,更让看到了上汽集团在自动驾驶技术的落地速度与坚定决心。”
上汽人工智能实验室主任项党表示,高级别自动驾驶的研发是上汽集团在“新四化”战略下的重大创新发展战略项目。上汽AI LAB高级别自动驾驶2.0技术架构的发布,标志着上汽集团在智能驾驶,人工智能领域全面融合“智驾”,“智造”与“智舱”,逐步实现高级别自动驾驶的量产落地商业化模式,打造未来出行生态圈。
自主研发
高级别智驾系统.
在这里插入图片描述

基于多年在自动驾驶领域的积累,上汽集团人工智能实验室为本次发布的高级别自动驾驶2.0技术架构提供了自主研发的软硬一体L4级别自动驾驶解决方案。
通过高冗余硬件方案以及超过600TOPS高算力计算单元实现安全、舒适自动驾驶体验。整套系统建立全流程数据驱动的算法,高效的闭环自动化仿真工具链,打通量产整车与自动驾驶数据传输与技术融合,为L4自动驾驶提供海量数据支持,助力自动驾驶技术自动化快速迭代。
同时,上汽AI LAB高级别自动驾驶2.0技术架构支持远程驾控系统,通过多路摄像头与车身的传感器,驾驶员可以在控制室通过远程下发指令或接管车辆,保障车辆在路面自动驾驶的安全。远程驾控技术的推出为未来组建“真”无人驾驶车队增添可靠的安全保障。
整车“智”造
临港前装量产.
在这里插入图片描述

本次发布的高级别自动驾驶2.0技术架构即将装载在上汽 Robotaxi 2.0上,上汽集团以全产业链优势资源为其打造量产车规级自动驾驶解决方案。上汽Robotaxi 2.0由上汽原厂进行规划设计、开发改制,实现整车与智驾技术的高度融合。同时,上汽Robotaxi 2.0车队在上汽临港工厂内进行批量前装,按照GVDP量产汽车开发流程,融入了新型智驾车型开发工艺,提升了Robotaxi车队的一致性以及质量稳定性,整套工艺流程可高效实现高级别自动驾驶车辆的大规模量产。
在这里插入图片描述

多维交互
定制化智能座舱.

本次活动中,上汽AI LAB 还发布了全新的智能座舱,将驾乘体验提升到了新维度。通过软硬件协同,实现听觉、视觉、触觉的多模交互,为用户打造“沉浸式”的座舱体验。用户可通过手机一键叫车,与城市出行无缝链接,并通过智能交互远程控制车辆,如双闪找车、远程定制专属音乐、空调温度等,全方位实现“智慧出行”。此外,车内还配备了智能语音助手“小可”, 不仅能通过唤醒“小可”控制天窗、车灯、雨刮等车机功能,还能够随时与“小可”对话闲聊,除此之外,“小可”还为用户提供差异化服务,如通过多音区智慧感知功能,准确识别来自后排车内左右位置的指令,还为不同城市温馨定制了方言版“小可”的专属化服务,为用户带来安全、有趣、触手可及的未来出行体验。

上汽AI LAB
让出行充满AI.
2021年,上汽AI LAB高级别自动驾驶1.0技术架构已在上海、苏州两地发布,良好的乘坐体验获得用户的广泛认可。今年,搭载上汽AI LAB高级别自动驾驶2.0技术架构的上汽Robotaxi2.0年内将正式在上海临港、深圳地区投入运营。未来,上汽人工智能实验室将进一步加快在无人驾驶领域的布局,让自动驾驶走入更多城市,同时顺应交通强国战略部署,有效推动智能网联,人工智能与智慧交通的深度融合,携手生态伙伴一同构建更立体的未来出行生态,进一步落实上汽智能网联战略布局,助力临港打造智能出行新业态,让更多人体验到高级别自动驾驶带来的出行乐趣,真正地“让出行充满AI”。
乱拳打死老师傅:硅谷大厂还在发论文,产品已经上线了
AI 文字转图片成为了全球科技业的一大流行技术趋势。
几周前报道了“新一代梗图之王” DALL·E mini,一个脑洞十分清奇的文字转图片 AI 小工具。当时也提到, 包括谷歌、OpenAI 等大公司和顶级研究机构都在开发相关模型,就连时尚杂志《COSMO》都采用 AI 来设计杂志封面。
在这里插入图片描述

图片来源:COSMO 杂志
然而令许多人没想到是:
就在各家硅谷大厂斥巨资研发、砸了无数的人力、发了无数的论文,却还在测试相关技术的时候, 居然异军突起,首先把 AI 文字转图片做到了产品里,而且直接交到了全球十亿用户的手上……
乱拳打死老师傅,速度太快了
在 特效菜单下,最近增加了一个名叫“AI 绿幕” (AI Greenscreen) 的新选项。
点击这个选项,然后在屏幕中间的对话框里输入一段文字描述,只用不到5秒的时间, 就可以根据文字描述生成一张竖版画作,用作短视频的背景:
在这里插入图片描述

图片来源:硅星人截图
用的这个文字转图片模型,还是非常简单的。 硅星人测试了几个含义大相径庭的提示,生成的图片可以说都十分的“迷幻",没有任何写实色彩。
但这并不是缺点缺点——正相反,生成结果具有 非常强的水彩/油画感觉,风格迁移 (style transfer) 的痕迹明显,而且用的颜色也都鲜亮明快,给人一种耳目一新的感受。
在这里插入图片描述

图片来源:TechCrunch 截图
特别想单独说一下自己生成的两张图片:
下图左边的提示字段是知名游戏“最后生还者”。生成结果的辨识度太高了,这不正是游戏主角 Ellie 被泥浆血水浸湿的头发吗?
右图更有意思,提示是“轰炸”:完全没有想到如此“不和谐”的字段,模型居然生成的结果却相当的“自洽”,特别是图中的“轰炸机”反而看起来像是代表和平的“白鸽”——是否也能读出一点讽刺的意味?
在这里插入图片描述

图片来源:硅星人截图
当然话说回来,这些只是自己的解读和感受,绝不可能是模型的“本意”。但是有趣的艺术作品不正应该是这样嘛,让人能够发现一些巧妙的“彩蛋”,甚至浮想联翩,解读出另外的含义。
从这一角度,还是非常认可 目前部署的这个模型的。
模型的质量也值得一提。The Verge、TechCrunch 等美国媒体测试了一些特殊的敏感字段,AI 绿幕生成结果更加抽象了,显示出部署的模型在争议字段上可能已经做出了提前规避。
要知道 AI 文字生成图片本来就不是简单的技术,避免争议/道德风险更是一项相当复杂的工作。
在这里插入图片描述

图片来源:The Verge 截图
正如文章前面提到,谷歌、OpenAI 等巨头公司和知名机构开发的 AI 文字生成图片模型,目前都处于刚刚发布或者小范围测试,还在“纸上谈兵”的阶段。
这边 不仅很快跟进推出了同类模型,更厉害的是已经将其投放到全球十亿用户量级别的产品里了。
本来以为 AI 艺术创作的潮流还是几个硅谷大厂在引领,没想到居然“乱拳打死老师傅”——必须给互联网科技公司的工作速度和质量点赞了。
AI创作成潮流,硅谷大厂挤破头
早在2020年,全球知名的人工智能基础科研机构 OpenAI 发布了一个名为 GPT-3 语言模型。 当时 OpenAI 的论文题为“Language Models are Few-Shot Learners ” ,直接点出了超大规模语言模型在多种非训练人物上具备强大、快速的学习和掌握能力。
GPT-3 也完全没令人失望 ,在小 范围开放 测 试 A PI 之 后, 外界人士发出了各种各样神奇的 demo,展示了写段子、翻译公式、解数学题、完成用户界面设计、生成财务报表等能力。
“AI 文字生成图片” 也是这些能力的其中一项。
在这里插入图片描述

图片来源:硅星人
包括 O pen AI、谷歌、 Midjourney、Stability AI 等一众 大小 公司 ,已经开发出了多个 文字转图片生成模型,展示出神经 网络模型具备令人惊讶的艺术创作能力。
从 AI 文字转图片生成技术开始得到公众关注,到今天各路大厂和小公司挤破头也要掺和,各种不开放的、开放的、收费和免费的模型层出不穷……也就过去了一年左右的时间。
在这些模型当中,OpenAI 的 DALL·E 是最著名的一款。该模型一代于2021年推出,今年刚刚更新到了二代。用户只需提供自然语言描述,模型就能够生成非常写实 (photorealisitic) 的图片。
在这里插入图片描述

图片来 源:OpenAI
除了从零开始生成全新照片,DALL·E 2 还有更多功能,适合现实中多种艺术工作场景。
比如编辑能力,可以在一张已经存在的照片中,在用户任选的位置“删除”或者“添加”物体,并且编辑后的效果仍然很写实:
在这里插入图片描述

图示:在照片的不同位置添加“火烈鸟”。图片来 源:OpenAI
再比如 DALL·E 2 还具备“启发”的能力,能够根据一张已经给定的图片,生成风格近相同的新照片:
在这里插入图片描述

图片来 源:OpenAI
顺便一提:有个跟 OpenAI 没关系的第三方开发者,自己仿着 DALL·E 做了一个图片生成模型,还给免费开放了,取名为 DALL·E mini。
结果这个“仿制品”比正品还受欢迎,在社交网络 Twitter 上专门搬运这个模型生成的奇怪图片的账号,粉丝量都破了百万。甚至逼得 OpenAI 专门出来澄清没关系,要求开发者做出改变。现在这个免费小工具已经改名为 Craiyon 了。
(听说此事之后,粉丝们还做了一张梗图,嘲笑 OpenAI 那边还在控制测试权限,这边 DALL·E mini 早就给全网玩嗨了……)
在这里插入图片描述

图片来 源:FALSEKNEES
而在硅谷大厂的行列当中,现在谷歌是已知动作最快的,在 DALL·E 2 出来不久后也发布了自己的模型,名为 Imagen。
就像 DALL·E 的根源是语言超大模型 GPT-3,Imagen 的根源也是谷歌开发的泛用型超大语言模型 T5。至于 Imagen 的这个命名,其实是图片 (image) +生成 (generate) 的混成词。
在这里插入图片描述
在这里插入图片描述

图片来 源:Google Research
虽然做的比 DALL·E 晚,同样作为硅谷知名 AI 研究型公司的谷歌,还是非常不服 OpenAI 的,宣称找人做了一堆同类模型的盲测,结果是受试者更喜欢 Imagen 生成的结果,认为其在“生成质量”和“文字描述还原度”上都更胜一筹。
——当然,究竟是 DALL·E 2 和 Imagen 谁的生成结果更好,还是一个很主观的,见仁见智的事情。在技术实现上,这两家其实大同小异,都是用了 Diffusion(扩散)模型生成,然后再用 Super-Resolution(超分辨率) 技术来让生成结果更加清晰。
在这里插入图片描述

图片来源:Google Research
还有更多规模更小的新创公司也在做 AI 图片生成和艺术创作这件事。
其中一家比较有意思的公司就是 Midjourney,其创始人是原知名动作感应技术公司 Leap Motion 创始人 David Holz;公司的投资人和顾问团队更是相当强大,都是苹果、特斯拉、AMD、GitHub 等知名公司的核心人物。
Midjourney 跟 OpenAI、谷歌的写实方向背道而驰,而是在抽象、艺术性、独特风格之间寻求某种巧妙的结合点,这也是这家公司和其模型比较特别之处。另外 Midjourney 开放模型技术的做法也很“年轻化”,不是发布 API 和文档,而是把服务接口做到了聊天软件 Discord 里。
在这里插入图片描述

图片来源:Midjourney
说完这些比较知名的公司,再来看一家名不见经传,但是和 一样出手极快的美国公司:Stability AI。
这家公司总部位于硅谷 Los Altos,在上周刚刚发布了一个可以免费使用的 AI 图片生成产品 Stable Diffusion。
在这里插入图片描述

图片来源:Stability AI
Stable Diffusion 和前面介绍的几个写实派模型没有太大不同。但是和产品、公司名称里的“稳定”正相反,这个模型在有害/争议字段的处理上,可以说完全没有任何作为。而又因为产品是完全免费提供给公众的,已经有很多用户制作 deepfake、暴力、恐怖主义、虚假新闻图片等有害的内容了……
最近大半年,AI 图片生成已经成为了一个名副其实的科技行业“热词”,只是没想到,Open AI 和谷歌做了这么多年,却被 给悄无声息地跑赢了。接下来,应该会有更多的科技公司也参与其中,不少全民应用背后的大厂估计又要忙活着把这项技术加到产品中了。
NVIDIA Instant NeRF 赢得 SIGGRAPH 最佳论文
世界各地的开发者和创作者下载了来自 NVIDIA Research 的最新代码,以使用 2D 图像创建令人惊叹的 3D 场景。
在这里插入图片描述

3D 内容创作者纷纷开始使用逆向渲染工具 NVIDIA Instant NeRF ,能够将静态图像变成逼真的 3D 场景。自今年早些时候首次发布以来,全球已有数万名开发者下载了 Instant NeRF 的源代码,渲染出美轮美奂的场景,并在社交媒体上分享精彩的作品。Instant NeRF 的学术研究于 8 月 8 日至 11 日在温哥华和线上举行的 SIGGRAPH 上凭借其对计算机图形研究的未来发展所做出的贡献而被评为最佳论文,据悉今年仅有五篇论文入选该奖项,这篇论文也是 NVIDIA 著作者在本次大会上发表的 17 篇论文和研讨会论文之一,这些论文涵盖了神经渲染、3D 模拟、全息技术等主题。NVIDIA 最近举行了一次 Instant NeRF 抽奖活动,开发者在分享用该软件创建的 3D 场景后就有机会赢得高端 NVIDIA GPU。数百人参与了这项活动,发布的 3D 场景作品包括巨石阵等地标性建筑、自家后院,甚至宠物。
镜花水月:Karen X. Cheng 和 James Perlman
来自旧金山的创意总监 Karen X. Cheng 与软件工程师 James Perlman 合作渲染 3D 场景,以测试 Instant NeRF 的创作极限。
两人已经使用 Instant NeRF 创造了探索镜中反射(如上图所示)和处理多人复杂环境(比如一群人在餐厅里享用拉面)的场景。
在这里插入图片描述

Perlman 表示:“该算法本身就是开创性的。能够以比普通摄影测量技术更高的保真度渲染物理场景已经十分令人震惊,更不用说还能以如此高的精度再现照明、色差等其他细枝末节。”
Cheng 表示:“甚至让错误看起来都很艺术。太喜欢这一点了,有时会减少场景的训练次数,尝试 1000 次、5000 次或 50000 次迭代。有时候更喜欢那些训练次数少的场景,因为边缘会更加柔和,就好像油画一般。”
如果使用之前的工具,需要三到四天才能训练出一个“质量不错的场景”。有了 Instant NeRF,每天可以完成大约 20 个场景,使用 NVIDIA RTX A6000 GPU 来渲染、训练和预览其 3D 场景。
快速渲染带来更快的迭代速度。
Cheng 表示:“快速渲染对整个创作过程非常重要。会一起拍摄 15 或 20 个不同的版本,整夜运行,然后查看哪些版本可行。只有当在一天内能够运行多个场景时,发表的所有作品才能被反复拍摄。”
留下瞬间:Hugues Bruyère
蒙特利尔创意工作室 Dpt. 的合伙人兼创新主管 Hugues Bruyère 每天都在使用 Instant NeRF。
表示:“3D 捕捉对来说越来越有吸引力,可以重构和移动立体图形,赋予更加丰富的意义。”
Bruyère 使用其之前为传统摄影测量所采集的数据在 Instant NeRF 中渲染 3D 场景,传统摄影测量主要依赖于无反数码相机、智能手机、360 摄像机和无人机拍摄的照片。还使用 NVIDIA GeForce RTX 3090 GPU 渲染 Instant NeRF 场景。
Bruyère 认为 Instant NeRF 可以用来保护和分享在线图书馆、博物馆、虚拟现实体验和文物保护项目中的文化艺术品。
表示:“随着相机和软件解决方案变得越来越便宜,拍摄本身也走向大众化。在几个月或几年内,人们将能够捕捉物体、地点、时刻和记忆,并以可分享和永久保存的形式对进行实时立体渲染。”
借助智能手机拍摄的照片,Bruyère 为多伦多皇家安大略博物馆展览中的古代大理石宙斯雕像创建了 Instant NeRF 渲染。
步入遥远的场景:Jonathan Stephens
空间计算公司 EveryPoint 首席布道官 Jonathan Stephens 一直在探索 Instant NeRF 的创作和实际应用。
EveryPoint 重建了堆场、铁路站场、采石场等 3D 场景来帮助企业管理资源。通过 Instant NeRF,Stephens 可以更加完整地捕捉场景并让客户自由探索场景。还借助 NVIDIA RTX 3080 GPU 运行使用 Instant NeRF 渲染过的场景。
Stephens 表示:“最喜欢 Instant NeRF 的一点是让能够迅速知道渲染是否有效。以前,大型摄影测量集可能要等上几个小时或几天才能知道结果。现在可以测试出一堆不同的数据集并在几分钟内得到答案。”
还尝试使用智能眼镜等轻型设备拍摄的画面制作 NeRF。Instant NeRF 可以将 Stephens 走在街上拍摄的低分辨率、抖动的画面转换成流畅的 3D 场景。
汽车芯片短缺2022年底前得到缓解
汽车芯片短缺困扰着汽车制造商一年多,与2019年大流行前的水平相比,2021年全球汽车销量下降了10%(8100万辆)。分析师预计芯片短缺将持续到2022年,只是在年底前得到缓解。拜登政府甚至强调,关键芯片库存达到历史最低点(5天供应量与40天供应量相比),而某些芯片的全球半导体采购交货时间在25至44周之间,远远超出了正常的等待时间估计(10至14周)。
在这里插入图片描述

在某种程度上,大流行是造成这种供需差距以及过去几年缺乏对汽车芯片投资的原因。其他人则指出,“及时”生产方法是一个额外的瓶颈,因为对低库存数据的依赖成为效率的抑制因素,而不是贡献者,特别是在关键部件短缺的时候。一些汽车制造商(即丰田,福特,通用等)比其他汽车制造商(即宝马,特斯拉等)受到的影响更大,这一事实表明了生产方法,供应链管理和软件驱动的调整策略的关键差异,特斯拉在通过重写软件快速重新校准芯片时采用了这些策略。
无论归咎于什么因素,结果都是一样的,由于芯片短缺,美国,欧盟甚至多家工厂不得不暂时关闭生产。因此,一家芯片工厂的投资公告几乎每月都在发布。例如,福特等美国公司在肯塔基州路易斯维尔的工厂闲置一周后,最近宣布与GlobalFoundries建立合作伙伴关系,以加强芯片制造。通用汽车宣布与纽约州的Wolfspeed建立类似的合作伙伴关系。除汽车制造商外,三星和英特尔还宣布分别在德克萨斯州(170亿美元)和俄亥俄州(200亿美元)投资芯片,而台积电正在亚利桑那州建设一家工厂(120亿美元)。最重要的是,拜登政府已经完成了一项“芯片法案”,尽管仍在等待国会批准,并计划投资520亿美元来加速美国的芯片市场。
在这里插入图片描述

这些措施可能会在中期内缓解芯片短缺。福特首席执行官吉姆·法利(Jim Farley)在最近的彭博社采访中强调,生产方式调整从严格的“即时”制造转向对关键零部件的更高库存要求,可能会在短期内减少瓶颈。转向成为更加基于软件的公司将为传统汽车制造商提供更多的芯片重新校准灵活性,特斯拉的例子已经表明,该公司在2021年创下了另一个电动汽车(EV)交付记录,达到936,000辆。然而,随着电动汽车的转型达到全速发展,并且由于电动汽车需要的芯片数量是汽油或柴油汽车的两倍,因此需要一个长期战略。
芯片制造的地缘政治和经济性提供了一些见解。从地缘政治的角度来看,半导体供应集中在TMSC和三星等少数几家关键公司手中,这些公司控制着80%的市场份额。从经济角度来看,手机芯片需求与汽车芯片需求直接竞争,因为芯片制造商由于利润率较高而更喜欢供应前者而不是后者,这解释了为什么汽车行业目前仅占全球半导体需求的8%。这给美国带来了一个关键优势,因为芯片制造商很容易被吸引到技术驱动的美国市场,而不是欧盟等二级市场,这一优势最终会渗透到汽车行业。这也是《欧洲芯片法案》受到广泛批评的原因之一,也是为什么在美国而不是欧盟宣布数十亿美元的半导体投资的原因之一。就连政策制定者也对未来的半导体依赖感到紧张,因为已经从一个依赖美国及其盟友的全球产业进口了价值超过3000亿美元的芯片。
在这里插入图片描述

在电动汽车转型中,美国在电池生产、关键矿物开采和加工方面正在输给。根据IEA的数据,锂,钴,镍,铜和稀土等电池组件主要在加工(超过70%至80%)。
在这里插入图片描述

另一方面,尽管仅控制了目前半导体市场的12%,但产能的迅速提升可能会使美国在未来五年内交付全球四分之一的芯片。因此,在电动汽车竞赛内外,美国可能拥有关键优势的一个领域是半导体,这是一个高附加值和战略市场,应该以任何可能的方式扩大和利用。
自动驾驶:新势力头顶高悬的达摩克里斯之剑
饱受车祸事件困扰的2021~2022

2021年8月12日,福建企业家林文钦(昵称“萌剑客”),驾驶蔚来ES8汽车启用NOP领航辅助后,在沈海高速涵江段发生交通事故。时隔整整一年的2022年8月11日,宁波一辆小鹏P7在辅助驾驶状态下,在某高架桥路段撞向前方故障车辆,导致一名疑似正在处理事故的人员被撞身亡。期间还有台湾林志颖的车祸事件。
一年来,关于新势力的事故其实不多,只有3起。但这3起事故在网络舆论上均掀起了轩然大波。对于整个新势力造车的影响,不可为不大。到目前为止,3起事故的调查,均未有明显的结论;事故调查中出现的信息,也往往指向驾驶员没有按照厂家的规范进行操作。但是由于新势力们在广大消费者中所行程的品牌形象,每一次事故都引起了大家对于新势力造车的安全性的广泛关注与拷问。
在这里插入图片描述

• 2020年9月5日16时16分许,一辆正在南充城区行驶的特斯拉,突然撞上多辆车和多名行人,事故造成2人死亡、6人受伤,另有多车受损。
• 2021年8月,林文钦驾驶蔚来ES8开启NOP功能时,先是撞上了路边的桩桶,随后撞击位于快车道上的一辆高速公路养护车,养护车因此侧翻。
• 2022年月22日上午,林志颖开着一台白色特斯拉电动车,不慎撞上桥墩(电线杆)起火,索性路人救助,捡回两条小命。
• 2022年8月10日,一辆小鹏P7汽车在宁波的高架桥上发生了一起撞车事故,小鹏P7直接撞上了停在路边的汽车,并且撞到一个人,造成其死亡。据称车主当时开启了LCC。
加上2020年的南充特斯拉事件,这四起事件都是汽车速度不低的情况下,一头撞向静止障碍物。其中小鹏和蔚来均是开了辅助驾驶,而特斯拉的2起则是手动操作。根据网络上一些已经公布的信息,可以管中窥豹的了解一下事故的起因:
1.南充特斯拉事件,根据已经公布的结论,是驾驶员踩错了踏板。
在这里插入图片描述

  1. 再说蔚来事件,网传蔚来车主发表了联合声明,确定驾驶员必须在使用NOP的时候必须全神贯注的监控路面。
    在这里插入图片描述

3.关于林志颖的最新报道,由于发生在台湾,因此网络上众说纷纭。其中的一种说法是林志颖没有系安全带。万幸林志颖已经苏醒。
在这里插入图片描述

4.关于此次宁波小鹏事件,网络上流传了一些疑似车主的解释,从字面上理解,驾驶员没有注意道路前方。
在这里插入图片描述

在80码开车的时候居然走神?从已知信息看,如果以上的4起事故相关信息均是准确的,那么意味着驾驶员都要负很大责任。L2的智能驾驶,事故责任方在驾驶员。根据最近出台的《深圳经济特区智能网联汽车管理条例》,明确自动驾驶汽车(L3及以上)如果车上存在驾驶员,发生交通事故也由驾驶员承担赔偿责任。

造车新势力为何无法摆脱舆论漩涡?
尽管已知的事实并不能说明车企有什么过错,广大网友们却始终对新势力的技术能力有着不同的质疑和反思,这种质疑在事件发生的一段时间内往往会达到一个高峰。
在这里插入图片描述
在这里插入图片描述

那可以反思一下,是不是广大网友不懂核心科技,黑白不辨、是非不分?
首先,作为一个飞速发展的行业,智能网联汽车的概念是层出不穷,什么ACC,AEB,FCW,LCA,APA,就算像笔者这样的业内人士,也对其具体定义不甚了了,更别说还没有习惯使用英文缩写来理解和描述技术性能的广大消费者。更别提有些功能是标配、有些是选配,有些是德系叫法、有些是日系叫法。
汽车行业总不能像那些著名的手机老总一样,教育消费者都懂eMMC和UFS, 线性马达和转子马达,LCD屏幕和OLED屏幕之间的区别。可以教消费者拆手机,但是拆解智能驾驶系统已经大大超出了普通消费者的预期,现在毕竟每个消费者都是电子工程的本科毕业生。。
其次,对于一些关键概念,例如L2, L2.5,L2.9,L2.95,L3。
例如自动驾驶、高阶辅助驾驶、智能驾驶、完全自动驾驶,也是让普通消费者完全摸不着头脑。
笔者写这篇文章的时候,也会情不自禁的把智能驾驶写成自动驾驶。
事实上,国际和只有L2和L3的区分,什么叫做L2.5?什么叫做L2.9?
可以回顾一下新势力的一些发布会上的内容:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

首先就是行业NO.1 对于技术的宣传,无论是新车发布会,还是AI day,或者是华尔街的沟通会, NO.1都在强调对于自动驾驶的研发能力,并展示最新的研究成果。一遍一遍的教育消费者,看自动驾驶多厉害。2022年4月 18 日,大厂老板在 TED 访谈中透露,“目前汽车在奥斯汀的大部分时间都是在没有干预的情况下载着行驶,而且有超过 10 万人参与了完全自动驾驶测试项目”
当然,也说了有半自动(semi-autonomous self driving )和全自动驾驶(Full Self-Drive)。但是消费者无法从一模一样车中对概念进行区分,到底不加钱,加2万和加6万8有啥区别。
其次,后来者们也是不遑多让,纷纷show出自动/智能驾驶高科技。什么NGP、NAD,看的是兴奋不已,又是多少钱激光雷达又是多少TOPS的算力,远远的把日德抛在脑后。这激发了笔者巨大的自豪感,感觉这自动驾驶完全就是中美的G2博弈。就像当年美苏的登月竞赛。
诚然,厂商在涉及交付车辆的时候,已经反复向车主强调了辅助驾驶不是自动驾驶。但是发布会上的高科技,尽管有些还是期货,确实给了广大消费者一种幻觉。尤其是很多消费者并没有购买产品,但是已经形成了一种技术高大上的印象。这种印象往往是脱离了当前实际的。
当然,大咖们也常常站出来呼吁,明确定义,厘清功能。这是一个不错的进步,但新势力对安全性的宣传还可以继续加强,也是应有之义。

在这里插入图片描述

最近,特斯拉的FSD(完全自动驾驶系统)受到了美国汽车行业大咖,汽车召回制度之父拉尔夫·纳德(Ralph Nader)的猛烈抨击,这位汽车安全倡导者称该技术是“几十年来汽车公司最危险和最不负责任的行为之一”。
自动驾的上限突破与辅助驾驶的下限失效
下图是某家新势力关于最新产品的PPT, 800万摄像头号称687m外就可以看到汽车,就算现在的技术,也能在229m外感知到障碍物。技术真的是不断向上突破的,自动驾驶的上限以肉眼可见的速度在不断提升。
尽管,行业内的人士都知道,在发布会上看到的技术,很多都还是原型。真正交付到消费者手上还需要一到两年甚至更远。但是,从demo视频中能够真正体会到自动驾驶的技术进步。
在这里插入图片描述
在这里插入图片描述

所以,不禁要问,那为啥这次的事故50m外的车都探测不到?从视频看过去,似乎车辆在碰撞前并没有减速动作。按照欧洲以及对于营运车辆的规范,是不是肇事车辆应该早早的探测到前方障碍物并报警、减速?新势力们能否守住智能驾驶技术的下限?
肇事车主声称开启了LCC(车道居中保持),但是真正涉及此次事故的一项关键技术并不是LCC,而是AEB(自动紧急制动)。
来看一下网络百科上对AEB的定义:
车辆法规协调世界论坛定义了AEB(在某些管辖区也定义了自动紧急制动)。联合国欧洲经委会第131号法规要求一种能够自动检测潜在前向碰撞并激活车辆制动系统以使车辆减速的系统,以避免或减轻碰撞。联合国欧洲经委会第152条规定,减速度可以是5米/秒平方。一旦检测到即将发生的碰撞,这些系统就会向驾驶员发出警告。当碰撞迫在眉睫时,可以在没有任何驾驶员输入的情况下(通过制动或转向或两者)自主采取行动。在低车速下(例如低于50公里/小时(31英里/小时)),通过制动避免碰撞是合适的,而在车道畅通的情况下,通过转向避免碰撞在较高车速下可能更合适。
当前,世界各国包括对AEB是有一些强制规定的:

• 对货车的AEB在营运货车安全技术条件中的5.11节提出了强制要求,营运客车安全技术条件 - 交通运输部 对于车长大于9m的营运客车也提出了同样的要求。
在这里插入图片描述
在这里插入图片描述

• 其他国家,甚至是印度,对普通乘用车都提出了强制要求:
从 2021 财年起,在日本,所有新车都应配备自动制动系统,以防止发生事故,包括与汽车或行人发生事故,但不包括与三项国际法规规定的速度发生的骑自行车的人发生事故。在欧盟,法律要求从 2022 年 5 月起对新车型使用先进的紧急制动系统,并在 2024 年 5 月之前销售所有新车。在印度,到 2022 年,自动紧急制动系统 (AEB) 可能成为新车的强制要求。在美国,汽车制造商自愿承诺从 2022 年开始将自动紧急制动作为所有新车和卡车的标准功能,比通过监管程序提前三年提供 AEB。在 AEB 尚未强制执行的澳大利亚,联邦政府在法规影响声明 (RIS) 中建议,自 2022 年 7 月起推出的所有新车型和自 2024 年 7 月起销售的所有新车都应标配车对车和行人 AEB就像在欧盟一样。
重新回顾这些事故,有一种的可能性就是事故当时,车上的AEB系统均没有按照行业或者国际上的标准工作,(由于没有原始数据,这一点只是很多种可能性中的一种)。当然厂家在卖车之前会告诉,AEB的工作是有条件的,说明书上写的清清楚楚。所以笔者查阅了各家新势力的使用说明书:
在这里插入图片描述
厂家A说明书
在这里插入图片描述
厂家B说明书
在这里插入图片描述
厂家C说明书
1.厂家均承认AEB是可以辅助刹车的;2.厂家没有提及AEB对静止障碍物不工作;3.某国际大厂在说明中,大大方方的承认5码到150码AEB会工作,除非踩油门或者猛打转向。该厂家看来通过被官方点名批评还是有所改进;4.有些厂家的AEB是可以手动关闭的;5.厂家都在说明书中提到AEB有可能由于各种原因失效;6.厂家并没有明确的说明哪种失效厂家不负责任或者哪种失效厂家应负什么样的责任
在这里插入图片描述

尽管对于AEB的功能界定,厂家并没有进行详细说明。但是至少有三份标准涉及了相关内容,而且欧美也有相应的规范。的标准分别是:
1.《 智能运输系统前向碰撞预警系统性能要求和测试规程》(GB/T 33577-2017),工作车速为40km/h~100km/h, 相对车速最大值不低于72km/h。 其4.5.6要求在80km/h的速度下,对静止车辆的最小预警距离为约50m。
2.《营运车辆自动紧急制动系统性能要求和测试规程》(JT/T 1242-2019),要求在15km/h到最大车速范围内,AEB系统均能正常运行。对目标车辆的最大检测距离不小于150m。预警时间大于4.4s。对静止目标车辆,自车速度为80km/h时,发生碰撞时自车减速量不小于30km/h。
3.再来看对运营车辆已经是强制标准的《营运车辆行驶危险预警系统技术要求和试验方法》(JT∕T 883-2014),查看对AEB报警功能的要求:
3.1 可以看到,对静止车辆,AEB是需要报警的。
在这里插入图片描述

3.2 再来看试验条件,需要再150m-2m/s*2.7s=144.6m外开始报警。甚至对于弯道,都有明确的报警要求。
在这里插入图片描述

也就是说,至少此次事件中,依据当事人的描述(不是最终结论),虽然说,现在国家和交通部只对营运车辆的AEB做了要求, 有一种存在的可能是,似乎没有达到上述3份标准的要求,这个有待权威机构来鉴定。
需要强调的是,涉事车辆不是运营货车也不是车长9m的运营客车。所以本文的讨论并不涉及法律相关问题,仅仅从技术层面进行探讨。
普遍意义上AEB功能失效的可能性推测
一、通过说明书,可以惊奇的发现AEB功能居然是可以手动关闭的。鉴于事发当时天气均不错,AEB失效的一个可能的原因是车上的AEB功能并未开启。
二、另外一种可能就是AEB真的失效了。AEB的功能安全等级目前最高是ASIL-C,并没有到ASIL-D。但是AEB的功能安全设计居然是针对误制动,也就是允许漏检不允许误检。
那AEB是否存在失效的可能性?
2021年,懂车帝对100台车的AEB进行了测评,理想ONE是唯一一款能够识别横向车辆的车型,是所有参加测试的车型中当之无愧的第一名。在懂车帝年度测试中,测试车型覆盖平价车、豪华车、轿车、SUV,几乎涵盖了日常所有的车型,最终宝马5系、宝马X3、理想ONE、斯巴鲁傲虎、沃尔沃XC60进入决赛。在加赛环节,各车型分别以40km/h、50km/h、60km/h的速度去追尾国标电动两轮车,最终只有2021款理想ONE成功通过了各个速度的测试.是不是可以理解,AEB在很多情况下,达不到行业标准 JT/T 883-2014的要求?
在这里插入图片描述

可以看到,仅仅是理想ONE和领克02通过了所有常规测试,而且有些项目的通过成绩只有30码。领克也没有通过加赛。这就意味着,在80km/h的情况下,AEB是有可能失效的。
从技术层面分析,AEB主要用到两个传感器,摄像头和毫米波雷达。对于摄像头,鉴于机器视觉的长尾效应,其本身就很难处理所有情况,厂家自己也提及摄像头并非全天候的传感器。后备箱打开而且站了一个人,后面还放了两个锥桶,这种场景和正常的车尾有着明显的不同。如果使用类似OPENCV的传统方法,应该也可以识别。但是如果使用深度学习的方法,如果尚未训练类似的场景,那就很有可能识别不出,因为没训练过…
在这里插入图片描述

视觉失效完全不会让人感到意外。但是,为何技术相当成熟的毫米波雷达对着那么大一坨金属无动于衷,就让人困惑了。毫米波雷达可是一个非常成熟的技术,广泛应用于军事和民航领域。在汽车上使用的时间也不是很短。

在这里插入图片描述
在这里插入图片描述

根据东吴证券蔚来研究报告:极致服务打造自主豪华电动品牌,蔚小理以及特斯拉均采用了博世的毫米波雷达。应该说,博世在毫米波雷达上面有着深厚的积累。
在这里插入图片描述
在这里插入图片描述

小鹏P5 毫米波雷达
在这里插入图片描述

Model S毫米波雷达
出人意料的是,去年,TESLA在官网以及明确表示,后续车型不会安装毫米波雷达。
在这里插入图片描述

至于原因,马斯克和安德鲁表示,雷达会干扰摄像头的信息,因为雷达的分辨率太低,只会告诉前面有反射物,但是很可能那个反射物并不在路面上。说白了,就是地面杂波干扰太大。
在这里插入图片描述

所以,特斯拉干脆干掉了雷达,那其他主机厂如何做的?有一种技术手段(当然不是只有这一种选择,例如4D雷达),滤去静止目标,从而减少杂波干扰(如桥梁、隔离带、龙门架的干扰)。这就是行业内流传甚广的传说:智能驾驶不能探测静态目标。
如果把静止的目标都滤除,那么雷达的回波图上只剩下运动目标,运动目标往往都在路面上。这就解决了这个问题。但是这种方法没有解决一个问题,如果前方有静止车辆怎么办???答案是只能拜托视觉。视觉要是逆光,那就完蛋了。想象一下:
1.毫米波分辨低,干扰摄像头2.关闭毫米波静止物体输出,避免杂波干扰3.前方有静止车辆,被滤除。依靠摄像头4.摄像头逆光,信噪比差,失效5.撞上前车
不仅要问,如此成熟的毫米波雷达是否跟得上这个日星月异的时代。智能汽车的新技术革命里面不需要激光雷达和毫米波雷达扮演更重要的角色???
新势力的达摩克利斯之剑
实事求是的说,一年内3起事故对于总数244674(2020年)来说,并不明显。有一起还是在台湾。
但是,令人想不到的是,宣称要在一年之内要做到完全自动驾驶的新势力们,在AEB这种基础的辅助驾驶功能还要上抓耳挠腮。那些热血贲张,为梦想窒息的发布会和惨不忍睹、令人痛心的车祸现场形成了鲜明的对比。智能驾驶的技术下限,就像高高悬在特蔚小理头上的达摩克利斯之剑,一旦基础功能出问题,就是绳断剑落。对于行业的发展造成十分负面的影响。
欲戴王冠,必承其重,既然喊出了自动驾驶的口号,就要拿出真东西。要革传统汽车行业的命,首先要革了传统零部件的命,拿出真正的核心科技来适应自动驾驶的新需求。希望自动驾驶在惨烈的事故后,能够顶着激光雷达,不断进化,砥砺前行!
在这里插入图片描述
蔚来ET5 激光雷达
在这里插入图片描述
理想L9 激光雷达
参考文献链接
https://mp.weixin.qq.com/s/DA_zr0-Ph0Wd7Eruc6SoUQ
https://mp.weixin.qq.com/s/EU–APLAgU-R73ztZQLtEg
https://36kr.com/p/1873317254449797
https://mp.weixin.qq.com/s/V03HWlM6SIkhe3EguoFriA
https://mp.weixin.qq.com/s/4ifHdjSM2XJZBN_hqXn2hg
https://mp.weixin.qq.com/s/WARn4j2T05ibZ7KUvM3Dag

猜你喜欢

转载自blog.csdn.net/wujianing_110117/article/details/126377474