unite2017大会教育研讨会专场,来自同济大学的教授王建民分享了《基于Unity的智能汽车虚拟驾驶仿真器开发与教学应用》的主题演讲,并介绍同济大学在智能汽车方面的研究成果。 以下是VR陀螺整理的演讲内容(略有删减) 同济大学做互动展示制作了13年,到了2014年的时候,我们开始航天做信息展示的时候,我们就到处找,正好Unity办公室里面很多设备,就开始做了。为什么切到这,我们怎么样一步一步围绕科研做的。因为Unity平台真的可以做很多事情。 “仗着大环境好” 同济大学切入智能汽车 我们实验室有11间是专业方面的实验室,很近我们围绕车的方面都在做整合,同济大学关注是科研,我们不做游戏。往下大家可能有一些背景跟Unity不是非常相关的,大家看到我们为什么会慢慢拿Unity来做。我们主要是做交互体验的,所有屏幕方面的东西我们都管。当然现在一个外延,比如说像虚拟现实,这是我们一个外延,我可以做。车的话是因为我们同济大学厉害,做车同济、交大都有一批一批人在做车,所以我们仗着大环境好。 昨天下午在同济我们跟汽车学院做了一个论坛,上海科委非常关注,5个汽车方向之一,汽车领域的人机交互,因为老的汽车大家买车,都是看外形,新的汽车买车未来都是看体验,体验怎么来做?特别智能汽车怎么来做,这个是大家关注到的。 我们原本是做交互的,所以我们要做车。他们做的未来得汽车,5G是未来的,5G对于手机来讲就是快一点,没有特别的,但是5G对于什么东西很大的应用,就是物联网,像汽车这些。未来车可以联网的,当你要撞到一个车的时候,两个车自己会对话,两个车自己会回避,你根本不用去管的,这个是我们联网汽车做的事情,这个已经是非常非常快。 在上海嘉定区,包括同济大学有几个测试场地,一投都是若干亿往里面投。未来车在人工驾驶之外会有智能的东西,这个比无人驾驶来得更快。今年上海车展基于智能驾驶的东西越来越多,这个是我们在做的。我们要仿真一辆车,把它放在智能环境里面,这个车要跟环境做交互,交互完之后能把界面输出给我们驾驶员,这个界面大家很后做设计。所以我们首先造一个虚拟环境,然后才有我们设计。这个大家直接到美国交通署上面直接可以看到。 智能汽车虚拟驾驶仿真器开发过程 我们有自己的一套教育体系,这是经典的,这些经典的方法到了车以后怎么变,这是我们在2012年做的车载,GPS中控,我们在2012年项目目标当车如果能联网以后中控怎么去变。这是我们在2012年的课题,它本身都是带联网功能的。这些在经典的交互设计里面可以做的,它只有一块屏,这个屏跟手机没有什么太大的差别,只是环境压在车里面。 我们去年帮一个车厂做了三辆车体验感官评价,这个也是经典的方法,拿眼动仪,经典调研实验方法,这个跟仿真环境也没有什么关系,这些用原来传统的方法都可以去做的。但是到了智能车以后,到了刚才美国视频展示这个概念以后,车的话只是一个载体,这个车里面更多的东西是要实时要被环境所感知到,传过来,我们人不光是你自己的双手和眼睛,车本身也帮你驾驶一部分东西,所以我们要构造一个智能化车联网的环境,这个时候就开始去找什么样的东西能够帮我把联网环境建立起来。 这是我们早期去年上半年做的一些车的设计,我们要去做车,很简单的流程是这个样子,前面是设计,很后一块是测试,测试不敢让学生开到路上,我们做实验的时候,邀请外面的人,邀请一年,我们承担承担很多风险让他做测试。所以我们一定要构造一个环境。早期很多很多厂商到了同济大学给我们捐献环境,我们拿别的环境里面的构造的,同济大学除了这个以外还有更贵的,还有千万的仿真环境。但是这些环境更强调仿真的交通,或者仿真车。但是它不仿真互动。 智能汽车三要素:抬头显示、车联网、人&车&车互动 我们要做什么东西呢?这是一个虚拟的车,在这个模型里面,未来要在任何地方要去放你的屏幕的。比方说我们抬头显示,在导航屏幕上显示这个屏幕,抬头显示是今年车展一个大亮点,抬头显示是AR虚拟现实的东西,未来车抬头显示在玻璃上有东西的。 任何地方我们都要放屏幕,这个时候我们怎么拿一个虚拟现实的东西把这个渲出来,而且能够交互,能够跟我们驾驶员的行为交互,没有办法,我们就找Unity。这张图跟我们交通辅助是一样,因为我们要构造若干个U2X,我们U2U,然后U2X,然后我们再做界面。 2015年底做虚拟测试版,这是一个单人的加一个摄像头,我们可以把交通仿真出来,可以把车仿真出来,这个事情并不难,这个事情大概用了三个多月,四个月的样子,基本上我们所需要的一轮场景就出来了。我们可以测这些东西,我们重要是做下面那个东西,下面那个是构造了在未来车联网里面9个场景的驾驶车,现在在同济大学,嘉定西边专门做一个测试场,30多个场景,今年上海市政府测到高速上面所有的道路,所有的路径,所有的信号灯全部要车联网,这是今年年底要做完的。这件事情我们要跟着上海步伐,所以我们要将虚拟场景建到我们环境里面去,目标不是把这个车做得多么漂亮,关键是车要跑环境里面,环境要对应数据要过来,驱动我的界面要去变,我们去做交互。 车联网有一个问题,我们怎么去仿真出来车车之间的关系,后来又逼着我们谢老师抓团队,大概又用了三个月的时间,我们把多人副驾做出来,它在所有场景里面每一段做AI车,周围有一堆车在动,但是动的东西只能算法不能跟着我去撞,撞到一块把信号传过来,回避它。所以我们就把联网的功能做出来了,我们看到这个功能,当时自己在摸,也用了点时间,但是做通了,逻辑上面若干辆车同时驾。 这个是我们环境做得专业一点,车变成真的车,在做一个环评,要把抬头显示做进去。包括中控器、仪表盘,还有抬头显示,我们大概接近20多块屏,我们要做20多路的信号独立渲染出来,放在独立的屏上面,没有Unity做不到的。 因为现在也有一些学校找到我们,原来他们用的其他人做的封闭的虚拟现实环境,硬件做的都很贵,希望我们把设计学院的老师放进去,所以我们怎么把这个界面捐出来,这是我们的工作。所以有的老师找我们,希望把界面那部分分享给他们。 谢谢大家!
投稿/爆料:tougao@youxituoluo.com
稿件/商务合作: 六六(微信 13138755620)
加入行业交流群:六六(微信 13138755620)
元宇宙数字产业服务平台
下载「陀螺科技」APP,获取前沿深度元宇宙讯息