中传数字媒体艺术考研热点:基于人工智能,互动、交互技术的展望
许多有关“未来”的影视作品,通过特效技术给了观众以良好的试听体验。而在影片中也有很多令人津津乐道的场景体验,比如 2019 年初上映的《流浪地球》驾驶着用轨迹球操作的汽车,以及太空站中和智能机器人的交互等。而许多技术正在被实现,比如国内各大视频平台推出互动视频,智能交互机器人,医疗智能读片系统等。
近些年 AI 技术已经广泛应用于安全、金融、教育、医疗、文娱、工业等多个领域,国内更是诞生了一批优秀的人工智能初创企业例如:商汤科技、旷视科技、极链科技、优必选等。
场景一:互动视频
当下是互动视频发展的初级阶段,国内外众多平台开始布局互动视频,而互动视频的形式并不是一蹴而就的,需要一个演变发展的过程。
1.0 时期,以视频广告互动为主,任何创新形式的发展都需要有人为其买单,而目前视频贴片广告无论创新型还是广告效果,都已经不能让用户和广告主满意了。视频 AI 技术让广告植入更加自然,并且形式更加多元化,通过 AI 技术,可以快速的读取视频并且形成标签,可以是地点、场景、行为、人物等,而这些内容可以帮助广告主快速找到结合点,以更丰富的互动形式带给用户更多体验。
2.0 时期,视频内容开始具备互动,当前视频平台开始推出互动视频,视频开始初具功能性,平台与平台之间可以通过小程序跳转,有更加丰富的功能性,但是视频小程序生态并未形成。
3.0 时期,类似微信当前头部互联网公司布局小程序,视频小程序开始被广泛普及,小程序生态呈现繁荣景象,视频的功能性更强,众多 app 开始布局视频程序。并且随着 5G 的成熟、文娱方式将会出现新形式。
4.0 时期,智能机器人、AR\VR、交互技术、互动技术都更加成熟。在这一时期,人们的感官成为了互联网的接口,“视联网”也实现了从“视频”到“视觉”的跨越。全方位“感官操作”成为可能。
场景二:驾驶、出行
在汽车驾驶方面的互动能力是指,AI 通过对驾驶者状态的监控,道路实时情况的监控(网络平台中的道路信息),以及对自然语言的识别。可以通过软件+硬件来实现,硬件负责收集信息,比如感知摄像头可以获取驾驶员状态,判断是否专心开车、是否疲惫、情绪稳定等情况。软件负责信息汇总与反馈,最终对驾驶员状态进行评级,如果显示嗜睡或易怒,那么会提示可以切换半自动驾驶状态,给予驾驶者时间去进行状态调节等。在这一过程中通过综合分析给出方案,是比较好实现的,但是自然语言的识别和交互就显得更加重要,“沟通”能力决定了服务质量。
互动能力需要自然语言、情绪管理、视频识别技术来综合判断驾驶员状态。例如对于酒驾、疲劳驾驶事件,通过互动沟通起到提醒驾驶员的作用,甚至可以加载相关出行软件直接提供打车或代价服务,基于互动能力的汽车中控小程序可能会大量出现,属于未来“视联网”的一种表现形式。
通过智能的自然语言对话,实现辅助驾驶的功能。将评估系统内嵌至汽车中控台,例如行驶一定距离后,提示驾驶员可以停车休息然后弹出一些简单的评估测评题;或是在汽车行驶前弹出相关评估提示。而这一功能,无需频繁妨碍驾驶员行驶,更重要的是持续性,以达到提示驾驶员的作用,并且具备更长久学习性,所谓“开到老、学到老”。
智慧交通将更早的应用,智慧交通算是一个更高维度的区域级的智能出行辅助系统。未来的交通出行是有一个整体的系统解决方案,全面性实现需要算法、带宽、物联等多方面的紧密配合。首先是基于高密度的摄像头视频信息获取,其次是对公共交通的调度能力和个人交通出行的实时监测,最终形成综合城市交通的智能调度。提供多种交通相关解决方案,包括围绕个人出行、行业出行(物流)、交管部门。个人方面即公共交通出行方案和驾驶出行方案(重点在驾驶过程中),行业出行多是针对需要高频次出行的企业级客户,比如物流公司,而智慧交通相关的解决方案,对综合数据分析能力和智能化统筹方面的要求会更高。
相信在《流浪地球》这部电影中“道路千万条,安全第一条,行驶不规范,亲人两行泪”这句话让人印象深刻。影片中社会的智能化程度发展也吸引着观众的眼球,AI 通过学习训练被赋予了理性的思考能力,不断的帮助社会提高生产效率和生活品质。作为受益者,在持续不断的科技创新过程中,我们也同样需要更多“机械化”理性思考。
考研大纲改革之后,我们抓紧时间整理了针对新考研大纲的资料,最近就要上架了。求关注哦~具体上架时间以微博信息为准,敬请期待。
https://item.taobao.com/item.htm?spm=a230r.7195193.1997079397.8.e99018344BU2C1&id=529576461359&abbucket=13