
动态图像专家组(MPEG,Moving Picture Experts Group)成立于1988年,专门负责开发用于压缩、解压缩、处理和编码表示动态图像、音频及其组合的国际标准。MPEG通常每年举办三到四次会议,汇聚全球数百家企业及专家代表,共同探讨数字音视频和多媒体领域最新技术及标准的相关议题。
今年的MPEG大会重点关注了沉浸式媒体、虚拟现实视频的高效传输和呈现等议题,提出将正式启动VR领域的研究。与会专家就虚拟现实视频的编码、映射、封装和传输提出了不同的意见与建议,希望能尽快统一国际标准,更好地推动未来沉浸式视频和多样化媒体服务的发展。
上海交通大学未来媒体网络协同创新中心(CMIC)主任张文军教授在会上作了题为《媒体网络与5G共同演进》的专题报告。他指出,当前使用媒体内容的方式已经发生了巨大改变,信息技术革命促使广播电视向“看得更清、用得更好、传得更多”三大方向发展。广播网络将向“媒体网络”演变,未来的媒体网络特征可概括为Controllable(可管控)、Rich Media(富媒体)、Ubiquitous(泛在化)、Immersive(沉浸式)、Social(社交化)、Experience(智能体验)五大特征。同时,张文军教授阐述了未来媒体网络与5G网络的相通之处,指出了两者演进所面临的共同机遇与挑战,并认为未来媒体网络演进应与5G相结合。
未来媒体网络协同创新中心(CMIC)的两大牵头单位——上海交通大学与北京大学一直关注着MPEG组织的研究动态和趋势,积极参与国际标准制定竞争。CMIC上海交大团队活跃于MPEG组织的MMT(MPEG Media Transport)小组,参与并提交了众多完善MMT系统及其应用的提案,并有多份被讨论接收,为国际标准ISO/IEC 23008-1的发展和推进作出了巨大贡献。CMIC北京大学团队历时四年,参与制定了MPEG CDVS(Compact Descriptors for Visual Search)紧凑特征国际标准(ISO/IEC 15938-13),是该标准的主起草人之一。其中,北京大学被接受的技术提案共13项,占总采纳数的52%(7轮核心技术竞争),而相关技术描述占据标准文本约65%篇幅。此外,自2015年开始,北京大学先后参与了MPEG-DASH FDH(Full-Duplex HTTP)与虚拟现实等方面的工作,并提出多份提案,引起了专题组的广泛关注。
大会期间, CMIC团队展示了最新研究成果——基于智能媒体传输(SMT,Smart Media Transport)协议的4K超高清视频现场直播演示系统。通过这一新型协议,广播网和IP网能够实现有机融合,在传送超高清画质的同时,呈现多视角、多声道的个性化同步服务。利用这一协议,运营商可以根据实际使用情况,动态地调整广播通道和宽带通道传输的内容,根据多数用户的使用情况来选择最低成本的传输方式。对于用户来说,将完全忽略传输通道的影响,在看球赛、大型演出时,既能观赏到全景,又能够随时在电视或PAD、手机等工具上,同步欣赏个别明星、细节的演出,乃至收听不同解说员的评价,为媒体消费带来全新的体验。该系统曾作为信息领域的代表性成果入选今年的国家“十二五”科技成果展,将在未来的数字媒体标准体系中起到重要作用。
MPEG主席Leonardo Chiariglione先生在会上表示:“媒体在人们的生活中扮演着越来越重要的角色,而在虚拟现实等新型体验中,宽带技术也是不可或缺的一部分。MPEG所作的标准制定工作正是站在两者的交汇点上。在当前这个多技术与多产业深度融合的时代,只有多方通力合作,才能推动技术与经济的进一步发展。感谢张文军教授和他的CMIC团队为MPEG新一代标准制定所作的贡献,希望中国团队能在虚拟现实等新兴媒体形式的标准制定中继续发挥作用,推动未来媒体网络及其应用的发展。”