- 政策解讀
- 經濟發展
- 社會發展
- 減貧救災
- 法治中國
- 天下人物
- 發展報告
- 項目中心
|
2.虛擬現實與數字媒體技術
2.1媒體大數據內容理解與智能服務
通過對媒體大數據進行深度分析和關聯挖掘,建立符合媒體內容理解的計算模型,實現異構媒體(圖像、視頻、音頻和文本)的結構化描述和語義協同,突破媒體內容理解的關鍵技術,顯著提升媒體大數據的使用價值,為基于語義的媒體搜索、監管與服務等相關產業的發展提供技術支撐并建立典型應用示范。下設5個研究方向。
2.1.1媒體大數據的深度分析與結構化描述(國撥經費限600萬元,實施年限3年)
在超過10TB的數據集上建立多層次多角度的語義描述模型,研究媒體大數據的概念表示、事件提取、多角度語義表述、結構組織、內容分析的多層次結構化描述方法,形成超過300個媒體內容深度分析的概念模型,為媒體大數據的內容理解奠定基礎。
2.1.2異構媒體數據的關聯與挖掘(國撥經費限500萬元,實施年限3年)
研究異構媒體關聯分析與表達、基于上下文的多模態特征融合、異構媒體相似性計算等問題,建立異構媒體的語義關聯和統一表示,實現跨媒體的內容挖掘和異構媒體的統一管理。在超過10TB的數據集上視頻、圖像、音頻和文本之間的關聯速度小于2秒。
2.1.3面向社交網絡的搜索方法與群體行為分析(國撥經費限600萬元,實施年限3年)
在社交網絡數據信息融合的基礎上,提出新型搜索模式與群體推薦方法,研究社交網絡中個體角色、信息傳播規律、群體行為演化的分析與預測技術,實現社交網絡信息的高效獲取和態勢感知。在真實社交網絡環境下,千萬級用戶動態社交數據的增量分析比靜態分析速度提高15%,基于用戶偏好的預測及信息推薦方法的準確率比現有方法提高10%。
2.1.4媒體大數據內容聚合與呈現(國撥經費限500萬元,實施年限3年)
在分析用戶的屬性、興趣偏好、行為特征等信息的基礎上,通過領域知識構建和社會需求發現,建立用戶的興趣模型;在媒體內容聚類、關聯和挖掘基礎上,提供符合用戶特定需求的多層次多維度的媒體信息聚合與呈現。聚合信息來源覆蓋新聞、論壇、博客、微博、社交網站等網絡媒體,熱點事件信息提取的準確率超過85%。
2.1.5基于網絡媒體內容的智能服務平臺(國撥經費限800萬元,企業牽頭申報,實施年限3年)
搜集、整合與管理超過10億網絡媒體用戶的數據,通過分類與挖掘建立超過30個多維度、分層次的需求模型;研發滿足千萬級用戶并發訪問的網絡異構媒體大數據存儲、管理與分析系統,構建高可靠的基于媒體內容的智能服務平臺,實現關鍵技術驗證和基于語義的媒體智能服務示范。
2.2面向移動終端的多模態自然交互技術
研究提升移動終端視覺、聽覺感觀性能的手段,探討增強現實、情感語音、手勢等創新性人機交互技術,實現系統集成,達到提高下一代智能移動終端易用性和便捷性的目的。下設5個研究方向。
2.2.1基于LCOS的眼鏡型透視融合顯示系統(國撥經費限1300萬元,企業牽頭申報,實施年限3年)
完成大規模SDRAM器件與數字邏輯器件共融的集成電路設計和準亞微米厚度液晶盒制造工藝研究,提供微型高分辨率(1920×1080)時間混色LCOS芯片;研究波導器件設計和加工方法,研制眼鏡型透視式增強顯示系統,波導器件厚度≤3mm,顯示視場角≥35度,在該視場角范圍內實現虛實融合顯示。
2.2.2基于移動終端的戶外實時視覺定位技術(國撥經費限600萬元,企業參與申報,實施年限3年)
研究高效的視覺特征提取及編碼技術、海量場景的快速識別技術、資源受限環境下的高精度實時跟蹤定位技術。制定視覺定位相關技術標準,重點研究視覺特征的數據規范。單幅圖像的視覺特征描述小于2K字節,視覺定位準確率大于80%。研制符合標準規范的低功耗硬件。建立基于移動終端的大范圍戶內外視覺定位服務平臺,實現在旅游、文化等領域的示范應用。
2.2.3基于視覺的非接觸式自然人機交互技術(國撥經費限500萬元,企業參與申報,實施年限3年)
研制可用于移動終端的新型光學傳感器設備,研究低功耗控制電路及新型多模傳感緊湊(或單封裝)型構件,在移動終端上實現新型多模態的非接觸式自然人機交互。實現對用戶手指運動的跟蹤,完成虛擬鍵盤操作等功能,刷新速度30幀/秒,跟蹤覆蓋區域60度,跟蹤范圍50cm。
2.2.4多方言的高表現力情感語音交互系統(國撥經費限500萬元,企業參與申報,實施年限3年)
研發帶有多種方言口音的普通話低運算復雜度語音交互嵌入式引擎和基于云計算的語音交互服務平臺,研制面向移動終端多種交互方式融合的情感語音交互系統。方言普通話連續語音識別正確率達到95%;對話、疑問、感嘆語氣自然度的主觀意見平均分(MOS)超過4.0;愉悅、悲傷等情感識別準確率超過80%;日常生活問答的準確率超過80%。
2.2.5移動終端三維聲場技術(國撥經費限600萬元,企業參與申報,實施年限3年)
研究3D音頻高效感知壓縮技術,提升3D音頻空間信息壓縮率25%以上;研究個性化HRTF庫多級選擇方法,減少前后混淆效應30%以上;研究實時聲場增強技術,在資源受限的移動終端上實現3D音頻的實時生成,用耳機實現3D聲場的再現;研制簡單易用的3D音頻編輯創作工具和播控服務器,支持2000人以上的并發3D音頻請求。
2.3全景互動關鍵技術與示范系統
針對安全生產、仿真訓練、文化科技等領域的應用需求,突破球面全景建模、復雜場景動態演化、實時角色植入與虛實合成、人群實時劇情交互等全景互動關鍵技術,構建具有高真實感的全景互動系統支撐平臺并實現應用示范。下設3個研究方向:
2.3.1球面全景建模技術(國撥經費限500萬元,實施年限3年)
針對球面全景應用要求,研究機載、車載和手持便攜等設備獲取的多源數據處理與建模技術,自然現象與動植物快速精細建模與表現技術,融合圖形圖像的表觀模型建模及交互表現方式,研制3D全景建模工具,全景模型精度達厘米級,場景范圍不小于100公里。
2.3.2大規模復雜場景動態演化模擬技術與系統(國撥經費限1000萬元,實施年限3年)
重點研究基于數學物理特性的大規模復雜場景的高可信建模技術;探索研究交互過程中復雜場景的演化規律,研發具有高度物理真實的動態發展過程、發展狀態模擬技術與平臺,其中演化模擬的典型復雜場景不少于4個,幀率不低于25幀/秒;提出有效的誤差度量方法和準則,構建模型可信性評估與驗證平臺。
2.3.3大型全景互動系統及其應用示范(國撥經費限800萬元,企業牽頭申報,實施年限3年)
突破多視角高清內容的高速自動生成技術、實時角色植入與虛實合成技術、用戶人群實時交互技術,研制多線索數字腳本編輯與內容制作平臺。集成本項目研究成果,面向安全生產、仿真訓練、文化科技等領域需求,研發大型全景互動系統并應用示范,系統總體性能和主要技術指標達到2015年底國際先進水平。