- 研究番号:18P53
- 研究分野:technology
- 研究種別:プロジェクト研究
- 研究期間:2018年10月〜2021年09月
代表研究者
森島 繁生 教授
MORISHIMA Shigeo Professor
先進理工学部 応用物理学科
Department of Applied Physics
URL:http://www.mlab.phys.waseda.ac.jp/team/%E6%A3%AE%E5%B3%B6-%E7%B9%81%E7%94%9F/
研究概要
YouTubeやニコニコ動画など、Web上で音楽や動画等のコンテンツが日々溢れており、増加の一途をたどっている。ここには有用な情報もあるが、取るに足らないものも多い。また動画鑑賞をリアルタイムで行うことは時間を消費するため、必要なコンテンツを要約して短時間で内容把握できる技術がブラウザの機能として強く求められている。また最近のCGM(Consumer Generated Medai)の隆盛により一般のアマチュアでも簡単に高品質なコンテンツの作成が可能となっている。しかし未だに手間がかかりプロ並みのクオリティを実現するにはスキルと長い制作時間が必要となる。また既存のコンテンツを再利用して付加価値を高めるN次創作も一般的になりつつあるが、誰の作品をリファーしたかを明らかにしてオリジナルの著作権を保護する技術は今後重ますます要視されてくる。このようなコンテンツの鑑賞や創作の支援をする技術開発が本プロジェクト研究の目的となる。そのためには、映像解析してユーザのニーズにマッチした映像要素や意味的情報を抽出することが不可欠となる。具体的な研究テーマとしては、Web上に存在する膨大な数の長編映像の中から自分の見たいシーンを含むショットを的確に短時間で検索できる技術、既存のコンテンツを再利用して新しい付加価値を自動的に生み出すN次創作支援技術、映像中の人物の様々な属性をコントロールして変換する映像リターゲット技術(たとえば言語情報を変換する映像翻訳技術や年齢情報を変換して本人の未来や過去を予測し、指名手配犯や行方不明の子供の捜査支援技術など)が重要となる。鑑賞支援の一例としては、一人称視点動画などをターゲットとし、映像中の注目要素を鑑賞者の趣向に合わせて検索・要約できる技術開発をめざす。また創作支援として、たった1枚の顔画像から極めて忠実な人物の顔モデリング技術に取り組む。また個性豊かに表情を合成したり、音声や音楽に同期してリップシンク可能なフォトリアルかつリアルタイムのキャラクタ合成技術を実現する。これらの技術は、エンタテインメント分野のみならずセキュリティ応用においても効力を発揮する極めて高い精度の実現を目指し、安全安心な社会を実現する一助となることを期待する。