さらに前回の続き。
展示を順番に見ていくと研究者と熱く語っている人が多いことに気づく。中には返答に困る意地悪な質問とか研究者にそんなこと言ってもみたいな内容も聞こえてきた。まれに研究の内容を取り間違えている人もいて、これってこういうことですよねと言う人に対して、頭から否定はせず、でも研究者として間違いは間違いと指摘したいたいみたいな人間ドラマが見られた。
11 画像認識技術と字幕の言語処理による映像検索
- 類似映像検索
背景画像と図形を選んで、こんな背景でこんな構図のやつお願いしますとお絵描きをすると(例えば背景が空で中心に丸い物体)、映像ライブラリの中からそれに似たシーンを含む動画を検索するという研究。動画は珍しいかもと思ったら、動画特性は用いておらず静止画で比較しているとのこと。ちなみに特徴量としては色(HSV色空間における値)とテクスチャ(フラクタル次元)を利用。ポイントはブロック毎にテクスチャの粗さを調べることで構図(空間的な情報)を理解する部分。
- 字幕放送の字幕を利用したメタデータ作成
メタデータの話。MPF1.0 というまた新しい規格の登場。MPEG-7のサブセットだそうだが、2年前の技研公開ではTV-AnyTimeという同じような規格があった。違いを聞いてみたが明確な答えが出てこなかった。帰ってググれば分かるだろうと思ってその場は引き返したが未だに違いがよく分からない。
なお、総務省は2007年までにすべての番組に字幕を付ける指針を定めているそうだ。字幕はあるがメタデータは持たないコンテンツが山のようにあるので…というのは、論文の前書きによくありそう。
15 AdapTV
- ディスプレイの大きさと映像の内容に応じて映像を切り出して表示
テレビで見るコンテンツと同じものを携帯端末で見ようとしても小さすぎて見にくいときがある。ディスプレイが小さければ小さいなりに映像を切り出して表示するという研究。これも面白い。デモではサッカー試合の映像を使っていたが、単純にボール周辺という切り出し方ではなく、カメラが中盤の前のスペースを写したときは切り出し側もそちらを含めたり、カメラワークや映像の内容を考慮している点が非常に興味深かった。
- ニュースダイジェスト
Google News の動画版みたいな感じ。指定したキーワードごとにNHKのニュースが並ぶ。動画である以外にも Google News との大きな違いは、
-
- キーワードを自分で書くのではなく、よく見る番組情報などから自動で作成される点
- 10分とか20分とか時間を入力することができ、その時間に納まる範囲でニュースを集めて自分の興味があるコンテンツばかりが並ぶ10分のニュース番組を作成してくれる点
時間入力の方はかなり面白いアイデアだと思う。
17 フレキシブルディスプレイ
有機ELやフィルム液晶によるフレキシブルなディスプレイ。過去には「巻物テレビ」などというキャッチフレーズでアピっていたが今年は地味だった。TFT駆動ってどういう意味ですかなんて基本的な質問を遠慮なくできることが技研公開のうれしいところ。
18 オントロジーを用いた質問応答技術
知らない人が、「最近流行りのオントロジーと昔のAIにおける推論ってどう違うんですか」という鋭い質問をしていたので一緒になって聞いていた。狙うところは同じなんだがオントロジーのほうがもっとゆるい。ものの定義って一つには決められないので、人による違いを許すようになったことが大きく違う点だと。なるほどウェブ進化論で述べられていたWikipediaの信頼性の話とも近い。「みんなの意見は案外正しい」的な発想ですね。
27 だれでも簡単に番組制作
CGのニュース番組みたいなものを簡単に作れるツール。ネットの向こう側にCGやテンプレートをおいておき、こっち側のユーザーはテキストで台本を書けばそれがテレビ番組になるという話。去年も紹介されていたがツールとしての完成度が断然上がっている。
30 視聴履歴を活用したテレビインターフェース
視聴者の好みに合わせてお勧め番組を提示する研究。こういうのってメーカーがやることなんじゃないの?NHKとしての立場は?って素朴だけど意地悪な質問をして回答を楽しんでみた。曰く、メーカー主導だと各メーカーで違いが出てしまいユーザーが混乱するという回答。EPG然り。取りまとめみたいなのがNHKの役目だみたいなことを言っていた。でもこの研究は富士通との共同研究。