今まで作ってきた(しょうもない)ものリスト

アクセスが少し増えてきたので,今まで自分が作ってきたしょうもないものを挙げてみるテスト.

■学部
GA(遺伝的アルゴリズム)の研究室配属だったのに,OpenCVの存在を知り楽しそうだったので
学部4年の夏から研究テーマを画像処理に変更(一応,GAも前処理に入れてたりするけど).
#高専のときに画像処理をやってたので,ゼロからのスタートでないのが唯一の救い.

当時,OpenCVの日本語サイトはほとんど存在しなかったので,英語による情報収集がメインの暗黒時代でした.

研究としてはwebカメラで普通のディスプレイをタッチパネルにしよう!!という試み.
実際にやっていることはそんなに難しくなくて,2つのカメラで指先をトラッキングして,3次元位置情報を算出し,
スクリーンに触れているかを判定して,マウスの動作に置き換えているだけです.

あと,今思うと,マルチタッチとかやってみれば良かったなーと思いますが,
自分には先見の明がなかったのでそこまではやってない。。。


ペイント操作のデモ.320×240のキャプチャ画像を解析して,
ディスプレイ座標を算出しているので精度はお世辞にも良いとは言えない。。。


ブラウザ操作のデモ.それなりに動くのでやってて楽しかったデモ.
ただ,指先検出の前処理に肌色抽出をやっているため,webページに人の顔や
肌色に似た色が出てくると誤認識してしまう(苦笑)

■修士
可動式+透過型のマルチタッチスクリーン.マルチタッチはFTIR方式で実現.
情報の獲得と作業を並列に行う際にいかに視線移動を少なくできるかという考えのもとに実装.

透明なスクリーンにプロジェクターの映像をそれなりに投影しつつ,
FTIRも実現するということに地味に苦労した記憶が。。。
#透明なスクリーンに映像を投影するってことはスクリーンの上方向に光を拡散させないといけないんだけど,
#反面,FTIRをやる場合には,スクリーンの下方向に光を拡散させる必要があるのでかなり鬼門だった.

あと,下のムービーでは音をカットしていますが,音声合成による操作ナビゲートもやってたりします.

■修士(おまけ)
うちの大学院では,学部生が研究室をプチ体験できるイベントがあったりするわけですが,
そこで,参加者の学部生が用意していた課題を予想以上にこなしてしまったので,
急遽何か作ってくれと頼まれて作ったもの.
#実験室に3時間くらい籠もって学部生に見つからないように作ってた。。。

デモは,マーカーに書かれた場所にGoogle Earthで移動するというもので,
AISTだと産総研,JAISTだと北陸先端,NAISTだと奈良先端に移動します.
#体験セミナーのテーマが画像処理だったのでマーカー検出部も一から作りました.
#ただ,画像処理よりもGoogle Earth APIをC++側で操作する方がいろいろ苦労した気がします(苦笑)

アルゴリズムはこんな感じ.

1. 2値化
2. 輪郭線抽出
3. 輪郭線の多角形近似
4. 辺の数が4となる領域をマーカー領域として残す
5. マーカー領域のコーナー位置よりマーカーの傾きを計算
6. 傾き情報を用いてアフィン変換(傾き補正)
7. テンプレートマッチングにより文字認識
8. 認識結果をGoogle Earthに渡す

学部生対象の画像処理の課題に良いレベルだと思うので,オススメです.

と,ここまで書いてて思ったのは,学生時代しょうもないものばかり作っていたんだなぁと。。。(遠い目)
ということで,今日はこの辺にしときます.

芸者東京に電脳フィギュアについて質問してきた

第弐回天下一カウボーイ大会電脳フィギュアのブースがあったので,
タロタローグ的「電脳フィギュアはどうだった?」レポート。でも最後は芸者東京の文章力を疑って終了!
でも指摘されている「芸者東京サイトとblogでの特許に関する説明の矛盾点」+αについて質問してきました.

その前に,実際に体験してみた感想としては,タイムラグが酷いです。。。
マーカーを検出し損なった場合を補間するために過去の検出履歴でもとっているのか
やたらと動作がもっさりしていた.どういう処理をしているんだ.

と,これくらいにしておいて質問とその回答について書いてみます.

①特許に関する説明の矛盾点
■サイトの説明
>「電脳フィギュア」に関連する特許を出願中です。
>これは、電脳キューブの各面にあるマーカーを
>少なくとも1つ以上認識すれば、カメラに対する電脳キューブ の
>位置等の情報を特定できる技術です。
>この技術によって、カメラ位置を変えたり、キューブを回転させたりしても、
>表示が途切れることなくいろんな角度から キャラクターを見ることができます。
>また、表示されたキャラクター同士のモデルのインタラクションによって、
>キャラクターの動きや声などを変えたりができます。

電脳フィギュア – テクノロジーより引用

■blogエントリの説明
>あ、そういえば、特許だしているのもARの表示部分ではなく、
>(あれはなんぼなんでも公知っていうか論文もいっぱいありんす。。)他の部分ですぜ、。

もち肌ビジネスマン奮闘記: 電脳フィギュア ARis(アリス) 8月5日(火)のオビラジRっていう番組に出ます。より引用

この2つの説明を読んだら,複数マーカーについては周知の技術であることから,「矛盾しているだろ」
感じるのが普通の感覚であることを信じてその辺のお話を聞いたところ,直訳すると
「特許技術はマーカーを使った遊び方の提案で,マーカーの技術だなんて書いてないですけど」
といった感じの逆ギレ気味な回答.

でも,サイトの説明では「マーカー配置の工夫が特許技術」と言っているようにしか見えないのですが。。。
ということで,謎は逆に深まってしまいました.

どちらにせよ,差し出がましいですが,誤解を招かないような文章を書くことをオススメします.>芸者東京

#カウボーイ大会を楽しむためにあまり深く言及しなかったので,
#結局疑問は解けませんでした.スミマセン.

②mixiのARisコミュニティの説明
タロタローグ ブログ | 電脳フィギュアの基幹技術がARToolKitだと、mixiに明記してあったぞ!
にもあるようにmixiにあるARisのコミュニティは芸者東京の社長も認知しているみたいなのですが,
そのコミュニティのトップ画面に「電脳フィギュアの基幹技術ARTOOLKIT」と書かれていたりします.

GTE_AR_Frameworkを自社開発しているのであれば,誤解を招かないためにも訂正するように働きかけた方が
良いんじゃないですか?と提案してみたのですが,「コミュニティはうちとは別に関係ないんで。。。」
という反応.これはコミュニティに事実と異なる説明を書いた(かもしれない)人に非がある可能性があるので
何とも言えないですが,対応としてはどうなのかと思った.ARToolKit使ってるって誤解されちゃいますよ?

③カメラの解像度
電脳フィギュア – 製品仕様
Webカメラ(130万画素以上 640×320 30FPS以上推奨)

と書かれていたので,なんで640×320というヘンテコな解像度を採用したのかわからず,
もしかしたら何か技術的な意味があるのか!!と思い質問したところ,単に誤植とのことでした.
スタッフの方が,すぐに訂正しますと言っていたので,そろそろ訂正されていることでしょう.

ということで,結論としては大した情報は得られませんでした.以上です.

東京に戻ってきました

20日に東京に戻ってきました.帰省ピークを過ぎてても新幹線が地味に混んでた.

あと,数年前から実家で飼われている犬です.
半年に一度しか顔を合わせないので相変わらずなつかない。。。(苦笑)

犬@実家

***************
iSightが入力デバイスに! 新タイプのUIライブラリ「touche」がOSSで公開@マイコミジャーナル
という興味深い記事があったので,これから読む予定.公式サイトはこちら
これとTouchlibOpenTouchは関連あるのかな?

あと,touche自体は,FTIRマルチタッチテーブルの指先トラッキングサーバとして機能するみたいですが,
トラッキングの仕組みは単純に明度の高いblobを追跡するみたいなことが書いてあるので,動作を試してみるだけなら
別にテーブルを作らなくても良いかも(赤外カメラをつないでLEDを光らせるとかでできそう).

*****************
8/24(日)に第弐回天下一カウボーイ大会に行ってきます.
masayashiくんも参加するみたいですね.

あと,もち肌ビジネスマン奮闘記: 第弐回天下一カウボーイ大会に参戦します。というエントリ
にもあるように天下一カウボーイ大会に電脳フィギュア ARisのブースが出るみたいなので,
タロタローグ的「電脳フィギュアはどうだった?」レポート。でも最後は芸者東京の文章力を疑って終了!
でも指摘されている「芸者東京サイトとblogでの特許に関する説明の矛盾点」についてお話を聞ければなーと思います.