2017/05/25

超にわか!脳科学とAI(visual SLAM)2 

こんにちは!

前回でDeep leaningについてちょっと読んだので!

脳科学に見ると人とどう違うのかなーってことを考えてみたく思いました.
けど,やっぱりよくわからないので

Deep learningとの比較じゃなくてvisual SLAMとの比較してみようかなと.


visual SLAMは正確に地図を記憶していきます.
一方人間は見るべきものを抽出,補完します.

例えば,人には盲点があります.つまり,人の見る景色は常に抜けがあるということです.しかし,普段それを感じることはありません.人は目で見るのではなく,脳で見ているので補完するのです.

他にも,例えば
引用:池谷裕二,”単純な脳、複雑な「私」”, ブルーバックス, 2009.
この写真,男と女どっちに見えますか?

上が男,下が女だと答える人が多いそうですが,実は上は左半分が男性,右半分が女性で下は逆なんです.

つまり,人の顔は左右対称だからって人はさぼって見ているってことです.

時間的にも人は補完を行います.
http://bluebacks.kodansha.co.jp/special/brain_move04.html
このサイトは”単純な脳、複雑な「私」”の特設サイトです.

この,右側は緑⇒黄⇒赤と変わっているのです.しかし,オレンジが見えませんか?
これは脳が赤になることを先取りして,その変化を反映しているのです.

このように人の目が機械のカメラとは違います.
visual SLAMは見たものをそのまま地図に反映します.
だから,人工知能とはちょっと違うのかなーって思います.

逆に,こういうことを最終的にはvisual SLAMもできるようになるのかも.
という風に考えています.

また,記憶もロボットより人は良くありません.
もちろんSLAMのように地図を頭の中に作ることもできません.

必要な情報だけを抽出する傾向があります.
例えば,「自分の腕時計を書いてください」といわれると,かける人は多くありません.
で,そのあとすぐに今何時ですか?って聞くと答えることのできる人もまた多くありません.

必要な情報だけを抽出しているのです.

visual SLAMでは輝度勾配が強い場所を必要な情報として抽出することが多いですが,必要な情報とは,もう少し抽象的であるような気がします.

Deep Learningで得た特徴量も抽象的になりつつありますが,さらにここに知識や,視覚以外の特徴量を足せば人のような認識になるような気がしますし,

赤外線など,人の感知できないものを足せばどうなるのでしょう?

蛇の目でSLAMとかもできるようになるのかな?

以上,素人の妄想でした!また!!

0 件のコメント:

コメントを投稿