東京都江東区有明3丁目5番1号
全脳アーキテクチャ・アプローチでは,脳における多様な学習能力に対する理解にもとづいた汎用人工知能の構築を目指しています.
このアプローチが可能になった背景には,脳の大脳新皮質に対応づけうる深層学習が5年ほど前から急速に発展を遂げたことがあります.一方で近年は神経科学の発展も著しく,これらの知見を活かすことで現状の深層学習を超えた情報処理が行える可能性も有ります.そこで今回は「(仮)深層学習を越える新皮質計算モデル」をテーマとして勉強会を企画しました.
物理学者の松田卓也先生からは,工学的な人工ニューラルネットワークよりも詳細な神経科学知見を取り入れ,最近になって研究成果の発表が続いた, ジェフ・ホーキンスらによるHierarchical Temporal Memoryについてご紹介いただきます.さらに理研BSIの谷藤学先生からは神経科学の観点から,視覚情報処理の最新知見の紹介や,それらを踏まえた情報処理の計算モデルに関わる研究成果などにつき,ご講演いただきます.また最後には演者を交えたパネルディスカッションも予定しております.
後 援:株式会社ドワンゴ
同日、第1回全脳アーキテクチャシンポジウムも開催しています。よろしければご参加下さい。https://wba-meetup.doorkeeper.jp/events/43497
NPO法人WBAIのウェブページに掲載する本勉強会の報告書作成にご協力いただくレポーターを5月15日まで募集しております。(分量は1講演あたり1ページ程度であり,ドワンゴ人工知能研究所所長山川宏氏と共著となります)。
参考としてこれまでのレポートはドワンゴ人工知能研究所のテクニカル・レポートとして発行しております。
満席の場合でも勉強会の協力参加者として出席できますので、ご協力をいただける方は本ページのお問い合わせよりご連絡ください。
下記URLからニコニコ動画にて生放送します。事前に「タイムシフト予約」をしておくと、講演から1週間閲覧可能になります。
http://live.nicovideo.jp/gate/lv262776740
※配信環境によって放送が途切れる場合がございます。予めご了承ください。
※谷藤学(理研BSI)様の生放送は行いませんので予めご了承ください。
司会進行:坂井美帆
汎用人工知能の基本アルゴリズムとしては大脳新皮質をリバースエンジニアリングするのが近道であろう。ジェフ・ホーキンスによれば脳は常に一瞬先を予測しているという。ここでは新皮質のマスターアルゴリズムの候補としてホーキンスの提案するHierarchical Temporal Memory (HTM)理論を解説する。HTM理論の最大の特長は時間の重視である。その意味でHTM は隠れマルコフモデルを始めとするダイナミックベイジアンモデルとの親和性が強い。まずHTM理論の歴史を述べ、第一世代のゼータ1アルゴリズム、第二世代のCortical Learning Algorithm (CLA)、最新のGen3アルゴリズムについて解説し、CLAと神経科学の関係を述べる。CLAのニューロンはANNとは異なり、3種類の樹状突起をもち、多数のシナプスを備えている。新皮質の6層構造との関係も述べる。さらに最近明らかになってきたHTM の数学的基礎について述べる。
私たちが目にする物体像には視点、向き、自然な形状の変化などによって様々な「見え」がある。同じ人物の正面の顔と側面の顔のように、同じ物体でも画像としては全く異なる場合すらある。それにも関わらず、私たちが不変的に物体を認識することができるのは、脳の「物体表現空間」の中で、同じ物体像であれば近いところに、違う物体像は離れて表現されているからだと考えるのは自然であろう。この空間を構成する各軸は、高次視覚野の細胞が物体像から検出している図形特徴である。その図形特徴を決めることが、不変的な物体認識に本質的である。講演の前半では、この図形特徴を決める試みについて紹介したい。
さて、福島邦彦のネオコグニトロンに起源をもつDeep Convolutional Neural Network (DCNN)は、物体像のカテゴリ弁別に優れたネットワークとして着目されている(Krizhevsky, et al., 2012)。DCNNの物体表現層の特性は、脳の「物体表現空間」に対応するのかもしれない。実際、DCNNの物体表現層の応答特性とサル高次視覚野の細胞の物体像に対する応答特性との間には高い相関があるという報告もある(Yamins, et al., 2014)。しかし、このような見かけの類似性からDCNNは脳のよいモデルになっていると考えてよいのだろうか?現在のDCNNは自然画像の持つ統計的な性質に基づくスタティックなパターン分類である。これに対して、ヒトの物体認識は目的に応じてダイナミックに変化するプロセスであるように思われる。たとえば、ヒトの物体認識には空間的な注意は重要な役割を果たしている。私たちは、注意をあちこちに向けることで様々な物体が混在する自然画像の中で目標となる物体を探索する。また、注意を向けている場所にある物体像は、注意を向けていない場所の物体像と比較して容易に検出できることも心理学実験により示されている(Posner, 1980)。DCNNとは違って、霊長類の視覚情報処理はダイナミックで、脳の「物体表現空間」における物体像の表現もまた目的に応じて変化するのでないだろうか。私たちは、特に、空間的な注意に着目し、それが、高次視覚野の細胞の特性に与える影響について研究している。その話を後半でしたい。
会場近辺のお店で、有志による懇親会を行います。
1990年東京工業大学大学院情報科学専攻修士課程修了。1993年東京大学大学院情報科学専攻博士課程修了。博士(理学)。同年電子技術総合研究所(2001年より産業技術総合研究所)入所。プログラミング言語、ソフトウエア工学の研究に従事。2005年より計算論的神経科学の研究に従事。
1987年3月東京理科大学理学部卒業。1992年東京大学で神経回路による強化学習モデル研究で工学博士取得。同年(株)富士通研究所入社後、概念学習、認知アーキテクチャ、教育ゲーム、将棋プロジェクト等の研究に従事。フレーム問題(人工知能分野では最大の基本問題)を脳の計算機能を参考とした機械学習により解決することを目指している。
東京大学で、ウェブと人工知能、ビジネスモデルの研究を行っています。 ウェブの意味的な処理を人工知能を使って高度化すること、人工知能のブレークスルーをウェブデータを通じて検証することを目指しています。
人間の脳全体構造における知的情報処理をカバーできる全脳型AIアーキテクチャを工学的に実現できれば、人間レベル、さらにそれ以上の人工知能が実現可能になります。これは人類社会に対して、莫大な富と利益をもたらすことが予見されます。例えば、検索や広告、自動翻訳や対話技術、自動運転やロボット、そして金融や経済、政治や社会など、幅広い分野に大きな影響を与えるでしょう。
私達は、この目的のためには、神経科学や認知科学等の知見を参考としながら、機能的に分化した脳の各器官をできるだけ単純な機械学習器として解釈し、それら機械学習器を統合したアーキテクチャを構築することが近道であると考えています。
従来において、こうした試みは容易ではないと考えられてきましたが、状況は変わりつつあります。すでに、神経科学分野での知見の蓄積と、計算機速度の向上を背景に、様々な粒度により脳全体の情報処理を再現/理解しようとする動きが欧米を中心に本格化しています。 またDeep Learning などの機械学習技術のブレークスルー、大脳皮質ベイジアンネット仮説などの計算論的神経科学の進展、クラウドなどの計算機環境が充実してきています。
こうした背景を踏まえるならば、全脳型AIアーキテクチャの開発は世界的に早々に激化してくる可能性さえあります。 そこで私達は、2020年台前半までに最速で本技術を実現できるロードマップを意識しながら、この研究の裾野を広げていく必要があると考えています。 そしてこのためには、情報処理技術だけでなく、ある程度のレベルにおいて神経科学等の関連分野の知見を幅広く理解しながら、情熱をもってこの研究に挑む多くの研究者やエンジニアの参入が必要と考えています。
全脳アーキテクチャ勉強会は、人間のように柔軟汎用な人工知能の実現に興味のある研究者、脳に興味のあるエンジニア、関連分野(神経科学、認知科学等)の研究者間での交流を促進し、全脳アーキテクチャを実現するために発足されました。 2018年6月以降のイベント ⇒ https://wba-meetup.connpass.com 主催:全脳アーキテクチャ・イニシアティブ
メンバーになる