東京都港区東新橋1-5-1 パナソニック東京汐留ビル3F ホール
申し込み受付は終了しました
一般 | 無料 |
---|---|
学生 | 無料 |
懇親会は https://wba-meetup.doorkeeper.jp/events/58288 よりお申し込み下さい |
全脳アーキテクチャの実現に向けては、全脳に匹敵するレベルにまで計算規模を大規模化してゆく必要がある。近年実用化が進む深層ネットワ ークのような多層の人工神経回路(ANN)の学習ではネットワーク全体を誤差逆伝搬で最適化することが多いが、全体が同期的に評価されるため、大規模化の際には(1) スケーラビリティの低下、および(2) レイテンシー増大によるリアルタイム性の低下の二点において大きく不利である。ひるがえって、脳は器官レベルから細胞レベルまでの多階層にわたり、モジュールや素子が並行動作する非同期アーキテクチャである。脳は低速、低信頼性、低容量であるニューロンを素子として構成されるにもかかわらず、それらが多数並行に動作することで結果として20Wという超低消費エネルギーで超高性能な情報処理を実現している。
では、我々は脳の並列性、非同期性、超効率性から何をどのように学べるだろうか。第18回全脳アーキテクチャ勉強会では、超並列計算機を用いた脳型人工知能の開発者である高橋恒一、全脳規模神経回路シミュレーションの第一人者である五十嵐潤、および脳型集積システムの専門家である森江隆の三名に登壇いただき、全脳に匹敵するレベルまで脳型人工知能の性能を高めてゆくために、何を理解し、何を目指して研究すべきなのかについて議論したい(敬称略)。
時間 | 内容 | 講演者 |
---|---|---|
17:30 | 開場 | |
18:00-18:05 | パナソニック株式会社様よりごあいさつ | 森川 幸治 |
18:05-18:45 | 趣旨説明+脳型人工知能における大規模計算 | 高橋 恒一(理研) |
18:45-19:25 | ペタからエクサへ:ポスト京を用いた全脳規模の神経回路シミュレーションに向けて | 五十嵐 潤(理研) |
19:25-19:40 | 休憩 | |
19:40-19:45 | WBAI賛助会員からのプレゼンテーション | 未定 |
19:45-20:25 | 時間領域アナログ方式で脳の演算効率に迫る | 森江 隆(九工大) |
20:25-20:40 | 全体討論 | 上野聡 |
21:00-22:30 | 近隣で懇親会(自由参加・別途事前申し込みが必要) |
深層学習が認識技術を大幅に進展させたことにより、次世代の人工知能技術の焦点の1つは認知、意思決定、行動の統合になると考えられ、この点で脳のアーキテクチャに学べる点は多い。計算コア単体の性能が頭打ちになり、ムーアの法則の終わりも見えてきた現状では、認知=行動サイクルを脳に匹敵する規模でリアルタイムかつ高性能に実行するには大規模な並列化が必須である。その一方で、現在主流の人工神経回路(ANN)のほとんどはネットワーク全体が同期的に評価され、各社が提供するTensorFlow, Chainer, Theanoなどのフレームワークもそれを反映した設計となっている。誤差逆伝播による同期ボトルネックの除去は脳型人工知能の開発において重要な課題の1つである。本発表では、我々が開発する脳型人工知能基盤ソフトウエアBriCA(Brain-inspired Computing Architecture)の非同期並列計算フレームワークや、これを用いた新規非同期学習手法であるADFAなどを紹介し、今後の脳型人工知能における大規模計算の見通しについて議論する。
近年、半導体技術の発展の恩恵を受け、脳のリアリスティックな神経回路モデルの大規模シミュレーションが世界中で盛んに行われている。我々はこれまで11ペタフロップスの計算性能を持つ京コンピュータを用いて、約17億神経細胞と10兆個のシナプスからなる神経回路モデルのシミュレーションや、神経疾患であるパーキンソン病の病態の理解を目指した大脳基底核ー視床ー大脳皮質の神経回路モデルのシミュレーションに取り組んできた。これらの取り組みは"ペタフロップス級"の京を用いて行われてきたわけであるが、2022年頃に完成予定の"ポスト京"は京の100倍となる、”エクサフロップス級”の計算性能を持つ予定で、ヒト全脳規模の神経回路シミュレーションを実行可能になるとみられている。そこで、我々は2016年8月から開始したポスト京のプロジェクト、"萌芽的課題4思考を実現する神経回路機構の解明と人工知能への応用”において、大脳皮質、小脳、大脳基底核からなるヒト全脳規模の神経回路モデルの開発を進めている。この全脳規模の神経回路モデルを用いて、大脳皮質、小脳、大脳基底核がどのような相互作用を行い、運動や思考の基盤となる情報処理機構を実現しているかについて明らかにすることを目指している。今回の発表では、海外での動向も踏まえながら、ペタフロップス級の京で行われた大規模神経回路シミュレーションについて紹介し、エクサフロップス級のポスト京を用いた全脳規模の神経回路シミュレーションの展望についてお話する。
現在のほぼすべての情報処理システムに適用されているディジタル方式では,プロセッサとメモリを繋ぐバスと,メモリセルアレイ(RAM)でのアクセスに演算効率を低下させる原理的な問題がある.ニューラルネットワークの場合,RAMと同じクロスバアレイ構成で並列計算ができるという利点があり,近年,不揮発性アナログメモリなどを扱うデバイス分野で基礎的な研究発表がなされている.
このクロスバアレイ構成に,スパイキングニューロンモデルに基づく時間領域積和演算方式を適用すると,単純な抵抗とキャパシタの回路構成で,桁違いに高い演算効率を実現できる可能性がある.ここでは,既存のディジタル方式やアナログ方式と比較しながら,時間領域アナログ計算モデルと回路実現の特徴を紹介し,その可能性と限界を議論したい.
1990年東京工業大学大学院情報科学専攻修士課程修了。1993年東京大学大学院情報科学専攻博士課程修了。博士(理学)。同年電子技術総合研究所(2001年より産業技術総合研究所)入所。プログラミング言語、ソフトウエア工学の研究に従事。2005年より計算論的神経科学の研究に従事。
1987年3月東京理科大学理学部卒業。1992年東京大学で神経回路による強化学習モデル研究で工学博士取得。同年(株)富士通研究所入社後、概念学習、認知アーキテクチャ、教育ゲーム、将棋プロジェクト等の研究に従事。フレーム問題(人工知能分野では最大の基本問題)を脳の計算機能を参考とした機械学習により解決することを目指している。
東京大学で、ウェブと人工知能、ビジネスモデルの研究を行っています。 ウェブの意味的な処理を人工知能を使って高度化すること、人工知能のブレークスルーをウェブデータを通じて検証することを目指しています。
全脳アーキテクチャ・イニシアティブでは、賛助会員を募集しております。賛助会員に登録いただきますと、当サイトに貴団体ロゴとホームページへのリンク掲載や、各種イベントの優先参加など、さまざまな特典がございます。詳しくは、こちらをご覧ください。
人間の脳全体構造における知的情報処理をカバーできる全脳型 AI アーキテクチャを工学的に実現できれば、人間レベル、さらにそれ以上の人工知能が実現可能になります。これは人類社会に対して、莫大な富と利益をもたらすことが予見されます。例えば、検索や広告、自動翻訳や対話技術、自動運転やロボット、そして金融や経済、政治や社会など、幅広い分野に大きな影響を与えるでしょう。
私達は、この目的のためには、神経科学や認知科学等の知見を参考としながら、機能的に分化した脳の各器官をできるだけ単純な機械学習器として解釈し、それら機械学習器を統合したアーキテクチャを構築することが近道であると考えています。
従来において、こうした試みは容易ではないと考えられてきましたが、状況は変わりつつあります。すでに、神経科学分野での知見の蓄積と、計算機速度の向上を背景に、様々な粒度により脳全体の情報処理を再現/理解しようとする動きが欧米を中心に本格化しています。 また Deep Learning などの機械学習技術のブレークスルー、大脳皮質ベイジアンネット仮説などの計算論的神経科学の進展、クラウドなどの計算機環境が充実してきています。
こうした背景を踏まえるならば、全脳型 AI アーキテクチャの開発は世界的に早々に激化してくる可能性さえあります。 そこで私達は、2020年台前半までに最速で本技術を実現できるロードマップを意識しながら、この研究の裾野を広げていく必要があると考えています。 そしてこのためには、情報処理技術だけでなく、ある程度のレベルにおいて神経科学等の関連分野の知見を幅広く理解しながら、情熱をもってこの研究に挑む多くの研究者やエンジニアの参入が必要と考えています。
全脳アーキテクチャ勉強会は、人間のように柔軟汎用な人工知能の実現に興味のある研究者、脳に興味のあるエンジニア、関連分野(神経科学、認知科学等)の研究者間での交流を促進し、全脳アーキテクチャを実現するために発足されました。 2018年6月以降のイベント ⇒ https://wba-meetup.connpass.com 主催:全脳アーキテクチャ・イニシアティブ
メンバーになる