東京都中央区銀座8-4-17 リクルート銀座8丁目ビル
全脳アーキテクチャ勉強会における中心的なテーマであるDeep Learningについては,CaffeやChainerを始め開発環境が充実しつつありますが,全脳アーキテクチャのための新しいアーキテクチャを創出するためには,ゼロから多層複雑ネットワーク等を構築することも多いの想定されます.
そのためにも,Deep Learningの中身,例えば,中間層で起きていることや,なぜ,学習できるのか等を深く理解しておくことが重要です.そこで,今回の勉強会では,物理学や力学的解析の視点からのDeep Learningの中身に迫る講演2件と,世界初の商用レベルでサポートされたオープンソースディープラーニングフレームワークであるDeeplearnig4jを開発されたSkymind社CTOのAdam Gibson氏の講演を企画しました.
日 時:2015年8月26日(水) 18:00~21:00 (開場: 17:30~)
場 所:リクルートGINZA8ビル(G8) 11階大ホール
定 員:200名(定員に達し次第締め切らせて頂きます)
参加費:無料
申込方法:本イベントに参加登録のうえ,当日会場受付にてお名前またはチケットをご提示下さい。
主 催:全脳アーキテクチャ・イニシアティブ
ドワンゴ人工知能研究所所長山川宏氏と共著にて本勉強会の報告書作成にご協力いただくレポーターを募集しております。報告書の分量は4000~7000字程度とし,ドワンゴ人工知能研究所のテクニカル・レポートとして発行する予定です。
満席の場合でも勉強会の協力参加者として出席できますので、ご協力をいただける方は本ページのお問い合わせよりご連絡ください。
本勉強会は、ニコニコ生放送にて各講演者の講演と全体討論を配信予定です。ニコニコ生放送にてご覧頂けます。
深層学習で何が行われているのか理論的に理解する.しかし複雑なアーキテクチャを持つものであるためそれは非常に困難な道のりとは誰もが感じていることでしょう.本講演では、数理的なアプローチでその理解をしようとする取り組みについて講演します.そもそも論として、高次元の構造のあるデータを学習するときに教師なし学習と教師有り学習を素朴に行うとしたときに何が起こるのか.これを数理的な”おもちゃ"を使って調べてみます.高次元の極限を調べるために、原子分子などの非常に細かいものが集まった大きな数の世界を扱う手法に長けた理論を持つ物理学の手法を用いました.結果わかったことは、まず教師なし学習の量が多くなると、識別器の潜在的な能力が引き上げられることがわかります.しかし残念ながらその潜在的な能力を引き出すためには、生半可には超えられない壁があることがわかります.一方、教師有り学習の量を増やすと、その障壁が弱まること、あるところを境目にして高性能な識別器へと急激に変化することがわかりました.物理学の言葉では一次転移と呼ばれる現象に相当します.このようにまだまだ些細な進展ではありますが、ちょっと面白い発見について紹介させていただければと思います.
近年の人工知能ブームのきっかけとなった技術的ブレークスルーであるDeep Learning技術ですが、その高いパフォーマンスが獲得される原因が、未だ明確ではありません。その原因は、Deep Neural Networksが非線形識別機であり、対象とするデータが高次元である為です。そこで私の研究では、そのような対象の解析に長じた、力学的解析手法によって、Deep Neural Networksの中で生じている現象を調べ、問題にアプローチしています。具体的には、Deep Neural Networksの各層を時刻ととらえ、その時間発展ダイナミクスの解析を通して、情報の圧縮や拡大等を議論しています。この解析の結果、「多様体仮説」と呼ばれる、実世界に存在する高次元データが、実はクラス(犬や猫といったラベルに対応)毎にそれぞれ別の低次元部分多様体上に分布しているという仮説が正しいようであることと、パフォーマンスの高い教師ありDeep Neural Networksが、それをうまく活用していることが分かってきました。講演では、Alexnet等の実践的なネットワークの解析結果を通して、上記のことを説明します。
Gibsonによる,世界初の商用レベルでサポートされたオープンソースディープラーニングフレームワークであるDeeplearnig4jや,科学計算用のND4Jなど,Java仮想マシン向けのオープンソースライブラリについて解説する.
Deeplenarnig OSSを提供するSkymind社を2014年にCTOとして起業。サンフランシスコのGalvanizeUにてデータサイエンティストマスタープログラムのアドバイザも務める。2015年秋に “Deep Learning: A Practitioner’s Approach”をO’reillyから刊行。
起業実績: 4x startup founder
Deeplearning4j - Open-source, distributed deep learning for the JVM
日米のDeep learningの方法論や最新の動向について,Adam Gibson氏とドワンゴAIラボ所長山川氏との対談を中心とした全体討論を行います。
会場近辺のお店で、有志による懇親会を行います。
1990年東京工業大学大学院情報科学専攻修士課程修了。1993年東京大学大学院情報科学専攻博士課程修了。博士(理学)。同年電子技術総合研究所(2001年より産業技術総合研究所)入所。プログラミング言語、ソフトウエア工学の研究に従事。2005年より計算論的神経科学の研究に従事。
1987年3月東京理科大学理学部卒業。1992年東京大学で神経回路による強化学習モデル研究で工学博士取得。同年(株)富士通研究所入社後、概念学習、認知アーキテクチャ、教育ゲーム、将棋プロジェクト等の研究に従事。フレーム問題(人工知能分野では最大の基本問題)を脳の計算機能を参考とした機械学習により解決することを目指している。
東京大学で、ウェブと人工知能、ビジネスモデルの研究を行っています。 ウェブの意味的な処理を人工知能を使って高度化すること、人工知能のブレークスルーをウェブデータを通じて検証することを目指しています。
人間の脳全体構造における知的情報処理をカバーできる全脳型AIアーキテクチャを工学的に実現できれば、人間レベル、さらにそれ以上の人工知能が実現可能になります。これは人類社会に対して、莫大な富と利益をもたらすことが予見されます。例えば、検索や広告、自動翻訳や対話技術、自動運転やロボット、そして金融や経済、政治や社会など、幅広い分野に大きな影響を与えるでしょう。
私達は、この目的のためには、神経科学や認知科学等の知見を参考としながら、機能的に分化した脳の各器官をできるだけ単純な機械学習器として解釈し、それら機械学習器を統合したアーキテクチャを構築することが近道であると考えています。
従来において、こうした試みは容易ではないと考えられてきましたが、状況は変わりつつあります。すでに、神経科学分野での知見の蓄積と、計算機速度の向上を背景に、様々な粒度により脳全体の情報処理を再現/理解しようとする動きが欧米を中心に本格化しています。 またDeep Learning などの機械学習技術のブレークスルー、大脳皮質ベイジアンネット仮説などの計算論的神経科学の進展、クラウドなどの計算機環境が充実してきています。
こうした背景を踏まえるならば、全脳型AIアーキテクチャの開発は世界的に早々に激化してくる可能性さえあります。 そこで私達は、2020年台前半までに最速で本技術を実現できるロードマップを意識しながら、この研究の裾野を広げていく必要があると考えています。 そしてこのためには、情報処理技術だけでなく、ある程度のレベルにおいて神経科学等の関連分野の知見を幅広く理解しながら、情熱をもってこの研究に挑む多くの研究者やエンジニアの参入が必要と考えています。
全脳アーキテクチャ勉強会は、人間のように柔軟汎用な人工知能の実現に興味のある研究者、脳に興味のあるエンジニア、関連分野(神経科学、認知科学等)の研究者間での交流を促進し、全脳アーキテクチャを実現するために発足されました。 2018年6月以降のイベント ⇒ https://wba-meetup.connpass.com 主催:全脳アーキテクチャ・イニシアティブ
メンバーになる