に投稿 コメントを残す

なぜ深層学習(Deep Learning)なのか

深層学習(Deep Learning)という言葉は、ニュースで目にされたことがあると思います。今回は、ディープラーニングとは何かをお伝えします。

第3次AIブームの初期に脚光を浴びた機械学習(Machine Learning)の手法は様々存在し、ニューラルネットワーク(neural network)はその中の一つの技術にすぎなかったということを前回エントリー(AIで何が解決できるのか?でお伝えしました。

このニューラルネットワークが進化したものがディープニューラルネットワークであり、そのモデルで学習を行うことを深層学習と言います。

ニューラルネットワークとは

深層学習は、神経の働きを数学的にモデル化するという考えが基礎になっています。順をおってニューラルネットワークについて説明します。

人間の神経伝達回路の仕組み

そもそも、人間の神経は多数のニューロンがつながりあったものだというノーベル賞受賞者の神経細胞学者サンティアゴ・ラモン・イ・カハールの唱えていた説が正しいことが確定したのは1955年(昭和30年)です。その頃、電子顕微鏡が医学の世界に持ち込まれ、光学顕微鏡では見ることができなかったニューロンとニューロンの接合部が存在し隙間があることが分かったのです。

人間の神経はこんな感じです。

髄鞘をもつ神経細胞の構造図 wikipediaより。https://ja.wikipedia.org/wiki/神経細胞

ニューロンは隣のニューロンにつながっています。

私のヘタウマ図です。

そして、つながっていると書きましたが、実際は隙間があります。

赤字で書いているのが情報の流れです。青いのがニューロンの中を電気で伝わってきた信号が軸索末端というニューロンの先っぽに達すると、神経伝達物質という化学物質をどぴゅっと出します。それを隣のニューロンが受容体で受け止めると、そこから先はまた電気で伝わっていきます。

電気と化学物質が協働して信号を流す、これが人間の神経伝達の仕組みです。このような生物としての神経伝達を物理的にも再現しようという学者もいますが、コンピュータ科学者は、現状のコンピュータでどう実現するかを考えました。

元々戦前に出されていた形式ニューロンの考え方を元に考え出されたのが、パーセプトロンです。1958年(昭和33年)に、ニューラルネットワーク研究の開拓者のひとりであるアメリカの心理学者フランク・ローゼンブラットが発表しました。

パーセプトロンって何

まず形式ニューロンは、ニューロンへの入力をこの図のように模式化します。

1.隣からの入力を受け止め

2.入力された値の合計を計算し

3.合計値を投入すると、値を判別して、0と答えたり1と答えさせる

という仕組みを作りました。

パーセプトロンは、この形式ニューロンをつなげたものです。

1.ニューロンを単体ではなく複数つなげ信号を流す

2.流れる信号に加減をすることでニューロンのつながりの強弱を数字に反映させる

3.そこから先は形式ニューロンと同じ

このようにつなげて、左端にあるニューロンに質問をぶつけると右から0だとか1だとか答が出てくる、というのがパーセプトロンです。

0とか1とか隣から流れてくる信号に、神経の繋がり具合を表現した掛け目を掛けるというのはすごい発想ですよね。

ところが、このパーセプトロンには欠点がありました。

機械学習でやらせたいことは、人間に代わって判断の分かれ目を線引きをすることです。

こんな風に、●と○が並べてあって、「同じ種類のもの同志で分ける」という課題があったとします。ここで前提知識ですが、パーセプトロンはまっすぐな直線しか線引きできないという特徴があります。

この程度なら簡単ですね。1本線を引くだけです。

ところが、少し複雑になるだけで問題が解けなくなるのです。

こんな問題だと詰んでしまいます。

ズルをしないといけませんね。

実は、この指摘がされた瞬間にパーセプトロン凄い!という期待が一気にしぼんでしまいました。機械学習はブームが続くものの、ニューラルネットワークは冬の時代に入ってしまったのです。

ところが、どの世界でも諦めの悪い人がいるものです。

こんな風に一層だと駄目だというのなら

複雑にしてみたらどうだろう?

実は、このように層を重ねて深くしてやると

直線ではない曲がった線引きもできるようになることが分かり、同時にこの手の問題が全て解けてしまうことが分かったのです。

層を深くしていく=深層

というのが決め手だったわけです。

英語ではDeep Learningですが、日本語の四字熟語のほうが実際のイメージに沿っているわけです。

コンピュータは、0か1で動いています。ブールさんという学者が考えた、ブール演算というものがあり、0か1かという択一の組合せを連ねて計算させるという数学があります。

ブールさんは、ブール演算によって論理問題は全部解けるということを証明しています。

コンピュータは、0か1かを記憶させることの積み重ねでできているのですが、ブール演算を掛け合わせることで、0か1かで表現できることは何だって計算できるということが分かっているのです。

ここで、先ほどの層を深くしたニューラルネットワークに戻りましょう。層を深くすると論理演算が解けるということは、ニューラルネットワークで論理的に整理できることは全て解けるということです!

「凄くないですかそれ!」というのがアドダイスの原点です。

  • 目で見るデータからパターンを見出すことについては「HORUS AI」
  • 時系列のデータからパターンを見出すことについては「SeeGauge」と「BeeSensing」

それぞれブランドは分けていますが、基盤となるSoLoMoNテクノロジーは、深層学習をベースに据えています。

ただ、理系の人はこれは凄いという感じになっているかと思いますが、文系の人は凄いと言っているから本当に凄いのかも知れないけど、実は説明についていけなかったぞっていう人も多いのではないでしょうか。

それに、深層学習を現実に適用しようとすると、データ収集や整形や整理など前捌きにほとんどの時間が取られてしまうが実態です。

かつ、勘と経験の世界をAI化しようというプロジェクトでは、現場の実担当者の周りにAIプロジェクトと聞きつけて集まってきている関係者の伝言ゲームに巻き込まれてしまいます。

そもそも、「言葉でうまく説明できないことだった」という原点を忘れて伝言ゲームをしようとするのが間違いなのです。が、ここには闇事情があり、ほとんどのAI企業は、月々の人件費月額に開発期間を掛算して請求額を決めているので、期間が延びたほうが売上が立つという利益相反があるのです。

こうした状況を一掃して、この凄い可能性を秘めている深層学習の威力を現場に届けるために、アドダイスはSoLoMoNテクノロジーを開発しました。

IoTでセンサーデータを深層学習器に直結させ、SNSで事象の意味を深層学習器に直結させています。

これにより、モノやイベントと深層学習器を直結させることができます。深層学習のデータの流路をパイプラインと呼びます。

現実世界にパイプラインを直結させ、まず人をお手本にしてAIを学習させ、次いでAI自体の成長を図るというSoLoMoNテクノロジーは、全ての人のためのAIとして深層学習の力をデータサイエンティストから解放します。

目で見て判断していることをAIでサポートしてくれないかな?

そのアイディア、HORUS AIで解決してみませんか?!