に投稿 コメントを残す

なぜ深層学習(Deep Learning)なのか

深層学習(Deep Learning)という言葉は、ニュースで目にされたことがあると思います。今回は、ディープラーニングとは何かをお伝えします。

第3次AIブームの初期に脚光を浴びた機械学習(Machine Learning)の手法は様々存在し、ニューラルネットワーク(neural network)はその中の一つの技術にすぎなかったということを前回エントリー(AIで何が解決できるのか?でお伝えしました。

このニューラルネットワークが進化したものがディープニューラルネットワークであり、そのモデルで学習を行うことを深層学習と言います。

ニューラルネットワークとは

深層学習は、神経の働きを数学的にモデル化するという考えが基礎になっています。順をおってニューラルネットワークについて説明します。

人間の神経伝達回路の仕組み

そもそも、人間の神経は多数のニューロンがつながりあったものだというノーベル賞受賞者の神経細胞学者サンティアゴ・ラモン・イ・カハールの唱えていた説が正しいことが確定したのは1955年(昭和30年)です。その頃、電子顕微鏡が医学の世界に持ち込まれ、光学顕微鏡では見ることができなかったニューロンとニューロンの接合部が存在し隙間があることが分かったのです。

人間の神経はこんな感じです。

髄鞘をもつ神経細胞の構造図 wikipediaより。https://ja.wikipedia.org/wiki/神経細胞

ニューロンは隣のニューロンにつながっています。

私のヘタウマ図です。

そして、つながっていると書きましたが、実際は隙間があります。

赤字で書いているのが情報の流れです。青いのがニューロンの中を電気で伝わってきた信号が軸索末端というニューロンの先っぽに達すると、神経伝達物質という化学物質をどぴゅっと出します。それを隣のニューロンが受容体で受け止めると、そこから先はまた電気で伝わっていきます。

電気と化学物質が協働して信号を流す、これが人間の神経伝達の仕組みです。このような生物としての神経伝達を物理的にも再現しようという学者もいますが、コンピュータ科学者は、現状のコンピュータでどう実現するかを考えました。

元々戦前に出されていた形式ニューロンの考え方を元に考え出されたのが、パーセプトロンです。1958年(昭和33年)に、ニューラルネットワーク研究の開拓者のひとりであるアメリカの心理学者フランク・ローゼンブラットが発表しました。

パーセプトロンって何

まず形式ニューロンは、ニューロンへの入力をこの図のように模式化します。

1.隣からの入力を受け止め

2.入力された値の合計を計算し

3.合計値を投入すると、値を判別して、0と答えたり1と答えさせる

という仕組みを作りました。

パーセプトロンは、この形式ニューロンをつなげたものです。

1.ニューロンを単体ではなく複数つなげ信号を流す

2.流れる信号に加減をすることでニューロンのつながりの強弱を数字に反映させる

3.そこから先は形式ニューロンと同じ

このようにつなげて、左端にあるニューロンに質問をぶつけると右から0だとか1だとか答が出てくる、というのがパーセプトロンです。

0とか1とか隣から流れてくる信号に、神経の繋がり具合を表現した掛け目を掛けるというのはすごい発想ですよね。

ところが、このパーセプトロンには欠点がありました。

機械学習でやらせたいことは、人間に代わって判断の分かれ目を線引きをすることです。

こんな風に、●と○が並べてあって、「同じ種類のもの同志で分ける」という課題があったとします。ここで前提知識ですが、パーセプトロンはまっすぐな直線しか線引きできないという特徴があります。

この程度なら簡単ですね。1本線を引くだけです。

ところが、少し複雑になるだけで問題が解けなくなるのです。

こんな問題だと詰んでしまいます。

ズルをしないといけませんね。

実は、この指摘がされた瞬間にパーセプトロン凄い!という期待が一気にしぼんでしまいました。機械学習はブームが続くものの、ニューラルネットワークは冬の時代に入ってしまったのです。

ところが、どの世界でも諦めの悪い人がいるものです。

こんな風に一層だと駄目だというのなら

複雑にしてみたらどうだろう?

実は、このように層を重ねて深くしてやると

直線ではない曲がった線引きもできるようになることが分かり、同時にこの手の問題が全て解けてしまうことが分かったのです。

層を深くしていく=深層

というのが決め手だったわけです。

英語ではDeep Learningですが、日本語の四字熟語のほうが実際のイメージに沿っているわけです。

コンピュータは、0か1で動いています。ブールさんという学者が考えた、ブール演算というものがあり、0か1かという択一の組合せを連ねて計算させるという数学があります。

ブールさんは、ブール演算によって論理問題は全部解けるということを証明しています。

コンピュータは、0か1かを記憶させることの積み重ねでできているのですが、ブール演算を掛け合わせることで、0か1かで表現できることは何だって計算できるということが分かっているのです。

ここで、先ほどの層を深くしたニューラルネットワークに戻りましょう。層を深くすると論理演算が解けるということは、ニューラルネットワークで論理的に整理できることは全て解けるということです!

「凄くないですかそれ!」というのがアドダイスの原点です。

  • 目で見るデータからパターンを見出すことについては「HORUS AI」
  • 時系列のデータからパターンを見出すことについては「SeeGauge」と「BeeSensing」

それぞれブランドは分けていますが、基盤となるSoLoMoNテクノロジーは、深層学習をベースに据えています。

ただ、理系の人はこれは凄いという感じになっているかと思いますが、文系の人は凄いと言っているから本当に凄いのかも知れないけど、実は説明についていけなかったぞっていう人も多いのではないでしょうか。

それに、深層学習を現実に適用しようとすると、データ収集や整形や整理など前捌きにほとんどの時間が取られてしまうが実態です。

かつ、勘と経験の世界をAI化しようというプロジェクトでは、現場の実担当者の周りにAIプロジェクトと聞きつけて集まってきている関係者の伝言ゲームに巻き込まれてしまいます。

そもそも、「言葉でうまく説明できないことだった」という原点を忘れて伝言ゲームをしようとするのが間違いなのです。が、ここには闇事情があり、ほとんどのAI企業は、月々の人件費月額に開発期間を掛算して請求額を決めているので、期間が延びたほうが売上が立つという利益相反があるのです。

こうした状況を一掃して、この凄い可能性を秘めている深層学習の威力を現場に届けるために、アドダイスはSoLoMoNテクノロジーを開発しました。

IoTでセンサーデータを深層学習器に直結させ、SNSで事象の意味を深層学習器に直結させています。

これにより、モノやイベントと深層学習器を直結させることができます。深層学習のデータの流路をパイプラインと呼びます。

現実世界にパイプラインを直結させ、まず人をお手本にしてAIを学習させ、次いでAI自体の成長を図るというSoLoMoNテクノロジーは、全ての人のためのAIとして深層学習の力をデータサイエンティストから解放します。

目で見て判断していることをAIでサポートしてくれないかな?

そのアイディア、HORUS AIで解決してみませんか?!

に投稿 コメントを残す

AIで何が解決できるのか?

テレビでAI(人工知能 Artificial Intelligence)が紹介されることが増えてきましたが、AIの活用でも消費者がわかりやすいもの、例えば、コールセンターや応対ロボットなどで使われるようになってきた対話AIや自動運転装置、囲碁を打つAIなどが中心です。一方で、企業の中や企業間で使われるAIの活用はほとんど報道されていません。

そのため、AIで何か自動でできる気はするけど、具体的な活用シーンのイメージがつかない人も多いのではないでしょうか。また、消費者向けならAIが色々できるようになったみたいだが、企業活動で本格的に活用できるのはまだ先だろうと考えている人もいらっしゃったり、もったいないなと感じることがよくあります。

そこで、今回は、最近騒がれるようになった深層学習(Deep Learning)を活用したAIで、何ができるようになったのか、まずは目視検査に絞って解説していきます。

従来のAIで解決できないこと

AIとは、簡単に言うと、人が作った人間に近い思考ができる機械です。その思考を導き出すためにどう機械に学習させるのかという手法の研究が学者や企業により進められており、様々な手法を採用したAIが誕生しています。

AIと一言に言っても、何をさせたいかによって採用する手法も異なります。単に機械的に〇か×かを判断させたいだけなのか、鉄腕アトムのように自ら思考し行動する脳みそを作りたいのか・・

ここ数年のAIブームで実生活におけるAIの活用が幅広く拡がり、少し昔に開発されていた手法も活用が進んでいます。

エキスパート型AIの問題点(ルールベースの仕組みの問題点)

1980年代の第2次AIブームの時点で、エキスパート型と呼ばれるAIは既に実用化されていました。膨大な症例を参照し診断支援を行う仕組みなどはこのエキスパート型AIを利用したものです。

ルールベースと呼ばれることもあるエキスパート型のAIは、専門家の複雑で膨大な判断過程を大人数のデータサイエンティストを客先に派遣するSI(システムインテグレーション)のビジネスモデルと相性が良いため大手IT企業は力を入れて営業しています。

一方で、ルールベースの仕組みでは適切に解決出来ない課題もあります。たしかに、寸法を計測するタスクや一定の値を超えたか否かで制御を変えるタスクのようにルールベースの仕組みに合う課題もあります。しかし、毎回一定ではなく少しずつ揺らぎがありグレーな判断が要求される異物やキズあるいは凹みなどをルールベースで検出しようとすると、新たな異物が出る度に検出条件を追加するというイタチごっこになってしまいます。

機械学習型AIの問題点

また、2000年代から台頭してきている機械学習にも限界があります。

一つ目に、精度の問題です。

ILSVRC(ImageNet Large Scale Visual Recognition Challenge)という画像認識の技術革新を目的にした国際的なコンテストがあります。2011年までは機械学習のニューラルネットワーク以外の手法が主流でしたが、精度は70%台が限界でした。2012年以降は機械学習の一手法に過ぎなかったニューラルネットワークを多層化した深層学習(Deep Learning)が主流になり97%を超える精度を叩き出しています。

歴史的な役目を終えたとして、コンテストの運営主体もスタンフォード大学からカグルというIT人材ビジネスの会社に運営を移管してしまった程です。

二つ目は事実上の限界です。

課題に応じて機械学習の手法を切替ながら試行錯誤をする必要があるので、経験豊富で知見が多く柔軟に試行錯誤ができるデータサイエンティストを確保する必要があります。

しかし、そのようなデータサイエンティストは世界的にも数がいません。この20年ほどAIは冬の時代が続いていて人材育成の仕組みが途絶えそうになっていたところに、急にAIバブルが発生したので使える人材は引く手あまたで人材市場に良い人が滅多に出てこないからです。

かつ、深層学習(Deep Learning)は元々は機械学習の一つの手法に過ぎなかったので、昔から機械学習に携わっている人が必ずしも深層学習を熟知しているわけではなく、むしろ少し前まではニューラルネットワーク限界論が主流だったので「経験豊富」だからこそ深層学習について斜に構えている人も多いという問題もあります。

医療の現場での課題

このような限界を克服できる切り札として期待されているのが、HORUS AI(ホルスAI)のように深層学習(Deep Learning)を用いた最先端のAIです。言葉で表現しきれない勘と経験の世界をデータサイエンティストなしで、システムに取り込むことができるので、その応用範囲の広さから大きな期待が寄せられています。

例えば、医療の世界では従来のシステムでは病理医の判断をシステム化ができないため非常に大きな負担がかかっていました。

がん診断の例で説明しましょう。がん疑いがある時は、精密検査が行われ様々な診断手法を使い診断を下しますが、その中で疑いのある箇所から細胞・組織を切って摘出し、プレパラートにしてから顕微鏡で診断する組織診・細胞診という手法があります。

光学顕微鏡で覗くことも出来ますが、デジタルスキャナでプレパラートをスキャンしてデジタルデータにすればPCのモニターで確認できます。細胞が幾つか連なって形成された組織が癌化する場合もありますが、一つ一つの細胞が癌になってしまう場合もあります。

細胞は20μm(ミクロン)程度と小さいので高解像度で撮影してデジタル化する必要があり、数cmのプレパラートでもPCモニターで81面ほど表示されます。1面を舐めるように精査し、それを81面にわたって走査していく作業は非常に骨が折れる作業です。1面30秒としても40分はかかります。

見逃せば人命にかかわるので大きなストレスがかかります。見逃し事故が起きる背景には、このように本来的に難しい作業が横たわっているからです。

工場の現場での課題

工業の世界でも、医療の世界と同様に、勘と経験が必要な業務(官能検査とマテリアル・ハンドリング)は、システム化ができないので人間の検査員が従事しています。

今回のテーマである目視検査も、システム化が進んでいません。世界的に見て工場労働は3K労働として嫌われる傾向がある中で、人員不足により「仕事はあるのに受注できない」という問題が顕在化し始めており、目視による異物検査や不良分類の自動化が求められているのです。

グレーな判断が必要な領域は、やっていることの内容を言葉で明示的に説明しきれません。言葉で表現しきれないものはルールベースの仕組みに乗らないので、従来のAIでは対応が出来ません。人が限度見本と呼ばれる不良のサンプルを参考に判断します。

また、検査マニュアルに載っている画像を参考にして検知・分類を行います。しかし、同じガイドラインを参照していても、人によって判断に差が生じます。医療でセカンドオピニオンを勧めるのも同じ理由です。

現状、会社同士の取引で、生産側の出荷前検査と製品受入側の検査(受入検品)は別々の人が行っていて、受入側が納得いかない場合は、生産側は返品買取をしなくてはなりません。取決め内容によっては、受入側は受入直後には検査を行わず、加工の最中に気付いた不良を返品する場合もあります。

クレーム買取代金分の損失だけでなく、出荷検品を行った人にも大きな精神的ストレスがかかる辛い状況があります。

また、システム化を断念し人が行ってきた検査は、処理速度に限界があるため、全数検査ではなく、一部を抜粋して検査するサンプリング検査を行っている場合があります。朝にサンプリングして結果が夕方に出る場合、夕方に不良だと分かった時はその間に生産したものを廃棄することになりロスが生じてしまいます。

また、全数検査を避けられない場合は、検査工程がシステム全体のボトルネックとして全体を律速してしまいます。

深層学習(Deep Learning)型AIの特徴

第2次AIブームの時からある「ルールベース」の仕組みは形式知しかシステム化できません。グレーで曖昧な判断を無理にシステム化しようとすると、定義したパターンから少しでもずれると判定に失敗するので、対応のためにまた定義に条件を作り足すといういたちごっこになりシステムが複雑になります。

ルールベースの仕組みが本質的に適しないグレーな判定が必要な課題に適用すると、基準を厳しくすれば過剰検出してしまい不良の割合が大きくなり過ぎます。そのままでは採算が悪くなるので、不良として検知してしまったものを人間が再判定して問題が無いものを良品扱いする良品戻しが必要になります。また、検知したものを分類することはできません。

第3次AIブームで台頭してきた「機械学習」ですが、前提条件と事前データ調整を行った特殊条件でない限り精度が70%台に止まってしまうため、目視検査に使うという観点では精度が不十分でした。(通販システムの合理化など90%台の精度が無くても、過半を超えてくれるなら実用に足りる場合もあります。)

整理すると、深層学習を使わない手法では、勘と経験が必要となるグレーなものをグレーなままに判断ができず、分類の精度も特殊条件を外すと70%台に低迷してしまうという課題がありました。

ところが、深層学習を使うと、95パーセントを上回る精度を出すことができます。データが十分に集まれば99パーセント以上の精度が出せるので人間の精度を超えます。勘と経験をシステムに取り込みグレーな判断ができるようになるのが深層学習の特徴なのです。

HORUS AIで解決出来ること

このように目視による人の判断を必要としてきた作業工程は、深層学習(Deep Learning)によりシステムに置き換えることができます。

しかし、深層学習をゼロからシステム化するには、最近のトレンドを熟知すると同時に現場の事情をわきまえたデータサイエンティストが必要です。しかし、そういった人材はほぼいません。

また、深層学習ではAIに学習させるために教師データと呼ばれる素のデータをどう解釈するかというデータを作る必要があります。がん診断支援でいうと、画像のどの領域にどのような種類の癌腫があるかというデータです。この教師データ作成は識別眼の持ち主である、長年の経験と勘によりデータの意味を読み解ける人が行う必要があります。

深層学習のためには、データサイエンティスト兼ベテラン現場作業員である必要があるのです。

残念ながらそのようなスーパーマンは、ほどんどおらず、いても自社にとどめておくことは困難です。

アドダイスは、「Enhance human with SoLoMoN」(人の能力を SoLoMoNで増強する)をモットーに、データサイエンティストがいなくてもPCのブラウザを操作できれば、現場作業員の人自身で教師データを作り深層学習を使ったAIの自立運用が可能な仕組みを提供しています。

また、深層学習を実用する場合は、モデルと呼ばれるコンピュータ神経網を何パターンも用意して学習を試し、成績が一番良いものを利用します。しかし、AIの中身まで理解して使いこなすのは知的好奇心を満たしても現場効率には直結しません。

現場監督的には、精度が良ければそれで良いという即物的なニーズに応える必要があります。そこで、AIの中身が分からなくても精度の良い組合せを結果の数字だけで判断できる仕組みを提供しています。

HORUS AIにより、データサイエンティストがいなくても現場作業員だけで深層学習の自立運用が可能になり、目視による人の判断を必要としてきた作業工程を精度を高めて自動化することができるのです。

に投稿 コメントを残す

AIの歴史

第2次世界大戦後、人工知能の概念が誕生。第1次AIブーム

人工知能の考え方は、第2次世界大戦が終わった直後の1957年(昭和22年)に数学の天才アランチューリングが最初に提唱しました。

AIという言葉そのものは、Artificial Intelligenceの略語で、1956年(昭和31年)にダートマス会議でジョンマッカーシーが使ったのが最初と言われています。

この人は、コンピュータ界の神々の一人で、LISPというAI開発でよく使われてきた言語の原理を考案したり、タイムシェアリングというクラウド活用のコンセプトを提唱した功労者です。AIという概念を考えたから色々とディスカッションしようよ、と呼び掛けて開いた会議がダートマス会議です。AIの神様の一人であるマービン・ミンスキー先生も参加していました。

ソ連が民主化運動をしたハンガリーに攻め込んだハンガリー動乱があったりと物騒な時代で、日本はまだ戦争から立ち直れていませんでしたが、その頃に早くもコンピュータ時代が始まっていました。

第二次世界大戦の頃、戦争のために科学者が総掛かりでコンピュータの開発を推し進めていました。戦後は、民間でもコンピュータの利用が始まりました。軍と民間が車の両輪として開発を引っ張っていく状態は今でも変わりません。

その後も、アメリカとソ連が対立していた冷戦が続いていましたので、コンピュータの進歩は覇権国家の軍と民間が密接に連携して進んできました。

そんな中、第1次AIブームが起きました。研究者のビジョンが先行していたので実用には直接結びつくことは少なかったのですが、現在のAIブームにつながる貴重な種が蒔かれたのです。

当時のコンピュータは、今のスマホに載っているコンピュータと比べると赤ちゃん以下の能力しかありません。それでも、電卓もまだ無かった時代には官庁や大企業では重宝がられました。

小さな会社の決算なら算盤で済んでも、計算だけで数ヶ月かかってしまう仕事量がある大組織では、たくさんの人が計算するためだけに働いていたので、計算間違いをせず正確に結果を出してくれるだけでもありがたがられました。

第1次AIブームは、そんな貧弱なコンピュータを土台にしていたので、当時提唱されたコンセプトは現在でも十分に通用するものですが、目に見える即物的な成果はまだ見せることが出来ず、社会からは忘れられた存在になっていきました。

PCの小型化による第2次AIブーム ルールベースのAIエキスパートシステム

ところが、むやみに巨大だったコンピュータの小型化が始まり、PC(パーソナルコンピュータ)が普及を始めると、またもやAIブームが沸き起こりました。

日本でも1980年代はバブルの時代と重なって予算が潤沢だったこともあり、日本でも当時の通産省が第5世代コンピュータの開発プロジェクトを立ち上げました。

第2次AIブームです。単なる計算機でも凄かった時代が第1次AIブームの頃のコンピュータだとしたら、この頃のコンピュータは、国の予算処理などを自動化してくれるのではと期待されていました。

今の深層学習は、勘と経験の必要なグレーな判断を取り込むものです。これに対して、当時のAIは、白黒がはっきりとした世界を取り込むことが主眼でした。人間の行っていることを白黒はっきりとルールとして書き出してシステム化すれば何でもAIに載ると思われていたのです。

特定分野の専門家の知識を事細かにルールに書き出す膨大な作業を積み重ねれば自動処理ができるというエキスパートシステムが開発されました。ルールベースの仕組みと呼ばれることもあります。

もっとも、人間の知性を代替する原理としては、ルールベースの仕組みには根本的な欠陥がありました。勘と経験のようにルールを書き出すだけでは不可能なグレーな判断は取り込むことができないのです。

バブルが弾けてバブル時代の万能感が醒め、金詰まりの渋い時代に突入すると、AIは一気に懐疑的な目にさらされ予算を削られ冬の時代を迎えてしまいました。この第2次AIブームは、思い切った予算を壮大に食い潰した大失敗という印象を与えてしまったために世界中の研究が停滞してしまいました。

第3次AIブーム ニュートラルネットワークによる機械学習(Machine Leaning)/深層学習(Deep Learning)の発展

しかし、2000年代に入るとITバブルが起き、ドットコム企業が雨後の筍のように登場し、ほとんどが破産したとはいえ一部は強力な成長を始めていました。

これが現在の第3次AIブームの土壌である機械学習(Machine Learning)を育てる孵卵器の役割を果たしたのです。

機械学習とは、人間が介在せず仕掛けだけセットしてデータを処理させ、勝手に放置しておけばコンピュータが何らか法則性を見つけ出してくれる仕組みです。

ドットコム企業はデジタル世界で完結できるので、機械学習を使って見つけ出した法則性をその場で検証することができます。役に立つとなれば、お金が回り始めるので、機械学習は徐々に発展を始めました。

また、第2次AIブームの後、AI研究は冬の時代でしたが、辺境の地では研究が続けられていました。

深層学習(Deep Learning)という最近バズワードになっている手法は、ニューラルネットワークを基にしていますが、2000年頃においては機械学習の数多くある手法の一つでしかありませんでした。

しかも、単層では論理演算を全てこなすことができないことが証明されてしまい世間からはパッとしない存在と認識されていました。

ところが、カナダは伝統的にITでの産学連携が盛んでブラックベリーのような成功例もあることから独自路線を貫いていました。CIFAR(Canadian Institute For Advanced Research)のデータセット拡充も続けられ、トロント大学のジェフリー・ヒントン先生が粘り強くニュートラルネットワークの研究を続けていました。

フランスではヤン・ルカン先生が、生物の視覚神経路をモデルとした階層型ニューラルネットワークであるネオコグニトロンの実装にこつこつと取り組んでいました。

そしてこの粘り強い努力が、AI研究チームが画像認識の精度を競うISLVRCというコンテストで、2012年に2位以下に8%以上の差をつけてのぶっちぎりの勝利につながったのです。

2015年には、AlphaGoが人間の囲碁チャンピオンに勝利し、そこで深層学習が使われていたことが知れ渡ったことにより、世界中で深層学習ブームが起きました。

これが現在の第3次AIブームです。

アメリカも中国も次の時代の基幹技術であるAIをめぐって国家総力戦状態です。特に中国は鄧小平の深慮遠謀が大きく実を結んで好循環に入っています。

スタンフォード大学で深層学習ブームをリードし、百度のAI研トップも務めたアンドリュー・ング先生は有名ですが、ひとりだけではありません。有名なAI論文の共著者には必ずと言って良いほど中国系の研究者が名前を連ねています。

中国共産党の指導により、とにかく試して駄目なら後で締めればokという考え方が敷かれているため、勢いの面では既に中国がアメリカに勝っています。

日本でのAIの状況、データサイエンティスト不要のアドダイスのAIシステムの活用

そのような中で日本はどんな状態だったのでしょうか。一部の研究者が細々と、しかしながら根気よく研究を続け風前の灯火状態だったところに、この数年で急に予算が付き始めて息を吹き返したというのが現状です。

深層学習ブーム自体が2012年頃から始まり本格化したのが2015年以降なので、当初からAIに絡んでいるからといっても最近の深層学習ブームをリードできる人材はごく僅かという状況です。

アメリカや中国のように大戦略に基づいて世論誘導したりしていないので、民間企業ものんびりしていますし、学生も我先にとAI系の研究室を目指すという状態ではないので、人材・需要ともにまだまだこれからの状況です。

そのような状況の中で、IT業者もAIブームに便乗しようとしてデータサイエンティストの獲得競争が起きています。ところが、AIの理解をせずに便乗だけはしようとしているので弊害が出て来ています。

現在の第3次AIブームの本質は深層学習の活用にあるのですが、深層学習が注目されるようになったのはこの数年に過ぎません。もともと機械学習の一つの手法に過ぎず、かつパッとなかったものがニューラルネットワークです。

ですから、経験あるデータサイエンティストだからといって必ずしも深層学習を熟知しているわけではありません。AIの本質を理解していない会社は経営者も営業もよくわかっていないので、善意のままに古くなってしまった人材を超高値で売りつけるという悲劇的な事態が発生しています。

従来のAI手法を使った場合、70~80%の精度に止まってしまいます。アドダイスでは2010年ごろより深層学習の可能性に目をつけて商品開発を進めてきたので90%台の精度を出すことができます。

そしてさらに99.9%を超える精度を安定的に出す仕組みを開発しています。このように独自の世界最先端技術開発ができるのも、経営者が自ら研究開発しているベンチャー企業だからです。

AIといえばデータサイエンティストありきで考えれることも多いですが、実は、日本ではこのような事情もあり深層学習を使いこなせるデータサイエンティストがほとんどいません。

世界中でAIによるビジネスが形づくられる機運の中、日本社会も本物のAIを導入しなければ失われた30年の二の舞になります。

データサイエンティストがいない会社でもAIが導入できる仕組みを提供し日本を救いたい、これがアドダイスの願いです。

日本でも現在の深層学習を支える重要な研究がなされています。1980年にNHK技研の福島邦彦先生が人間の視覚野の働きをモデル化して発表したネオコグニトロンはその一つです。

アドダイスでは、そのような先人の研究を踏まえた、ブラウザだけでAIの学習も運用も可能なSoLoMoNテクノロジーの独自特許を活かし、現場だけで自立運用できるソフトウェアパッケージを開発し、目視検査、自動制御、予知保全のそれぞれ分野で有償サービスとして提供しています。

目視検査にはHORUS AI(ホルスAI)、自動制御と予知保全はSeeGauge(シー・ゲージ)というパッケージを提供し、養蜂業向けにBeeSensing(ビー・センシング)を提供しています。

特定用途に特化したサービスなので、導入すれば効果をすぐ実感できます。

アメリカや中国のように莫大な予算が無くても、データサイエンティストがいなくても、このようなパッケージであればAI化を始めることができます。派手さは無くても確実に効果があるところを固めて、これからの時代も一定のポジションを占める手を打ちましょう!