新着記事

来場者数が想定の3倍だったAIエキスポ、個人的にはデータまわりが注目

私は元々記者をやっていたので、これまでにビジネス関連の展示会は取材で山ほど参加してきました。 その中でも先日開かれた第1回AI・人工知能EXPOの盛況ぶりは、別格だった気がします。 主催のリード エグジビション ジャパンさんに事前にお話しを伺った時は、「3日間で約1万5000人の来場者を見込んでます」とのお話。 「当日は歩けないくらいの感じにすらなるかもしれません」と聞いていたものの、正直なところ混雑ぶりを表すたとえだと思っていたのですが、本当にそんな感じでした。 ふたを開けてみると3日間の参加者数が4万1,677人と、当初予想の約3倍。 AIブームの真っただ中だからということはもちろんですが、あらゆる産業と関連し得るという意味で、すそ野が広い分野だということもあるのでしょう。 パっと目につくのはやはりチャットボット 数あるブースの中でも、一番目についたのはやはりチャットボット関連のサービス。 関連ブースをまわりましたが、主な使い道はサポートセンターによる一部業務をボットで代替することで、人件費削減や業務効率化を目指すというものが多いようです。 事前に決めた対話ルールに沿ってやり取りを進めるという仕組みなので、あまり複雑すぎる対話は難しく、「問い合わせの8割は大体同じ質問です」みたいなケースの効率化が一番ハマりやすい、つまり事前に決めたルールの範囲で対応しやすいんだろうなという印象。 おそらく実際に使ってみると、料金体系やUIの使い勝手、周辺機能などの面で相性の良しあしを感じるのでしょうが、チャットボット自体の性能という意味では、各社で大きな違いはなさそうです。 「将来的には機械学習を活用して、対話ルールの設計部分をもっと自動化していきます」と仰っていた会社さんもいましたが、一方で「単純にそうするとボットがどんな回答をするか予測できない部分も出てきてしまうので、難しいところなんですよね」とのことで、どこまで自動化させるかについては、バランスを考慮する必要がありそうです。 周辺機能という意味では、個人的にはhachidori(ハチドリ)のLINE関連機能が気になりました。 LINEユーザー向けにチャットボット上でアンケートを実施できるのですが、そのアンケート結果をもとにメッセージの出し分けができるというもの。 たとえば「アンケートで購買意向が高かったユーザーに限って、クーポンを送ろう」といった具合に、ユーザーのセグメントや購買熟度に応じた出し分けができそうです。ちなみにこの機能、特許出願中だとか。 結局データが一番重要 やはり結局、人工無能やディープラーニングといったAI関連の技術だけでは根本的な差別化にはならないとすると、最も重要なのは独自の学習データをいかに集めるかということになります。 そういう意味では、出展社の中でもIR-ALT(アイアール・アルト)のように学習データの作成や収集を支援している企業が、個人的には興味深かったです。 AIを作りたいけど「機械学習用の正解データがない」というようなケースは多いはずだからです。 同社によるデータ収集は、必要な学習データの専門性によって段階があります。 専門性が比較的低いデータであれば、クラウドソーシングによる不特定多数から収集。 一方クラウドソーシングでは対応しきれない要件、たとえば特定の属性(幼児や高齢者など)や精度の高いデータが必要な時は、同社のネットワークを使っての収集といった具合です。 また音声データの収集にも対応していて、高齢者や認知症の方による発話データといった非常にニッチなデータ収集にも対応できる点が強みのようです。 「データ市場」という仕組みにも注目 この「AIに使うデータがないなら買えばいいじゃない」的な発想をさらに突き詰めた先の一つとして、データの持ち主とデータが欲しい人をマッチングさせる「データ市場」という考え方があるようです。 今回のエキスポで開かれた専門セミナーにいくつか出席させていただきましたが、中でもEvery Sense社の眞野浩氏と東京大学の大澤幸生教授によるデータ市場の話は、とても刺激的で面白かったです。 Every Senseは、データの持ち主とデータが欲しい人をマッチングさせるプラットフォームを運営する企業。この場合のデータとは各種のデバイスから発生したセンサー情報、いわゆるIoTまわりのデータになります。 AI分野のニュースというと、個々のサービス内容にフォーカスされがちですが、いかに独自の学習データを確保するかという話のほうが本質的かつ重要なはずなので、この手の話は今後さらに注目されてくるはず(後ほどセッションの詳細をレポートします)。 ちなみにAI・人工知能EXPOの専門セミナーも、事業会社による実際の事例から研究者による最新技術の話題まで、ラインナップが非常に充実していました。 かなり濃い情報が展開されるので、参加費も決して安くはないですが、広い会場がびっしりと埋まっています。 次回は来年4月 次回のAI・人工知能EXPOはまた1年後の6月、、、と思いきや、来年の4月なんです。 ◆第2回 AI・人工知能EXPO 2018年4月4日(水)~6日(金) 前回の約3倍の規模を想定するとのことで、展示スペースも大幅に広げるようです。 第2回目はAI4U運営元のインキュビットも出展しますので、皆さまとお会いできるのを楽しみにしております!

コルタナ活用の先進事例、ナビタイムとマイクロソフトによる新たな顧客対応

企業による導入が進むチャットボット。 その効果といえば、「サポートセンターの人員代行」といった人件費削減や、ユーザーにとって面倒な作業の負担を軽減するサービス向上といったあたりが中心になっています。 今回は後者の「サービス向上」について面白い事例があったのでご紹介。「AI・人工知能EXPO」(2017年6月28日~30日)で開かれたセッションでの様子をレポートします。 コルタナを搭載、ユーザーニーズを先回りして理解 ネットサービスを使いこなしたり、Q&Aで必要な情報を探しきるというのは意外と難しい作業です。 サービス開発者側や一定のネットリテラシーを持つ人からすると、「こんな簡単な(だと思っていた)操作でつまずくの?」という場合も実は多いでしょう(ユーザビリティ調査とかやると本当にこれ思います)。 そこでネットリテラシーの有無を問わず使えるようにすることで、ユーザーのすそ野を広げる必要があるわけですが、そこでチャットボットが活躍するという話。 今回登壇したナビタイムジャパンは、旅行プランの作成や航空券・宿泊施設の予約サービス「NAVITIMEトラベル」などでチャットボットを活用しています。 「AIを活用することで、ユーザー自ら情報を探すのではなく、彼らが求める情報をこちらがくみ取って、かつ提案できるナビゲーションシステムを目指している」と、同社の小田中育生氏(開発部部長ACTSルートグループ責任者)は話します。 裏側の仕組みとしては、マイクロソフトが開発したパーソナルアシスタント機能「コルタナ」を搭載。これについては「思った以上に簡単に入れられるなという印象です」(小田中氏)とのこと。 詳細をお伝えします。 便利機能、「設定が多すぎて使いこなせない」という声も ナビタイムジャパンは、「移動の課題を解決する」をミッションとして、各種のナビゲーションサービスを提供してきましたが、これに関してさらなる改善の余地を感じていたといいます。 それは多様なニーズやシーンに応えるために多くの機能を搭載している分、それらを使いこなしきれない人々も出てしまっているという点。 たとえば電車の乗換案内サービスには、「乗り換え少ない順」や「徒歩速度」といった多くの検索条件が用意されています。 「きめ細かく設定できて便利だと言ってくださる方がいる反面、設定が多すぎて使いこなせないという声もありました」(小田中氏)。 そこで、乗り換え案内のチャットボットを昨年9月にLINE向けにリリースするなど、AIの活用に乗り出しました。 ユーザーのあいまいな要望を理解 また別途提供している観光ガイドアプリ「NAVITIMEトラベル」では、さらに踏み込んだ形でAIを活用しています。 ユーザーが直接的にニーズを伝えなくても、言外の意図をくみ取ることで、きめ細かなサービスを提供できるようにしようという試みです。 たとえば旅行先の観光スポットを探しているユーザーが、「癒しが欲しい」といったあいまいな要望をしたとして、それに対してスパのお店を表示する。また「鎌倉でおいしいレストランを教えて」という要望があれば、好みに合ったお店を紹介するといった具合です。 同サービスは、主に海外からの観光客を想定ユーザーとして多言語展開しています。 そのためバックグラウンドもITリテラシーも多種多様なユーザーが使うことになるので、テキストメッセージという世界共通のUIで操作でき、かつユーザーの意図をくみ取ることができる今回の仕様は、必要不可欠ということでしょう。 コルタナの搭載、「思った以上に簡単」 こうした機能は、「癒されたい」「飲みにいきたい」といったあいまいな要望の意図を学習させることで、実現しているとのこと。 裏側の仕組みとして、マイクロソフトによるパーソナルアシスタント機能「コルタナ」を活用。ナビタイム側のアプリケーションと、コルタナのボットフレームワークをつなぎ、さらに入力された自然言語を理解するツールであるLUIS(Language Understanding Intelligent Service)といった各種AI機能を使うことで実現しています。 特に同サービスの肝になっているあいまいな要望の解釈という部分については、このLUISを使った学習が非常に重要になっているといいます。 またLUISは日本語を含む12言語に対応していることも、採用の決め手になったといいます。 「日本語に対応しているコグニティブサービスは、最近は増えてはいるが当時はあまりありませんでした」(小田中氏)。 2016年12月末から開発を始め、今年2月にローンチしたということで、開発期間はたったの2か月間だったといいます。 「スピーディーに開発できた要因としては、マイクロソフトさんと合同でワークショップを実施したことが大きい。ナビタイムのエンジニアとマイクロソフトが一緒になって、サービスの内容や会話の設計などを2日間のワークショップで考え、基本的なところはそこで完成してしまいました」(小田中氏)。 「ボットを開発したことがなく、作るのにどれくらい時間かかるんだろうと思っている方もいると思いますが、思った以上に簡単に入れられるなという印象です」(同)。 ナビタイムとして最終的に目指す方向性について、小田中氏は次のように話します。 「これまではユーザーが自ら検索して情報を探すというのがナビゲーションサービスとして基本的なところだったが、ユーザーが求めるものをこちらがくみ取って提案してあげる、そしてユーザーがそこから選ぶという時代になってくるのではないでしょうか」。 たとえば「リラックスしたい」「海に行きたい」「和食を食べたい」という複数の文章から、複合的に判断して「伊豆の温泉が良いですね」と教えてあげるようなサービスをイメージしているといいます。 複雑な入力、画像認識で省略 またサービス活用の障壁をなくして、幅広いユーザーが使えるようにするという意図の事例として、リコーのケースも紹介されていました。 同じく登壇した、日本マイクロソフトの大田昌幸氏(デベロッパーエバンジェリズム統括本部テクニカルエバンジェリスト)によると、リコーは社内向けのQ&Aツールとしてコルタナを搭載したチャットボットを採用したといいます。 この社内Q&Aでは、自分のPCに関する情報を入力する場面があるそうですが、このチャットボットではPC画像をアップすることで、その手間を省くことができるといいます。 「ユーザーの誰もがPCのリテラシーが高いわけではないので、PCの型番を答えられる人は非常に少ないです。『Surface 3』と『Surface Pro3』の違いを見分けるのは、簡単ではない人も中にはいます」(大田氏)。 またシリアルナンバーを手打ちで入力するといった面倒な作業も、PCの画像認識によって省略できるとのこと。 ユーザーがリテラシーの向上という形でサービスに合わせるのではなく、サービス側がユーザーに合わせるための施策としてのチャットボット。先進的な企業はすでに活用方法を模索し始めているようです。

アドビシステムズに聞く、「Adobe Sensei」の未来【後編】

AI(人工知能)、特にディープラーニング」を活用し、写真の加工や動画の編集、書類のデジタル変換などの複雑な課題に対処する新技術として2016年10月31日~11月4日のAbode MAX2016(米国カリフォルニア・サンノゼで行われたクリエイティブカンファレンス)で発表された「Adobe Sensei」。 アドビ システムズ 株式会社(以下、アドビ)日本法人を訪問し、気になる機能の数々についておたずねしたインタビューの後編をお届けします! アドビシステムズに聞く、「Adobe Sensei」の未来【前編】 前編では、Adobe PhotoshopやAdobe Premiere Proをはじめとした、クリエイティブ領域のアプリケーションに「Adobe Sensei」がどのように実装されているのか、未来の技術も含めてヒアリングしました。 後編では、日本でも大手企業を中心に導入が進むアドビのマーケティング領域のソリューションについて、「Adobe Sensei」がどう活かされるのか、伺ってみました。 マーケティング領域における取り組み「Adobe Experience Cloud」とは? https://www.youtube.com/watch?v=o-rL2vatwlo ――まず、アドビさんが提供されているマーケティング領域のクラウドについて、お聞かせください。 アドビ:私たちの一番のミッションとしては「世界を動かすデジタル体験を提供していく」というものがあります。2017年3月に発表した「Adobe Experience Cloud」では「デジタルによるワークスタイルの変革」を目標として掲げているのですが、具体的には、マーケティング領域でバナーやディスプレイ広告、Eメールキャンペーンなどを効率よく運用していくためのクラウドになります。クリエイティブとマーケティングテクノロジー(従来のアドテク)を統合的に結びつけるのが「Adobe Experience Cloud」の役割です。 ――クリエイターがつくったバナーなどを、効率よく運用していくためのツールなんですね。 アドビ:「Adobe Experience Cloud」にはAdobe Marketing Platformなど、広告のアセット管理を行うプラットフォームも含まれています。ユーザーの行動履歴を可視化するデータ分析ツールなどは、他社でも提供されていますが、Adobe PhotoshopやAdobe Illustratorで作ったコンテンツが「どういう風にビジネスに貢献しているか」を統合的に支えるための仕組みが「Adobe Experience...

アドビシステムズに聞く、「Adobe Sensei」の未来【前編】

2016年10月31日~11月4日のAdobe MAX2016(米国カリフォルニア・サンノゼで行われたクリエイティブカンファレンス)で発表された「Adobe Sensei」。人工知能(AI)、特にディープラーニングを活用し、写真の加工や動画の編集、書類のデジタル変換といった手間のかかる複雑なタスクを対処する新技術「Adobe Sensei」とは、どんなソリューションなのか? アドビ システムズ株式会社(以下、アドビ)日本法人を訪問し、気になる機能の詳細について聞いてきました! 気になる人工知能、「Adobe Sensei」ってなに? アドビについて、一般的にはAdobe Photoshop、Adobe Illustrator、Adobe Premiere Pro(以下、Photoshop、Illustrator、Premiere Proと表記)といったグラフィックや動画編集ソフトのイメージを抱いている方が多いかと思います。 現在は従来のクリエイティブ方面で利用されるアプリケーションの数々やそれを提供するためのプラットフォーム「Adobe Creative Cloud」に加え、マーケティング領域で大手企業向けの統合デジタルソリューション「Adobe Experience Cloud」や、文書の編集をデジタル化&高速化してビジネスの効率を高める「Adobe Document Cloud」の提供を行っています。 Adobe Creative Cloud Adobe Experience Cloud Adobe Document Cloud このように、アドビのサービスはクリエイティブ、マーケティング問わず、多方面で活用できます。おそらく、業務に欠かすことができないという方も多いのではないでしょうか。 しかし、新技術の人工知能を使った「Adobe Sensei」は、さらに作業を効率化してくれるとのこと…。一体、どんなシステムなのでしょうか。さっそくお話を伺ってみましょう! ――まず、「Adobe...

Facebook上のチャットボット、実は社会貢献関連が盛り上がっていたという話

Facebookが2016年4月にリリースしたチャットボットのプラットフォーム。これによって、Facebookメッセンジャー上で動くチャットボットを外部の開発者が制作できるようになりました。 今では同プラットフォーム上で提供されているチャットボット関連のサービスは、10万件以上に上るそう。 このFacebookによるチャットボットプラットフォームについて、海外メディアのMashableが「特に社会貢献関連のサービスが盛り上がっている」と報じています。 サービスの一例として、 ・英語を話せない難民や移民に翻訳者を紹介することで、移民先での生活支援を目指すTarjimly ・法律知識のない一般の人々に弁護士サービスを提供するDoNotPay ・一般的に男性に比べ給与水準が低い傾向にある女性を支援するAsk for a Raise などが挙げられています。 なぜ特に社会貢献サービスが増えているのか?要因としては、 ・社会的に弱い立場にある人々もFacebookを日常的に使っているため、リーチしやすい ・12億人以上のユーザーが集まるFacebook上で出したほうが、マーケティングがしやすいというサービス提供側のニーズにマッチしている ・非エンジニア向けのチャットボット制作ツールが充実してきている ・社会貢献を重視する Facebook自身の思想ともマッチしている といったことのようです。詳しくみていきましょう。 ◆社会的弱者とされる人々にリーチしやすい 「Facebook上でチャットボットを出す利点は、すでに多くのユーザーが集まり長い時間を過ごしているプラットフォームだということ。さらにユーザーにとっても、Facebook上のほうが使いやすいでしょう」。 シリコンバレーを拠点とするTarjimly創業者のAtif Javed氏は、こう語ります。 同社は、中東などからの難民や移民向けにチャットボットを提供しています。 移民先の言語に不自由する彼らに対して、翻訳者を紹介することで現地での生活を支援するというもの。 具体的には、言語の障壁を取り払うことで、彼らが医者や就職支援者、法的支援サービスなどにアクセスさせることが目的だといいます。 https://www.youtube.com/watch?v=nItrdMJKmFY 当然ながら難民という立場に置かれる人々の多くが、経済的に困窮しています。それでも彼らの多くはスマートフォンを持っており、日常的にFacebookメッセンジャーやWhatsAppを使ったテキストメッセージに親しんでいるよう。 慣れ親しんだFacebook上で提供されるサービスであれば、活用に向けたハードルも非常に低いというわけです。 またあくまでアプリではなく、Facebookメッセンジャー上での提供を選んだ理由について、Javed氏はこうも話しています。 「今から独自のアプリを作って、無数にある他のアプリと競争するだけの価値はない」。 ◆非エンジニアでも作れる環境が整備 またエンジニアでなくとも、Facebook向けチャットボットを作ることができる環境が整ってきているという利点もあります。 もともと社会貢献に関わろうという人々は、必ずしもエンジニアリソースを豊富に持っているというわけではありません。 「チャットボットを作るなんて、想像したこともなかった」。 クリエイティブエージェンシーのR/GAでシニアコピーライターを務めるKate Carter氏はこう語ります。 彼女は「Ask for a Raise」というFacebook向けチャットボットの開発・運営を主導しています。 同サービスの目的は、男性より給与水準が低い傾向にある女性を支援すること。昇給に必要な説得材料をチャットボットによって提供しています。 実際アメリカにおいて男女間の賃金差は問題視されている状況。昨年実施の調査によると、アメリカの企業で女性が昇給を達成できる確率は、男性より25%も低いといいます。 彼女はチャットボットを開発するにあたって、チャットボット開発支援ツール「Reply.ai」を活用。同ツールによって、コードを書くことなくGUIベースでチャットボットを制作しました(ちなみに日本ではトランスコスモスが販売)。 この手のツールは、他にもRapidProやChatfuel、Meyaなど数多くそろっており、従来テクノロジーから遠かった分野によるチャットボット制作を後押ししているようです。 ◆Facebookによる思想ともマッチ さらにソーシャルメディアを通じて社会的弱者を支援するという思想は、FacebookのMark Zuckerberg氏の考えとも共通しています。 Zuckerberg氏は、「Building Global Community」と題した、6000語に及ぶマニフェストを2017年2月に発表しました。 この中でZuckerberg氏は、ソーシャルインフラとしてのFacebookをより進化させていく考えを示しています。 単に友人や家族同士をつなげるにとどまっていた従来の役割から、貧困などの社会問題の解消に向けたコミュニティ作りに貢献するインフラを目指すというのです。 チャットボットの開発や集客を低コストで行いたいという企業側のニーズと、慣れ親しんだプラットフォームで手軽にサービスを使いたいというユーザーニーズ、社会貢献を重視するプラットフォーム側の思想。 この3つが合わさっていることが、社会貢献チャットボットの増加を後押ししているといえそうです。

人工知能関連で国内最大の展示会が開催、その裏側をリードさんにインタビュー

もうすでにご存じの方も多いと思いますが、人工知能(AI)関連の企業や研究機関などが出展する「AI・人工知能EXPO」が、6月28日(水)~30日(金)に東京ビッグサイトにて開催されます。 AIのビジネス活用がここまで盛り上がったからには、近いうちにこの手の展示会が開催されるだろうな、期待していた方も多いでしょう。 展示会の概要やオススメのブースといった情報は、こちらの記事をご覧いただくとして、 ・【予告編】日本初!人工知能だけの見本市『第1回AI・人工知能EXPO』 今回僕らのほうでは、主催者のリード エグジビション ジャパンさんにお邪魔して、開催の裏側について、色々と聞いてきました。 AIのビジネス活用市場というのは、まだまだ黎明期。リードさんにとって、AI関連展示会の開催も初めて。そんな中で、どうやって想定来場者数1万5000人以上の大規模な展示会に仕立て上げていったのか。個人的にも興味あります。 AI関連の展示会、各業界から望む声 ――今回「AI・人工知能 EXPO」を開こうとなったきっかけは? 岡部氏:もともと年間170本以上の展示会を開いているので、エレクトロニクスやIT、自動車など各業界の中心人物の方々とつながりがあります。 こういった方々から、ここ2年くらいの間に、AI関連の技術やサービスを集めた展示会があったらぜひ行きたい、というお話をいただくようになりました。 そこで2016年に、日本最大のコンテンツビジネス総合展「コンテンツ東京」の一角に、「AI・人工知能ワールド」というエリアをトライアルで作りました。 会期2か月前に急きょ開催することを決めたのですが、それでもいきなり20社程度出展が決まり、ものすごい反響だったので、これは本格的にやる意味があると判断しました。 ――そもそも展示会を開こうと決まった場合、どういった準備をするものなのでしょう? 岡部氏:基本的には1年~1年半前から企画調査を進めていきます。 ――AIの展示会はリードさんとしても初めての分野になりますが、今回はどういった調査をされたのですか? 岡部氏:AIに限らず様々な業界で同じなのですが、まず業界団体の方にお話を伺ったり、各業界のキーマンの方々に協力を仰ぎながら準備を進めていきます。 「AI・人工知能 EXPO」の場合でいいますと、去年の「AI・人工知能ワールド」で講演していただいた人工知能学会の松原仁会長に色々とご相談させていただきました。そして人工知能学会に後援として入っていただき、様々なアドバイスをいただくという体制を作ったんです。 展示会の準備、AI研究のトップランナーたちと共同で ――開催・運営にあたっては、第1回ならではの難しさというのもありそうですね。 岡部氏:現時点では、我々も含め世の中の人が、「AI・人工知能 EXPO」というものをみたことがないという状態です。そういった中で、この展示会を開催する目的や意義を丁寧に説明し、キーマンの方々や出展企業を巻き込まないといけないので、非常に難しい活動になりますが、それこそが私たちの腕の見せ所ですね。 ――未知の領域でもあるので、多くの方々の協力が必要なんですね。 岡部氏:松原先生だけでなく、日本のAI研究のトップランナーの方々に、アドバイザリーコミッティとして入っていただき、セミナーや展示会の内容について、色々なアドバイスをいただきました。 ――具体的にはどんなアドバイスだったのでしょう? 岡部氏: そうですね、たとえばクリエイティブの分野に強い先生方から、「人工知能がこれからクリエイティブの分野でどう活用されていくかの講演会を開いたほうがいい」というアドバイスをいただきました。クリエイティブの世界への人工知能の影響が今後大きくなってくるからというものです。 また医療分野やマーケティング分野など、多種多様な分野で人工知能の活用が急増していることを伺い、それぞれの分野のリストを拡充し丁寧に招待券を送るということもしました。 さらにAIを動かすにあたって圧倒的に大事である学習データに関するセミナーも、アドバイスに基づいて設けました。 そういった細かいアドバイスをたくさんいただきましたね。 想定来場者数は1.5万人、さらに来年は3倍の規模に ――AIというと、これまで割とアカデミックな濃いコミュニティが中心だったと思いますが、それをビジネスの世界に開いたらどうなるかというのは楽しみですね。 岡部氏:そうですね、そういう意味ではアカデミックな世界とは補完しうる内容になるのではないかと思います。学会が人工知能の要素技術を深く掘り下げていく一方で、展示会のほうは、実際の生々しいやりとりを含む商談の場を作り上げることがコンセプトです。アジア最大のAI総合展に育て上げていくことが目標です。 ――来場者数はどれくらいを想定されているんでしょう? 岡部氏: 3日間で約1万5000人です。これは今回の規模からするとかなりの人数で、当日は歩けないくらいの感じにすらなるかもしれません。ましてやリードの場合、名刺1枚を1人としてカウントする、つまり水増し一切なしの数え方での数字ですので。 講演もかなり大規模で、大きいものだと1500人が入る会場で開催します。会期中の総聴講者数は、5000人は超えるでしょう。展示会と大規模カンファレンスを同時開催することで、AIに関わる方にとっては欠かせない場になると思います。 また出展企業向けのスペースも今回は、募集開始と同時にあっという間に埋まってしまいました。ゆえに次回の2018年は、今年の3倍のスペースを確保し、さらに大規模に開催します。すでに多くの企業から、2018年の出展スペースを確実に確保しようと、出展申込が寄せられている状況です。 ――最後に展示会に出展する際のアピール方法と来場者される方へのメッセージをお願いします。 岡部氏:まずは自分たちのお客様と見込み客に招待券と製品情報をきちんとお送りすることが基本中の基本ですね。これをやる会社とやらない会社では成果が全然違ってきます。 毎年全部の展示会でアンケートをとってるんですが、「招待券を送ってくれたブースを訪問しましたか?」という質問に対して、約9割以上が「訪問しました」と答えています。来場者が訪問する優先順位は、 ・アポを取ったブース ・次に招待券を送ってくれたブース となります。だからアポも招待券もやらないと、自分の順番がまわってこないということになってしまいますね。 また、来場の際は、すべてのブースをくまなく見ていただくためにも、2日間、3日間の来場をおすすめしています。展示会場には出会いや発見があふれており、きっとご来場いただいた方のビジネスにお役に立てると思います。 ◆第1回AI・人工知能EXPO ・出展社検索ページ ・セミナープログラム一覧 ・招待券申込ページ

自動車とやり取りできるチャットボット、テスラ向けにリリース

小売りや飲食、金融など、あらゆる業種でチャットボットが導入され始めている今、自動車も例外ではないようです。 シリコンバレーにあるSmartCarというスタートアップが、電気自動車テスラ向けのチャットボット「TeslaBot」を発表しました。 Facebookメッセンジャーを通じて、テスラに対して様々な質問や指示をすることができるというもの。テスラのオープンAPIを活用しているそう。 実際どんなことができるんでしょうか? 充電やロックなどの基本操作をボット経由で 自分で試してみたいのは山々ですが、テスラを持っていないので断念。一部のメディアが試用した際のスクリーンショットを出していたので、それでみていきます。 ちなみに対応車種はクロスオーバーSUV「Model X」とセダン「Model S」の2車種。 それぞれの世界販売台数は、Model Xが約4万台、Model Sが約17万台ほどなので、まだ使えるのはごく一部の人に限られそうですね。 こちらがTeslaBotの利用を始める際に表示されるパーミッション画面。 これによると、TeslaBotによってテスラに関する次の項目をコントロールするとしています。 ・電力量の閲覧と操作 ・ドアのロック状況の閲覧と操作 ・自動車の位置情報の閲覧 ・自動車の基本情報の閲覧 ・車内の温度の閲覧と操作 ・サンルーフの状況の閲覧と操作 ・クラクションの使用とヘッドライトの点灯 ・キーレスドライビング(キーなしで運転できるテスラの機能)の実施 そしてこちらがFacebookメッセンジャー上でのやり取りの様子です(ちなみにボットの名前は「Elon Musk」でした)。 ユーザーが「Odometer(走行距離)」と入力すると、「47257マイルです」と返したり、「Lock my car(車をロックして)」という指示に答えたりしています。また車内の温度も教えてくれているようです。 さらに「I’m bored(退屈だ)」という入力に対しては、「ネットの縦長動画を再生する時に、私のテレビが90度回転できたら良いのですが」といった、(面白いのかなんなのかよく分からない)返しをしています。 ちょっとした定型的な会話のようなこともできるものの、基本的には充電やドアのロックといった簡単な操作がメインになるようです。 今後さらなる進化も 「え、テスラのアプリでも同じことできなかったっけ?」と思った方、まさにその通りです。 TeslaBotのほうが動作が少し早いという特長はあるそうですが、現時点でできることに大きな違いはないようです。 ただSmartCarのSahas Katta創業CEOは、「これは始まりに過ぎない」と述べています。 「機械学習エンジンを搭載しているため、数多くの利用データをもとに学習させていくことができる。さらに今後はSmartCarのプラットフォーム上で、開発者が新たな機能を追加することもできるようになる」。 自動車という文脈の中で、チャットボットがどう進化していくのか楽しみです。 仮に音声操作も可能になれば、まさになつかしのアメリカドラマ「ナイトライダー」的な世界が実現する未来も、そう遠くないかもと思ったり。 ちなみにこのSmartCarという会社。ヒュンダイのハイブリッド車「アイオニック」や、今後発売が予定される電気自動車に搭載されるプラットフォーム向けに、ボットを開発中だそうですので、そちらも近々動きがあるかもしれません。

画像分析で商品の活用シーンを把握、マーケティング等に使えるKiducoo AI

イー・ガーディアンというと、これまではWebの掲示板や投稿の監視企業というイメージでした。ユーザーが投稿したエロやグロなどの有害テキスト・画像を検知して、削除するといった形です。 しかし同社はこうした従来の監視事業にとどまらず、そこで培った画像検知技術やビッグデータの分析ノウハウを応用して、マーケティング支援にも乗り出してきました。 その手始めが、今回リリースされた「Kiducoo AI」(キヅコウ エーアイ)というサービス。 画像内の物体を分析することで、「何が写っているか」「どの位置に写っているか」をAIによって自動で検知するそう。 そういった分析を多くの画像を対象に実施すると、商品の利用シーンや傾向を浮き彫りにできるので、マーケティングデータとして活用できるというわけです。ちょっと使ってみたいかも。 「Kiducoo AI」のベースとなっている画像認識システム「ROKA SOLUTION」は、同社が東京大学との産学連携で開発したAI。 ROKAは、これまでエロ・グロなどの違法画像の検知を自動化するために使われてきましたが、さらに「最新の物体検知アルゴリズム」を組み合わせることで、「Kiducoo AI」の開発に至ったとのこと。 従来のテキストや画像の監視という「守り」の事業で得たノウハウをもとに、マーケティング支援という「攻め」の事業にも力を入れ始めた同社。 その手始めとなる「Kiducoo AI」とは、どんなサービスなんでしょうか? マーケティングに使える知見、画像分析で抽出 「画像認識を累計でここまでやっている会社はそうそうない」「画像分析をマーケティングに使っていく流れを推進していきたい」。 イー・ガーディアンの高谷康久社長は、「Kiducoo AI」の発表にあたってこう語っていました。 イー・ガーディアンは、「Kiducoo AI」の特長として次の3つを挙げています。 ・画像内に写っている複数の商品を識別できる(何が写っているか) ・画像内に写っている複数の商品の位置を認識できる(どこに写っているか) ・識別対象となる商品の追加が容易 発表会見では、ビールの事例を紹介していました。 イー・ガーディアンは、Instagramで「上野公園 ビール」と検索して出てくる約2万枚の画像を「Kiducoo AI」で分析したといいます。これによって主に分かることの一例としては、 ・写っているビールブランドごとの数 ・それぞれのビールと共に、どの性別・年代の人がどういう料理を食べているか といったことがあるそう。 またマーケティングだけでなく、カスタマーサポートにも使えるとのこと。たとえば、 ・部屋の画像を送信するだけで、引っ越しの見積もりを出してくれる ・冷蔵庫の中の画像を送信するだけで、レシピをレコメンドしてくれる などが挙げられていました(まだこれらの実績はなく、あくまで今後の可能性)。 画像分析に必要な学習作業 もちろん画像内の何をどれくらいの精度で検知できるかは、学習のさせ方次第とのこと。そして言うまでもなく、学習に向けた適切な画像データを整えるのは大変な作業です。 ただこうした学習データの収集や整理も、イー・ガーディアン側で支援することが可能だそう。従来から違法画像の検知を人海戦術で進めてきた同社は、潤沢な人的リソースを抱えているので、こうした作業は得意だとしていました。 プランも企業ニーズに合わせて柔軟に変えていくそうで、たとえば ・単なるAPIの提供 ・クライアントが学習データを保有している場合、コンサル・データセットの分析・成型も含めた一気通貫の支援 ・クライアントが学習データを保有していない場合、適切なデータを保有する外部企業と連携してデータ提供 などがあります。 3つ目の場合は、外部企業が持つデータの種類に応じて、多様なソリューションの可能性がありそうです。一例としては、 ・引っ越し業者向けのソリューション。地図データと間取り写真データを連携することで、引っ越しの見積もり精度UP ・小売業向けのソリューション。気象データと連携することで、気温や湿度に合ったレシピ食材を提案 ・広告会社向けのソリューション。ロイヤリティの高い顧客による購買データと、ビール・カレーの投稿写真データを連携することで、写真投稿ユーザーに「おしゃれ食器」のレコメンドを表示するためのDMP(データ・マネジメント・プラットフォーム)を構築 といった具合です。 処理量に応じた課金体系、場合によっては人海戦術のほうがベター 気になる費用感ですが、40万円で画像400万枚までの処理量に対応しています。また必要な学習データ量としては、「ケースバイケースで難しいが、これまでの事例では、例えば初期学習時点9割程度の検知率を目指す場合として数千枚~数万枚」とのこと。 また自社の案件に特化した学習モデルを構築する場合は、別途初期費用が数十万円~数百万円発生する場合も多いそう。 なので学習させる画像枚数によっては、AIによる自動化ではなくイー・ガーディアンの人的リソースで人海戦術をとったほうが、適切なケースもあるとしていました。画像枚数が累計数十万枚程度、もしくは毎月数万枚ほどであれば、「目視での監視で十分ご満足いただける可能性も高い」とのこと。 ここは自社の状況に応じて、要検討ですね。 画像分析のマーケティング需要が急増 もともとネットにあがっているテキストや画像の監視事業がメインだったイー・ガーディアン。マーケティング支援にも乗り出したきっかけは、何だったのでしょうか? 「画像から商品のユーザーの年齢層や利用シーンをまとめてレポーティングしてほしいという依頼が、ここ数年で急激に増えていた。これまでに15社ほどから声がかかってきた」(高谷社長)。 WebサイトやTwitter、Instagramなどを通して、貴重なユーザー情報を含む大量の画像にアクセスできるようになってきたことからすれば、当然の流れでしょう。 強みはAIシステムと潤沢な人的リソースという、学習に必要な両方を備えている点とのこと。ちょっとまずはAPIベースで試してみるのも面白そうです。

IBMビッグデータ専門家のいう「Hadoopの人気減が著しい」はどういうことか?

「2016年のビッグデータ界隈におけるHadoopの人気減が著しい。私の想定以上だ」。 IBMでビッグデータエヴァンジェリストを務めるJames Kobielus氏が、2016年のビッグデータ界隈を振り返って述べた言葉が話題になりました。 KDnuggetsというIT系メディアサイトに掲載されたこの記事にて、Kobielus氏はさらに次のように話しています。 「(Hadoopの中核となる分散処理フレームワークの)MapReduceや(Hadoop上の分散データベースの)HBase、さらに(分散処理ファイルシステムの)HDFSでさえ、データサイエンティストにとって重要ではなくなってくるだろう」。 つまりHadoopの3つの基礎構成要素のいずれについても、活用が減ってくるというのです。 一時はビッグデータ処理の本命として、もてはやされたHadoop。Kobielus氏によるこのコメントを受けて、「Hadoopはダメだ」派と「いや、そんなことはない」派のそれぞれが、相次いでブログ記事を発信する事態にもなりました。 実際のところHadoopの活用状況はどうなのか?Kobielus氏による発言の真意は別として、ちょっと整理してみました。 Hadoopは必要、ごく一部の企業にとっては Kobielus氏のコメントを受けて書かれた記事の中で、特に反響の大きかったのがこちら。Innovation EnterpriseというBtoB向けITメディアで編集長を務めるGeorge Hill氏によるもの。「Hadoopはダメだ」派です。 Hadoopに関する調査データなどを示した上で、Hadoopを使ったビッグデータ処理への需要はあるにはあるが、企業がうまく使いこなせていない、と結論づけています。具体的には、 ・Hadoop関連の求人は2016年までの18か月間で43%増えているが、使いこなせる技術者が育っていない ・そもそもHadoopが必要になるだけのデータ量を抱える企業はごく一部。多くが2~10TB程度の少ないデータ量でHadoopを使おうとしている。 とのこと。 Richard Jacksonというビッグデータ領域のディレクターも、この意見に加勢しています。 彼によると、GoogleやFacebook、Yahooのような企業でない限り、そもそもHadoopを使う必要性もなければ、扱える専門家の確保も難しいだろうとのこと。 イギリスで活動するJackson氏は、企業が保有するデータ量の傾向について、次のように語っています。 「アメリカのテック企業は、世界の他の企業も自分たちと同様の規模のデータを有すると勘違いしている。過去数年でわれわれが関わったヨーロッパの多くの企業は、せいぜい1~20TB規模。100TB以上のデータを持っているケースはめったにない」。 こういった意見に対して、「大企業に限れば、銀行や通信、製造、保険などの分野で導入が急増している!」という反対派の記事もあったりします。 ただよくよく著者の経歴を見ると、主要Hadoopベンダーの一つHortonworksの中の人なので、ちょっとポジショントークっぽいなとも思ったり。 少なくともこれら現場レベルの人たちによる記事だけをみると、こういうことのようです。 つまり大量のデータを抱えており、かつHadoopを使いこなせるだけの人的・金銭的リソースがある企業なら使う価値があるが、そんなのはごく一部に過ぎないと。 この辺りは調査会社が出す有料レポートとか買えば、さらに数字でも検証できるんでしょうけど、どれもかなり高いのでちょっと割愛。 現場レベルの声だけでなく、もう少し違ったマクロな視点でも見てみましょう。もしHadoopの人気が急減しているのなら、主要なHadoopベンダーの動向にも影響しているはず。 そこでHadoop関連製品の大手、ClouderaとHortonworksの2社の動きをみてみました。 Hadoopブランドからの脱皮 色々調べる中で出てきたのは、ビッグデータの処理が従来のオンプレミスからクラウドに移行する流れが出てきているほか、AIの活用も増えてきていることで、2つとの相性が必ずしも良くないと言われるHadoopの存在感が徐々に薄れてきているということ。 さらにそうした中で、ClouderaとHortonworksが、これまで前面に打ち出してきたHadoop企業というブランドから脱皮しようとしている点です。 順を追って説明していきましょう。 調査大手のForresterは今年3月、「The cloud is disrupting Hadoop」(Hadoopを駆逐するクラウド化の流れ)という記事を発信。この中で著者のBrian Hopkins氏は、次のように述べています。 「より多くの企業がオンプレミスでHadoopを構築する複雑さを避け、クラウド化を進めている。そうなるにつれ彼らがHadoop以外の選択肢を探す流れも進むだろう。つまりHadoopベンダーは、収益源をオンプレミスからクラウドに移そうとするだろう」。 しかしそれは難しいとHopkins氏は考えているようです。 なぜなら保有データのセキュリティやガバナンスといった現状のHadoopの利点とされる項目は、どれもオンプレミスだからこそ。クラウド化とは矛盾してしまいます。 Hopkins氏はHadoopベンダーの関係者による話として、「もしわれわれがクラウドを本当に理解していたら、Hadoopは今のような仕組みにはなっていなかっただろう」というコメントも紹介しています。 こうした動きを踏まえて、Hopkins氏はこう予測しています。 ビッグデータ処理のクラウド化が進む中で、HadoopはAmazonやGoogle、IBMといったクラウド勢によるサービスに対抗できない。それに伴いClouderaやHortonworksなどのベンダーが、Hadoopブランドから離れる動きが次の2~3年で加速するだろうと。 クラウド化とAI化、どちらも難しく 少なくとも2019年までにはビッグデータ処理の大半がクラウド化する、という声もみられますが、そうした中で、Hadoopベンダーがブランディングを変えようとしている、という意見は先のHopkins氏だけではありません。 ITジャーナリストのArik Hesseldahl氏はCIO誌の記事にて、Clouderaがバズワードとしての旬が過ぎたHadoopから、機械学習プラットフォームとして脱皮しようとしていると主張。4月にニューヨーク証券取引所で上場を果たしたばかりの同社について、こう触れています。 「150ページに及ぶS-1上場申請書の中で、Clouderaは主要事業である”Hadoop”について14回しか触れていない。一方で”machine learning”という言葉は70回以上も繰り返している」。 確かにS-1上場申請書の冒頭で、自社を「データマネジメント及び機械学習、アナリティクスのプラットフォーム」と言及したのをはじめ、繰り返しこの単語を登場させています。 「しかしClouderaの主要事業は、疑いの余地なく依然としてHadoopだ」(Hesseldahl氏)。 また競合のHortonworksも同様の動きをみせているようです。4月3日付のForbes誌による記事の中で、2016年度の決算発表時の同社によるコメントが紹介されています。 「人工知能や機械学習など、ビッグデータ市場のトレンドとなる新技術への研究開発投資を一層強化していく」。 両社によるAI技術強化の取り組みはうまくいくのでしょうか?先のForbes誌の記事を書いたGil Press氏は、そうは考えていないようです。ForresterのHopkins氏による次のコメントを引用しています。 「Hadoopがクラウド向けに設計されていないのと同様に、ディープラーニングに求められる行列演算にも向いてない」。 クラウド勢がAIの活用に適した環境を整えている中で、Hadoopベンダーがこうした流れにキャッチアップするのは難しいといいます。 なぜHadoopが機械学習に最適ではないのかという点については、この記事とかこの記事とかが分かりやすかったですが、あまり技術的な方面に立ち入るとウソ書きそうなので割愛。 ここまでの流れをまとめると、 ・Hadoopの人気が衰えてきているとの声が出ている ・そもそも必要性のない企業が導入するケースが目立つほか、必要性があっても技術者の確保が難しい、という現場の声がある ・またマクロ的な流れとして、ビッグデータ界隈がクラウド化・AI化に進んでいるが、Hadoopがこの2つに適応するのは技術的な観点から難しい ということになります。

次のAIは常識を理解できるようになる、アメリカの軍事研究機関が予測

人工知能(AI)のテクノロジーは、現在の「第2の波」から「第3の波」へと移りつつある。 アメリカで軍事目的の新技術を開発・研究する機関、アメリカ国防高等研究計画局(DARPA)がこんな予測を明らかにしました。 まず「第1の波」とは、人間がAIに知識を細かく教え込む段階。また次の第2の波は、学習データを使って統計的に示唆を出すという、現在主流のAI手法です。 しかし第2の波のシステムによって分かることは、単に膨大な学習データを統計的に処理した結果であり、物事を理解しているわけではありません。 だからデータの質によっては、人間ではありえないような間違った判断を下してしまう場合もあります。 一方で今後主流になるという第3の波では、同じく学習データを処理する中で、その根底にある常識やルールを「理解」することが可能になるといいます。そのため、ほんの少しのデータだけでも学習が可能になる領域も出てくるそう。 今回の元ネタは、DARPAが公開したこちらの動画。話し手は、同機関のJohn Launchbury氏という人物。 https://www.youtube.com/watch?v=-O01G3tSYpU 15分ほどの動画ですが、面白かったのでゴリゴリ翻訳してみました。ちょっと全部訳すと長いので、第2の波の課題とは何か?第3の波によってどう解決できるのか?といった部分に絞って翻訳(5:00~)。 そもそも第2の波の仕組みとは? 第2の波のシステムでできることはとても限られています。一つの物事を抽象化した上で知見を引き出し、別の物事に応用するということはできません。 データの分類から始まり、その後の帰結を予測することはできるかもしれません。しかし物事の文脈を理解する能力はないのです。また物事を判断する能力も欠けています。 第2の波のシステムは何ができて、何ができないのか?この点については、もう少し深堀りする価値があるでしょう。そのためには、ちょっとした数学的な説明が役に立ちます。 多様体仮説(manifold hypothesis)と呼ばれる考え方があります。 多様体とは、幾何学における構造体です。多様体は、様々なデータがグルーピングされて一つの集合体となっている状態を指します。 私たちが自然界で起きる現象を分析しようとする時、データはこうした集合体の形をとっています。一つ例をご紹介しましょう。 ここに回転している球体があります。これは自然界から収集したデータを3次元で表したものです。 異なる様々なデータが一つに集まっています。あるものは糸状の形をしており、あるものはけば立ったスポンジのような形をしています。また中心のほうには、赤いオレンジの皮のような形をした2次元の物体が、表面上に張り付いています。 こうしたそれぞれの多様体、つまりそれぞれの集合体は異なる現象をあらわしています。AIシステムが物事を理解するには、これらを識別して分離する必要があるのです。 第1の波のシステムでは、この分離作業は難しいでしょう。たとえば「左上にある何々の形をした集合体」といった指示では正確に識別できません。 そのため第2の波では、異なる方法で分離させる必要があります。何をするかというと、空間そのものをいじることで、データの集合体を伸ばしたり圧縮したりするのです。 こちらが一例です。話を単純にするために、2次元であらわしました。青と赤の曲線があります。 それぞれの曲線は、異なる多様体をあらわしています。空間そのものをいじり、これらを圧縮したり伸ばしたりすることで、2つの多様体をきれいに分離させることができるのです。 これが、第2の波でできることです。 第2の波、実態は強力な統計処理 皆さんも聞いたことがあるかもしれないニューラルネットワークは、まさにこの伸縮と圧縮をするよう設計されています。 ニューラルネットワークによる働きは、とても神秘的で複雑にみえるかもしれません。しかし一つ秘密を明かすと、それはあくまで単なる強力なスプレッドシートに過ぎないということです。 ここに幾重にも重なっているレイヤーがあります。それぞれのレイヤーにて、データの計算を実施します。 最初のレイヤーから計算を始め、20番目のレイヤーまで順々に計算を実施するとしましょう。最後のレイヤーでの計算が終わると、異なる多様体の分離が完了するイメージです。 それぞれのレイヤーでの計算によって、データがある空間を伸ばしたりつぶしたりしながら、分離を進めていくのです。もちろん実際の作業は、さらに複雑です。高いスキルや膨大な手間がかかります。 こうした計算の末に、明らかに間違っている回答が出ることもあります。その場合は、正しい回答を導き出すために、データを少しずつ調整していきます。そうした作業を様々なデータ群に対して5万回から10万回も実施します。 そうして回を重ねるにつれ、パラメーターの精度が少しずつ良くなっていき、多様体の分離作業、つまりたとえば息子の顔から私の顔を分けるといった作業をより正確に実施できるようになるのです。 第1と第2の波、すでにDARPAも実用化 このように、この技術は仕組みがシンプルですが非常に強力です。DARPAでもよく活用されています。 たとえばネットワーク上でのサイバー攻撃の状況を把握するために、ネットワークの流れをリアルタイムかつ広範囲で監視するのに使います。 またWi-FiやBluetooth、GPSといったものの電波干渉を解消するためにも使っています。電話が数多くある空間の中で、いかに個々の端末の性能を最大限にしつつ、干渉を避けるかという用途です。 さらに第1と第2の波によるテクノロジーの両方を活用したプラットフォームを開発しました。防衛ミッションの常識をくつがえすほどのインパクトを持っています。 たとえば新型の船。人間による操縦がなくても、目的地へ向けて数カ月の間自動で航行できます。他の船舶による動きを把握することも可能です。 このようにAIテクノロジーは、非常に強力であり、防衛の世界でも大きな変化を起こしています。 第2の波の課題 ただ第2の波には課題もあります。完璧な技術ではないのです。 たとえばここに1枚の写真があります。キャプションには「野球のバットを握っている若い男の子」とあります。実際の人間であれば、このような言い回しはしないでしょう。 第2の波のシステムは、膨大な試行錯誤の末にこうした変なアウトプットを出したりするのです。確かに統計的な素晴らしい処理をしているのかもしれませんが、単体での信頼性は低いといえるでしょう。 もう一つ例があります。左側にパンダの写真があります。そして画像認識システムも正しく「パンダ」だと認識できている状態です。 ここでエンジニアが画像から特定のデータパターンを抽出して、スプレッドシート上で歪みを加えます。 その結果、出来た画像が右側です。人間の目には全く変わらないようにみえます。しかし画像認識システムは、「99%の確率でパンダではなく、テナガザルだ」と判定してしまいました。 また時間がたつにつれ分かってきた課題もあります。マイクロソフトが開発した学習型人工知能ボット「Tay」が一例でしょう。リリースから24時間で緊急停止する事態に陥ってしまいました。 当初の目的はTwitter上でユーザーたちと会話をすることでした。しかしTayは教えられたことを学習する能力が高かったばっかりに、故意に差別的な言葉を教え込むユーザーがあらわれました。 その結果、Tayは差別発言を連発するようになってしまったのです。こちらの画像は、私が見つけたツイートの中でも比較的マシなものです(「ヒトラーは間違っていない!」)。 このように学習し続けるシステムがある場合、元になるデータには非常に気をつける必要があることが浮き彫りになりました。 場合によっては悪意ある使われ方をすることもあるのです。これが第2の波の課題です。 次の第3の波でできることとは? こうしたAIの課題は、現状のようにスプレッドシートで実施するようなシンプルな計算手法を見直す必要があることを意味しています。ここで第3の波のテクノロジーが求められてくるわけです。 この第3の波は、文脈理解が中心になってくるでしょう。 そもそもこの世界では、現実世界を解釈するための説明モデルをシステムそのものが時間をかけて作り上げてきました。 いくつか例をご紹介したいと思います。 まずは膨大な計算を主とする第2の波が、画像を分類するとしましょう。猫の画像を与えれば、システムはそれが猫だと判別するでしょう。 もしこのシステムが話せるとしたら、「なぜ猫だと思うんだい?」という問いにこう答えるはずです。 「計算をした結果、猫である確率が最も高いと判定されました」と。 これでは十分な答えとはいえません。願わくば、「耳があって、前足があって、表面に毛がはえていて、他にも色々な特徴があるからですよ」くらいの回答は欲しいところです。 そのためには物事を理解したり、決断の要因を認識したりする能力をシステムに持たせる必要があります。ただ話はこれだけにとどまりません。 膨大な学習データが必要ない場合も 第2の波の特徴の一つとして、物事を学習するために膨大な量のデータを要するという点があります。 たとえば手書き文字を認識できるようにさせるためには5万個、場合によっては10万個もの例が必要になるでしょう。 もし私が自分の子供に文字を覚えさせるために、10万個も教えないといけないとしたらうんざりです。しかし実際には1個か2個で十分でしょう。人間による学習方法はそもそも異なるからです。 われわれは、同じように1個か2個の例だけで学習できるシステムの可能性を模索し始めています。手書き文字の認識がその一つです。それは次のようなやり方で可能になると考えています。 まず文字を書いている手の動きを認識できるモデルを作ります。次に「この手の動きの場合は”0”、こういう場合は”1”、またこんな場合は”2”だよ」という紐づけを実施します。 そして仮に、この文字を認識しろという課題が出たとしましょう。 その場合、様々なモデルを参照します。つまりすでに学習した「4」というモデルと、お題の文字がどれだけ似ているのか?「9」というモデルとはどれだけ似ているのか?という具合です。 その結果、どちらが正しいのかを決めることができるのです。 AIの第3の波は物事の背後にあるルールの理解が中心になると、われわれは考えています。このモデルは、ルールや常識を学び取った上で、現実世界を認識することができます。 物事を判断した上で、自ら決定を下すことも可能になるでしょう。さらにデータから得たことを抽象化することもできるようになるはずです。ただしこうしたシステムを作り上げるには、まだやらなくてはならないことが数多くあります。 ここで最後のまとめです。 DARPAとしては、AIを3つの波に分けて考えています。第1の波では、人間がシステムに知識を教え込む段階。まだまだ非常に重要な手法です。 第2の波は膨大なデータによって統計的に学習するやり方。現在のメインストリームの手法です。 しかしこれら2つのシステムには問題もあります。両方の良さを合わせる必要があります。またルールや常識の学習が可能になる第3の波がやってくるはずです。