新着記事

AI EXPOから見る、2018年のAI活用

4月4日〜7日に開催された第2回AI・人工知能EXPOは盛況のうちに終わりました。来場したみなさまは押し寄せる人の波に、注目度の高さと今後の盛り上がりへの期待を感じたのではないでしょうか。 このメディアを運営するインキュビットも、このイベントにブース出展し、お客さまの声をお聞きしました。今回はその内容と、展示物から見えるいくつかのトピックスについて考えてみたいと思います。 1.「工数削減」「リソース管理」は喫緊の課題 AI活用のよくあるケースとして、人の手で行なっている作業を代替することによる「工数削減」があります。 このように費用対効果が見えやすく、なおかつ最終的な改善ポイントが明快なプロジェクトやソリューションについては比較的スムーズに導入が進み、最近ではさまざまな事例として紹介されているように見受けます。ご来場者からも具体的な技術についての質問や、運用時のコストや導入に必要な設備の確認など、詳細な条件の確認があったことが印象的です。 また。実際の運用後の課題点なども少しずつ見え始めております。人と比べた時のコストをどう評価するか(単純なROIでなく長期の視点)、アルゴリズムのアップデートはどの頻度で行うか、横展開の際に注意する点は何か。そういった少し先の話も、各ブースでお客さまと出展者でお話をしている姿をお見受けしました。 2.全体的な取り組みについて未着手 一方では人工知能について全社的な取り組みを考えている企業の方も「まだ調査段階」「何から着手していいかわからない」という声もいくつか見受けられました。 「AI」というバズワードに目がいきがちですが、実際のケースではアルゴリズムそのものよりも、データをいかに活用していくかということが重要になることの方が多いように思います。また、それに付随する「定常的なデータ取得のフロー」「精緻なデータの収集/クレンジング」など、人工知能を利用する前段階の作業についても真剣に考える必要があります。そういった地味ではあるが、非常に大事な、なおかつ面倒な作業が山積しているのが多くの現場における実態ではないでしょうか。 上記のような作業工程は人工知能の精度や継続的な運用における効果増大に影響を与えます。ただ、技術にある程度通じていないと、その必要性は理解しにくいものでもあります。そのため、上長や関係各所に対する説明に時間がかかっているような印象も。一朝一夕ではいかない担当者の嘆きの声も、いくつかお聞きいたしました。 3.技術的な領域においては、裾野が拡大中 RPAとチャットボットがAIを利用したソリューションとしては依然として主流ですが、その他の分野でも各種サービスが出始めています。 下記に挙げるのは、そんな一例です。 OPTIM「スマートやさい」 AIを使って病害の検知などを行う「スマートやさい」は、その他にも各種サービスが利用可能な農業向けのプラットフォームです。IoTやドローンといった最新テクノロジーを、トレンドという目線でなく、最適な選択肢として使い分け、実際のパフォーマンスに反映させている点が非常に注目です。 今後は各分野で、こういった複合的な技術を用い、有効性を高める取り組みが増えていくことが予想されます。 ABEJA「ABEJA INSIGHT for Manufacture」 展示会場中心に大きなブースを構えたABEJAさまのブースは、人で賑わう会場内でも特に立錐の余地がないほどの盛況ぶりでした。 今回はパートナー各社との展示となっており、各分野での利用が進んでいるところをアピール。主に工場向けの「ABEJA INSIGHT for Manufacture」は導入フローのわかりやすさから、主にメーカーのみなさまの注目を浴びていた模様です。 前述の通り、工数削減は喫緊の課題かつ効果が明快。価格や必要なデータセットが明確で。社内の説得もスムーズそうな印象でした。 FRONTEO「KIBIT」 自然言語解析関連で注目を集めたのが、FRONTEO社が提供する「KIBIT」を利用したソリューションです。 アルゴリズムにプラスして同社がこれまで培ってきたノウハウが搭載された「KIBIT」は、さまざまな利用シーンでそのコア技術を使えることが特徴。必要な文書や情報の検知、文書ないしはコミュニケーションの解析によるビジネスチャンス・危険の検知など、が代表的な例です。 こういったソリューションの使いどころに悩むお客さま向けのケアもしており、一連のあ行全体を任せられる点も魅力がありました。 ===== 今回のEXPOを振り返ると日本でもようやくAIの本格的な利用に関してスタート地点に迎えたのかな、という印象です。今後はさらに新しい分野への展開や、ビジネスでの実用性アップなどが見込まれます。引き続き情報のキャッチアップと、自分の手でやって素早くノウハウをためていくことが必要ですね。

2018年、AI活用を始める前に抑えておきたい3ステップとは?

近年、人工知能(AI)は注目を集めるようになり、企業/団体による活用事例も増えてきました。 一方で「AIを使うことは決まっているが、何をしていいかわからない」「何をもって成功とするかが明確ではない」など、現場ではまだまだ悩みは尽きません。 今回はそんなお悩みをお持ちの方に、人工知能を活用する上でのチェックしたい3ステップをご紹介。また、それぞれのステップを考える上で、役立ちそうな「AI・人工知能EXPO」(4月4日〜6日開催)の見所をピックアップしました。 1.目的を明確にする AIは万能のように感じられますが、実際の活用の現場においては「できること」と「できないこと」が存在します。また多くの場合、求める成果によって、必要となる解析の精度や予算も変わってきます。そういった状況を前提とした時に重要になるのが「目的の明確化」です。 目的が「AI活用自体のノウハウを貯めること」であれば、コストは未来への投資です。一方で「工数削減」が目的の場合、AIではなく人や従来の機械で対応した方がコストが抑えられたり、正確さが担保されたりするケースがあります。明確に目的が定義ができなくても、施策を判断する際のプライオリティーをつけることは必要です。 目的を明確にするためには「自社のサービスの、どういった部分を人工知能で代替することができるか」「自社の保有データでどんなことができるか」をイメージして、発想していくことになります。現在はさまざまな事例が出てきたこともあり、技術に詳しくなくても活用のイメージが、以前に比べると簡単にできるようになってきました。たとえば下記のセミナーなどでは、実践者から発想のヒントを得られるかもしれません。 「人工知能で変わるマーケティング戦略」(株式会社エクサウィザーズ 石山洸・代表取締役社長) 「AI・人工知能が拓く、次世代ヘルスケア ーブームからスタンダードへの展望ー」(慶應義塾大学医学部医療政策・管理学教室 宮田裕彰・教授) 2.全体像を考える AIを使って何をするかを明確にした後に考えるべきは「AIを使うと何が変わるか」を意識した全体像です。 AIやデータの活用は短期的なものではなく、半ば必然的に中長期的な取り組みになります。ためたデータの利用は1つのソリューションに限定する必要はなく、ある特定分野の学習モデルを作成することで、自社のノウハウを貯めることにもなります。そのためにもできる限り1つのソリューションとして利用するのではなく、自社のすべてのデータを統合して管理し、複数のアウトプットに反映していくことが望ましい理想像です。 とはいえ、そういった統合管理が非常に難しいことも明らかです。そのため理想としての「全体像」もしくはロードマップを可視化/共有し、実現可能性に合わせて進めていくなど、さまざまな事柄を考慮しながら、少しずつ計画を練っていくことが求められます。 AI EXPO2日目の無料セミナー「ヤフーCSOが語る「AI×データ」はビジネスをどう変えるか?(仮)」では、国内有数のデータを持つヤフーの戦略を担当する安宅正和CSOから学ぶことができるかもしれません。 3.活用の「始め方」を考える 具体的なプロジェクトを始めるにあたっては、何から取り組むべきかを検討する必要があります。 AI活用にあたってはデータの有無が次のステップを大きく左右します。またデータを持っていても、AIが解析しやすい形になっていない場合も少なくありません。したがって手持ちのデータ、もしくは収集していくべきデータの「理想の形」を考える必要があります。目的に合わせて、どういった情報が必要か、何を優先すべきかを考えることが大事になるでしょう。 また活用にあたって、関係するステークホルダーに事前の理解を得ることも有効です。なぜなら多くの人にとっては未知数のAI活用については「何でもできるんでしょう」といった過剰な期待や「自分の仕事が奪われるのでは」というような不安を呼び起こすこともしばしば。正しく理解し、なおかつプロジェクトに巻き込んでいくことで、適正な利用を促進させていくことが可能になります。 このフェーズでは自社だけでなく、実績もあるパートナーとプロジェクトを進めていくことも1つの手です。AI EXPOでは多種多様なパートナーがブースを出展しております。戦略面のサポートから目的に特化した人工知能開発のスペシャリストまで、目的に合わせて最新の情報を集めてみてはいかがでしょうか。 ブース出展社はこちら ==== 4月4日から開催される「AI・人工知能EXPO」では上記のような進め方のお話はもちろん、最新の事例や、新たなサービスに出会うことができます。ぜひ会場で最先端の情報に触れてみてください。 http://www.ai-expo.jp/

顧客の反応が変わる、効果的なチャットボットの設計ノウハウ

Kissmetricsの調査によると、顧客が商品から離れてしまう理由として、商品自体への満足度の低さは14%にとどまる一方で、顧客対応への満足度の低さは70%にも上るといいます。 そしてこの顧客対応のソリューションとして、ますます存在感が増していくと思われるチャットボットですが、当然ながら作り方によって顧客満足度は高くもなれば低くもなります。 小売業によるアフターサービスの支援ソリューションを提供するNarvarという企業。同社によるチャットボットでは、ユーザーによる高い返信率を達成しただけでなく、65%が人間と同じようにチャットボットを扱ったといいます。 たとえばやり取りの最後に「ありがとう」といったお礼を言ったり、絵文字をつけたりといった具合です。 こういった高いエンゲージメントにつながるチャットボットは、どのように設計すれば良いのか? 今回はTOPBOTというAI関連のリサーチ会社でCTOを務めるMariya Yao氏による記事をベースに、効果的なチャットボットを制作するためのノウハウをご紹介します。 ベースとなる考え方は、いかにユーザーの反応などをみながら継続的に改善していくことができるか?そのためにどのような考え方や設計が必要になるのか、という点です。 1.特定のペルソナを決める もちろん旧来のテクノロジーをチャットボットに挿げ替えただけで、成果につながるわけではありません。 たとえば天気予報サービスのPonchoによるFacebookボットも、当初は利用率の低さに苦しんだといいます。すでにモバイルアプリは一定の人気をみせていたにもかかわらず。 今から振り返ると、ユーザーの具体的なニーズに応えきれていなかったのです。 天気をチェックするだけであれば、SiriやGoogle Nowなどの競合がひしめいています。そんな中でいかに自社の存在価値を見出すのか? そのためにPonchoがまず手掛けたことが、理想のユーザー、つまり日常的に天気情報を必要とする人々のニーズを見つけることです。 詳細な分析によって、理想のユーザーによるニーズがありつつ、競合が手を付けていない隙間を探した結果、たどり着いたのが天気の緊急アラートだといいます。たとえば「サンフランシスコでは10分以内に雨が降ります。傘を持ってください!」といった具合です。 これによってボットへのエンゲージメント(利用率?)が300%上昇したといいます。 こうして自社の強みを見つけることができたら、集めたユーザーデータをもとに具体的なペルソナに仕立てます。 ペルソナを作る場合、ユーザーに関する定量データが重要な材料の一つになりますが、Ponchoの場合、Facebookの分析ツールを使って、エンゲージメントの高いオーディエンスの属性や興味関心を探っていったといいます。 2.会話の基本的な構造を明確にする ボットのコア機能と対象ペルソナを明確にした後は、継続的に改善を続けていくための設計です。 そのためにはそもそもそのパフォーマンスを計測できることが必須になります。 そこでYao氏がポイントとして挙げたのが、ユーザーとボットによる会話の基本構造を明確にすること。定量的に計ることができる形で。 たとえば人間同士の会話であれば、「こんにちは」で始まり「さよなら」で終わるというのが、基本構造の一例になるでしょう。 では人間とボットではどうなるか?それはボットの種類によって変わってくる、というのがYao氏の主張。 たとえば「天気」「ファッション」「EC」「ニュース」という、ボットの中でも人気のジャンルでいうと、次が基本構造の一例になります。 ・天気:天気に関する問い合わせから始まり、予報の通知に終わる ・ファッション:適切なファッションのレコメンデーションで終わる ・EC:ユーザーによる検索から始まり、購入で終わる ・ニュース:コンテンツへのリンクの表示で終わる こうした基本構造に沿った定量指標を設けることが重要になるとのこと。 また何らかの指標をエンゲージメントとして計る際は、ボットのジャンルによって数値の水準が異なる点にも注意が必要です。 たとえばNarvarによると、新作のリリース情報などを発信するゲーム系のボットによるエンゲージメント率は、単に購買のやり取りをする小売系の2倍以上だといいます。  さらに商品の価格が高いほど、ボットとのやり取りが多く発生する傾向もあるといいます。 3.改善指標を決める 会話の構造を明確にして定量化できるようにした後は、ユーザーとの会話の維持やエンゲージメントの向上に向けた改善フェーズです。 たとえばお笑いボットの例。ボットによるジョークに対して、ユーザーが「いいね」や返信をしてくれたのか、失敗に終わったジョークのパターンは何か、などを洗い出して分析することで、より適切なジョークのチョイスやタイミング、絵文字の使い方などを検討するといった具合です。 Yao氏によると、ここでよくある間違いとしては、返信速度や返信のボリュームといった、全体からみれば枝葉の指標の改善に没頭してしまうことだといいます。 そうではなくまずユーザーとの長期的な関係構築を念頭に置いた上で、細かな指標はあくまでそのサブとして扱うことが重要だそう。 たとえばグロースハックツールのMixpanelによるケース。同社は、ボットと人間による会話の長さや会話内容の充実度(絵文字が使われているか等)といった個別の指標はもちろん計測しているものの、それは大目標であるサブスクリプション数や長期的なエンゲージメントを改善するためだとしています。 4.ボットのベンチマークを決める チャットボットはまだ新しいテクノロジーなので、何を指標とするかは試行錯誤が続いている部分もあります。 Yao氏は、SMSやメール、モバイルアプリ、人間によるカスタマーサポートといったボットによって代替されるテクノロジーをベンチマークするのが適切だとしています。 天気予報サービスのPonchoの中の人は、ベストなベンチマークは同カテゴリーのスマホアプリだとしています。 下の図は、ユーザーによるモバイルアプリの利用頻度(縦軸)と30日間の維持率(横軸)をジャンル別に示したもの。こうした指標をベースにしながら、ボットの成果を判断すべきだといいます。 ますます今後の普及が期待されるチャットボット。ただBotAnalyticsの調査によると、ボットによる一回目のメッセージで利用をやめてしまうユーザーの割合は40%にも上るといいます。きちんと成果につながるボットにするには、適切な設計・運用ノウハウが必要になりそうです。

クラウド経由の機械学習サービスは普及するのか?

人工知能(AI)のビジネス活用というトピックの中で、注目が集まる「サービスとしての機械学習」(MLaaS)。つまり各種の機械学習サービスをクラウド経由で使えるようになるというもの。 分かりやすい例の一つが、Googleの「Google Cloud Machine Learning」プラットフォームによる画像認識機能。Airbusが衛星写真に写る雪と雲の識別に活用するなど、Googleフォトに類似した機能がビジネス面でも使われています。 また別の一例でいうと、スポーツの試合会場に広告を出稿した企業のケース。従来は広告の露出度を計るために、広告がテレビに映った秒数を人間のスタッフがストップウォッチで計測するなどしていました。しかし独IT大手SAPによる機械学習プラットフォームを使えば、機械学習によってより迅速な計測が可能になるといいます。 このように機械学習サービスをクラウドで提供することで、より手軽に利用できるようにするMLaaS。最近になって市場のさらなる拡大を予想する調査結果が相次いでリリースされた一方で、その普及を疑問視する声もあがっています。 どういった状況なのか、詳細をまとめてみました。 MLaaS市場、年率4割で拡大へ MLaaS市場の拡大を予測する調査結果が、相次いでリリースされています。 たとえば米Market Research Futureの調査によると、2022年のMLaaS市場規模は46億米ドル(約5200億円)。2016年以降の年平均成長率(CAGR)は約40%ほどだといいます。 主要なMLaaSプレーヤーとして挙げられているのが、GoogleやBigML、Microsoft、IBM、Amazon、AT&Tなど。地域別ではアメリカやヨーロッパの市場が多くを占めるものの、日本を含むアジアでの拡大も顕著になるとしています。 他の調査会社によるレポートに目を通すと、市場規模の数字にはズレがあるものの、年率40%前後での成長という点ではほぼ一致しているようです。 MLaaSの活用法 機械学習サービスを利用するにあたって、MLaaSのようなアウトソーシングと自社での構築では、どちらが望ましいのか? たとえば米調査会社Jackdaw Researchのアナリスト、Jan Dawson氏は、Ars Technicaの取材に対して、こう答えています。 「単一の機械学習プラットフォームに依存してサービスを構築するのはリスキーだ。とはいえ自社でインフラを構築するよりは、はるかに好ましい」。 またDeloitteのアナリスト、Anthony Abbattista氏は次のように話しています。 「我々は同じサービスを5年や10年継続して使うような想定はしていない。その時々に合わせて柔軟に乗り換えれば良い」。 そのような使い方の一例が、法人向けクラウドストレージサービスのBox。同社は、画像認識機能にGoogleによるプラットフォームを使っていますが、最近になって別のサービスでは、MicrosoftによるAzure Machine Learning Platformを採用する考えを示しています。 もちろん場合によって、インハウスで構築する企業も出てきています。たとえばPayPalが2013年にリリースした不正検出AI。「(PayPalが抱える)リスクや課題が非常にユニーク」(同社Hui Wang氏)なことから、その他大勢のために作られたクラウドサービスでは間に合わないと判断したようです。 またDeloitteが2015年にリリースしたホワイトペーパーで懸念を示したように、金融情報や各種個人情報をクラウドで扱うことの危険性もあります。 このようにMLaaSにも懸念点はありますが、Dawson氏は総合するとまだまだ市場は伸びるとみています。 「MLaaSを活用することが、企業にとって先進的だったりイノベーティブだというイメージにもつながるとみられているからだ」。 MLaaSの課題 MLaaSの普及に向けて、よく挙げられる課題の一つが技術者の不足。そしてこの課題について、より深く言及しているのが、シリコンバレーの投資家Bradford Cross氏です。 2009年以来、機械学習関連のスタートアップを複数立ち上げてきたという同氏は、MLaaS市場の拡大について否定的な見方を提示。2017年3月のブログ記事の中で、こう書いています。 「サービスとしての機械学習というアイデアは昔からあったが、ことごとく失敗してきた。そもそもノウハウがある人たちは単にオープンソースで足りてしまう上に、そうでない者は何をやってもダメだ。たとえAPIがあったとしても」。 MLaaSは、機械学習の理論と実践を理解した企業にとってはオーバースペックである一方で、ノウハウがない企業がビジネス価値につなげるには、より包括的なソリューションが必要になるといいます。つまり「帯に短しタスキに長し」ということです。 「AmazonやGoogle、Microsoftはクラウド戦略の構成要素の一つとして、MLaaSを強化しているが、私はこうしたAPI活用しているスタートアップや大企業を目にしたことがほとんどない。これまでにAI事例は山ほど見てきたから、私のサンプル数が少ないということはないだろう」(Bradford氏)。 そのためMLaaS関連のスタートアップは、2017年中にはビジネスとして行き詰まりをみせ始める、というのがBradford氏の予想です。 今後MLaaSが、企業ニーズを的確に考慮したサービスとなって普及するのか、単なる技術ありきの取り組みにとどまり尻すぼみに終わるのかが、問われている状況なのかもしれません。

効果的なランディングページはどちら?予測対決でAIが熟練マーケターを打ち負かす

ランディングページ制作ツールとして、日本のデジタルマーケターにもお馴染みのカナダ企業Unbounce。 彼らが機械学習モデルによって、ランディングページのコンバージョン率を予測するという試みを実施しました。 最高技術責任者(CTO)のCarl Schmidt氏が率いるデータサイエンティストやコンバージョン最適化チームは、過去12か月間にわたってプロジェクトを進行。 Unbounceによって作られた数十万件ものランディングページ(LP)を対象に、機械学習モデルによってそれぞれのLPによるコンバージョン率の高低を予測しました。 特定のLPが業界平均より高いか低いかという予測において、同モデルの的中率は平均80%に上ったといいます。 かなり高い的中率のようですが、ここまで出来ると次に知りたくなることは、人間による精度と比べてどうなのかという点です。 AIによる正答率、人間を大幅に上回る そこでUnbounceは、今年5月にカナダのバンクーバーで開かれた同社主催のカンファレンスにて、参加者と機械学習モデルによる予測対決を実施しました。 仕様は次の通り。 ・特定のLPによるコンバージョン率が業界平均より高いか低いかについて、デジタルマーケターとAIそれぞれが予測 ・対象LPの数は204本 ・参加したマーケターは427人(同イベントに登壇した著名マーケター含む) ・分析対象は、LPのテキストコピーだけ(デザインや画像などは考慮なし) そして結果はこの記事のタイトルにもある通り、AIの勝利でした。 AIによる正答率が79.7%に上った一方で、参加者による正答率は平均で50%。最も正答率が高かった参加者でも56.9%にとどまったといいます。 つまりこうしたイベントに登壇するような著名なマーケターですら、予測精度でAIに遠く及ばなかったのです。 LPのコピーライティングが専門で、今回の試みに参加したJoel Klettke氏は、その難しさについて次のように振り返っています。ちなみに同氏は、今回の参加者の中で最も高い正答率をたたき出した人物。 「自分が持つバイアスを克服しなければいけない点が難しかった。LPの内容やデザインに嫌悪感を抱いてしまうこともあり、そうなるとユーザーの視点で判断することが難しくなってしまう」。 また今回の判断要素はテキストコピーだけ、というルールだったものの、デザインが優れていると、二流なコピーでもある程度マシに見えてしまう、というジレンマもあったようです。 過去の事例や自らの直観に従って判断しがちな人間による限界が浮き彫りになった形でしょう。 コンテンツ制作におけるAIの役割とは? さらにコンテンツ制作におけるAIの役割について、Klettke氏はこう語りました。 「従来のコンテンツ制作をすべてAIが担うようになる、ということではない。ただ人間の判断がどこまで正しいかをアルゴリズムの視点で検証できることは良い」。 ただUnbounceのSchmidt CTOは、マーケターのタスクを補助するのが現状のAIによる役割だとしつつも、「それもすぐに変わる」としています。 「(AIによって)コピーの作成や編集が可能になる時期もそう遠くはない。さらにコンテンツを一から作ることができるようになる日も来るだろう。ただそうなるまでにはあと数年はかかるはずだ」。 いずれにしても、テクノロジーの発展具合に合わせて、自らの業務を最適化させていく努力が一層重要になりそうです。

社員の誰もがAIを活用できる環境へ、ウーバーが社内プラットフォームを公式発表

社内の関係者の誰もが、機械学習を使ったサービス改善を実施できる。 こうした環境の実現に向けて、配車サービスのウーバーが社内システムを強化しています。 同社はこれまで各サービスで機械学習を活用した機能を実装してきました。 たとえばフードデリバリーサービス「UberEats」では、配達先までの距離や道路の混雑状況、調理時間などのデータをもとに、配達時間を予測するといった具合です。 こうした機能の開発・実装に向けて、ウーバーが活用しているのが、自社向け機械学習プラットフォームMichelangelo(ミケランジェロ)。HDFSやSpark、TensorFlowなどのオープンソースを中心に構築されています。 データの処理や学習モデルの構築、予測など、これまでチームによってバラバラだった一連のワークフローがこのプラットフォームによって標準化できたといいます。 過去1年にわたって社内のエンジニアやデータサイエンティスト向けに導入を進めていたといいますが、今回公式に発表されました。 機械学習を活用するにあたって、なぜ社内共通のプラットフォームが必要なのか?実際にどのように使われているのか?詳細をみていきましょう。 なぜ必要なのか?ウーバーの課題感 機械学習モデルを開発・実装するにあたって、ミケランジェロのような社内共通プラットフォームがなかった時代。ウーバーは予測モデルを備えたシステムが必要になるたびに、毎回ゼロベースで構築していたといいます。 そのため手間と時間が膨大にかかることから、オープンソースのツールを使って短期間で作れるものに限られていたそう。 またそれだけのことができるスキルやリソースを持った一部のデータサイエンティストやエンジニアが活用するにとどまっていました。 さらに機械学習モデルを学習させる際も、個々のデータサイエンティストが持つデスクトップで動く範囲のみ。そして学習結果を保存する共通の場所もないから、取り組みがサイロ化してしまう。 このような状態では、社内の誰もがより手軽に機械学習モデルに携われる状態にまでスケールさせることができないでいたのです。 代表例はUberEats そこでウーバーが導入したシステムがミケランジェロ。サービスに機械学習モデルを実装するにあたって必要な次のワークフローを標準化することができるといいます。 1.データの処理 2.モデルの学習 3.モデルの評価 4.モデルの実装 5.予測 6.予測結果のモニタリング ミケランジェロを使った機械学習実装の代表例として紹介されているサービスが、フードデリバリーのUberEats。配達時間の予測やレストランのランキング付けなどに活用されているとのこと。 「配達時間を正確に予測することは、思ったより複雑だ」とウーバーはブログ記事で述べています。ケースごとの不確定要素が非常に多いからです。 料理の調理時間は、注文内容やレストランの繁忙度によって異なります。またUberEatsの配達パートナーがレストランに到着するまでの時間や、配達先に到着するまでにかかる時間は、距離やルート、交通量、天気など、多くの要素に影響されます。 UberEatsがミケランジェロを通して目指すゴールは、こうした不確定要素が複雑にからみ合う状況かでも、正確な配達時間を表示すること。その実現のために同社のデータサイエンティストたちは、”Gradient boosted decision tree regression models”と呼ばれる手法を活用しているそうです。 今後も向こう数カ月間で、機械学習を自動で最適化するAutoMLの導入を予定するなど、プラットフォームの改善活動を続けていくとしています。

AIデータがないなら買えばいい、要注目の「データ市場」とは?

言うまでもなく、AI(人工知能)関連の施策を実施するにあたって、学習データの用意はとても重要になります。 機械学習といったAI関連の技術自体は、エクセルやパワポのようにどんどんコモディティ化していくであろうことを考えると、差別化となるのはどれだけ適切な学習データを確保できているか、という点になるでしょう。 けれども必要なデータをすべて自社でそろえることができるケースは、中々レアなのではないでしょうか。 ただもし必要なデータを適切な価格で、個人や法人から買うことができたらどうでしょう? 施策の自由度が一気に広がるのではないでしょうか。 たとえば個人から位置情報や歩数といった行動データを買う。法人から各種センサー機器経由のデータを買うといった具合です。 つまりデータを欲しい人と提供したい人をマッチングさせるプラットフォーム。株式市場のデータ版というイメージです。 いわゆる「データ市場」と呼ばれるこの仕組みは、すでに欧米では活発化してきているといいますが、日本において先んじて取り組んでいる企業が、2014年創業のEverySenseです。 第1回AI・人工知能EXPOに登壇した同社の眞野浩CEOによる講演をもとに、基本的な情報をお伝えします。 ただ先に断っておくと、データ市場はあらゆるデータ売買を仲介するプラットフォームということで、何もAIの文脈に限った話ではありません。 現状のIoT、データ流通が不十分 「今のIoTでは情報が十分に流れていない。インターネットオブシングスではなくイントラネットオブシングスだ。つまりインターネットを使ってセンサー機器による情報を発生させてはいるが、その情報が流通していない」。 各種のセンサー機器によって発生したデータを活用する際の課題について、眞野CEOはこう語ります。 眞野氏によると、ヘルスケアや建設、自動車など、各業界の中ではIoT関連のデータ活用が進み始めているものの、こうしたデータを業界横断で活用できていないというのです。 ビッグデータがタコつぼ化している原因について眞野氏は、「人間の心理として、価値が高いものは当然ながら所有していたい。人にあげたくない」と話します。 そのため各業界でタコつぼ化しているデータに横ぐしを刺して、データの流通を促そうという仕組みが、同社によるデータ流通プラットフォーム「EverySense」です。データの売買を中立公正に仲介することが目的だといいます。 「所有しているビッグデータは高付加価値化して財に変えたいという動機がはたらく。しかし売るために取ったわけではないけど、ただあるというデータであれば、外に出しても良いとなるかもしれない」(眞野氏)。 売るために取ったわけではないデータというのは、たとえば道路の混雑状況やCO2の排出量、位置情報、企業の独自データなど、各種センサー機器から発生するデータを指します。 データを第三者に渡す個人や法人からしてみれば、様々な懸念がつきまといます。 個人情報は守られるのか?公開した情報の価値に値する対価は得られるのか?といった具合です。 またデータを買う側からしても、提供されるデータが不正なく信頼のおけるものかが懸念されます。 EverySenseは両者の間に立つ中立公正な仲介者として、これらの課題を解決することを目指すとしています。 データ流通の要、EverySenseの仕組み EverySenseは、データを売る人と買う人がいるデータ市場を農業に例えます。データを売る人が「ファームオーナー」。買う人がそれを使って料理をする「レストランオーナー」という形です。 データを売るファームオーナーは、「私がスマホで溜めた歩行データを売ります」といった条件をプラットフォーム上で公開します。一方でデータを買うレストランオーナーは、欲しいデータの条件を記載した「レシピ」と呼ばれる注文書を作ります。 両者がマッチングすれば取引成立です。データがいくらになるかは、ファームオーナーとレストランオーナーの取引で決まります。 たとえばデータ提供者の性別や年代をはじめ、より詳しい属性情報を求めるとその分だけ価格も高くなります。また同じデータでも1分に1回なのか、1時間に1回なのかといった取得頻度でも変わってくるといいます。 個人情報を販売するとなると、プライバシーの問題が懸念されますが、ファームオーナーはレストランオーナーの信用性を確認した上で、販売するかどうか決めることができます。またそもそもどの属性情報を販売するかはファームオーナー自身が選べます。知らない間に個人情報をたくさん抜かれていたというようなことが起きない仕組みになっているのです。 データを提供したファームオーナーは、報酬としてポイントが付与されます。そのポイントはEverySenseのサイトや金券ショップなどでマイルや現金に換えられるといいます。 こちらが取引の一例を示した図です。ファームオーナーは、e燃費データ(実燃費やガソリン価格データなど)を所有するイード、レストランオーナーは不特定多数のユーザーです(EverySenseによる資料より)。

そもそもAIで何ができるのか?実現可能な7つの成果

「AI(人工知能)を活用してビジネスで成果をあげよう」という動きがますます高まってきました。 しかし一方で「AIを魔法の杖だと誤解した人たちが、ムチャな要望を出してくる」というようなボヤキも、またよく耳にする話です。 つまりAI関連の技術によって、何ができて何ができないのか?という点があいまいなままに、期待だけが先行しがちというのが大方の現状といえそうです。 そんな中でちょっと便利な図をみつけました(記事最上部。オリジナルをもとにAI4U編集部で作成)。 「AIによる7つの成果」(Seven spectrum of outcomes for AI)と題された図。その名の通り、AIによって解決できる成果、つまりユーザーニーズを7段階で整理しています。 「認知」や「通知」のように現時点の技術レベルで可能な段階もあれば、人の判断を手助けする「環境認知」といったまだ難しいレベルもあります。 AI事業を検討する際に、できることとできないことの整理に便利そうです。 それぞれの段階の説明はこちら。 1.認知 AIによって可能な項目の中で、最も初歩的な段階。画像や音声、感情といったデータをもとに、ユーザーに関する何らかのパターンを読み取る段階。 2.通知 ユーザーが知る必要がある情報をアラートやリマインダーといった形で通知。「適切な情報」を「適切なタイミング」で「適切なユーザー」に届けることで、唐突感なく自然に受け取ってもらうことを目指す。そのために必要なユーザーの属性や好みを把握するために地理データや天気、心拍数、感情など、あらゆるデータの活用を試みる。 3.提案・リコメンド サイトのアクセスデータや商品の購買情報といった過去の行動データをもとに、ユーザーへのリコメンドを実施。そのリコメンド内容もマシーンラーニング(機械学習)などによって継続的に改善することができる。つまり少数ではなくマスのユーザー群に対して、コンテンツやマーケティング施策のパーソナライゼーションが可能になる段階。 4.自動化 ユーザーが抱えるタスクを自動で肩代わりできる段階。さらに機械学習によって継続的な改善やチューニングを実施できる。 5.予測 過去に蓄積されたデータをもとに、機械学習による予測ができる段階。 6.事前対処・予防 起こり得る問題を予測し、潜在的なリスクを回避できる段階。 7.環境認知 人がすべきことを判断する際の手助けができる段階。

AI企業が未来の有望スタートアップ50社を予測、その結果とは?

2009年にビジネスウィーク誌がこんな企画を立てました。 これから急成長するであろう無名のスタートアップ50社をコンピューターによってリストアップするというお題を、ビッグデータ視覚化ソリューションを提供する米Quidのボブ・グッドソンCEOに出したのです。 企画は無事当時の紙面に掲載。ただリストアップされた企業のことは、同誌やリストアップしたグッドソン氏自身も忘れていたといいます。 それから約8年たった今年。 改めて当時のリストを見返した同誌(現在はブルームバーグ・ビジネスウィーク)の編集者とグッドソン氏は、その結果を目にして驚いたそう。 そこには今や誰もが知る有名企業が名を連ねていたからです。以下がその一例。 ・Evernote ・Spotify ・Etsy ・Zynga ・Palantir ・Cloudera さらに一般的な知名度はそれほど高くはないものの、非常に優れた業績をあげたスタートアップも含まれていたといいます。 たとえば同じくリストアップされていたインドのIbibo。オンライン旅行予約サイトを運営する同社は、2009年当時は従業員8人ほどの小企業だったものの、現在は売上高20億米ドル(約2200億円)もの規模にまで成長しています。 2017年版を新たに作成、その結果とは? こうした結果を受けて、同誌は再度グッドソン氏に現時点でのリストの作成を新たに依頼しました。 作成方法の詳細は一部伏せられているものの、過去3年でベンチャーキャピタルから投資を受けた5万社をリストアップした上で、資金調達額といった定量データや創業メンバーの経歴などの定性データを使って、最終的に50社に絞り込んでいます。 こうして出来上がったリストがこちらです(オリジナルをもとにAI4U編集部で作成)。 AI4UはAI専門のビジネスメディアということで、中でも「業種」が「Artificial Intelligence」(人工知能)となっていた10社をピックアップして紹介していきます。 各社の情報をみていくと、場所でいうとやはりシリコンバレーに本拠を置く企業が最も多く、ジャンルでいうとマーケティング関連が目立ちます。 まだあまりメディアにも取り上げられておらず、せいぜい資金調達のニュースがテッククランチに報じられたぐらいという企業ばかりですが、未来のメジャー企業が含まれているかもしれません。 1.Folloze B2Bマーケティングの見込客を獲得する際に活用するソリューションを提供する企業。サイト訪問者の属性や行動などによるコンテンツ出し分け機能や分析機能などを搭載しています。AI技術をどう活用しているかは不明ですが、おそらくサイト内行動のスコアリングやコンテンツの出し分け関連で使っているのだと思われます。 2.Geoblink 地理情報を活用したマーケティング、いわゆる「ジオマーケティング」と呼ばれるジャンル向けのアナリティクスプラットフォームを提供する企業。地域別の人口や商取引額、交通量といった地理情報のデータベースを保有しており、ユーザーはこうした地理データのビジュアライゼーションや機械学習による分析などが可能になるとのこと。小売店舗の出店地域を決める、既存店舗の売上予測を立てるといった用途に使えそうです。 https://vimeo.com/224972248 3.GrayMeta 顧客情報や契約情報など、企業内に散在する様々なデータ。ただ蓄積されているだけだと「ゴミ」と変わらないデータでも、適切にラベリングして管理することで「資産」にすることも可能になります。GrayMetaのソリューションによって、散在する社内データ(クラウドとオンプレミス問わず)を検索した上で、機械学習の活用によって新たなメタデータを付与することができるようになるとのこと。つまり社内データの検索と目的に応じたラベリング作業をAIによって効率化できるというサービスです。 4.Kahuna B2C向けのマーケティングオートメーションツール。サイト訪問者の属性や行動(商品をカートに入れるなど)を収集した上で統合。それらを元にデバイスや流入チャネルごとにペルソナを作成してくれるとのこと。さらにそうして作成したペルソナをもとに適切なコンテンツを出し分けることで、コンバージョンを狙います。このコンテンツの出し分けの精度をAIによって高めることができるとのこと。 5.Mad Street Den AIとコンピュータービジョンを中核としたサービスを提供するインド企業。インド系アメリカ人の夫婦が2013年に立ち上げました。主要ソリューションとして、ファッションEC向けのAIサービス「Vue.ai」を提供しています。「AIスタイリスト」を標ぼうする同サービスは、EC訪問者の好みの色や柄、サイズなどを把握した上で、商品をリコメンドしてくれるとのこと。2016年にSequoia CapitalなどからシリーズAでの資金調達を実施しています。 6.Mihup Communications ヒンディー語をはじめとするインド系言語専門のボイスコントロールソリューションを提供する企業。同社によるSpeech APIを各種機器に搭載することで、音声によるコントロールが可能に。たとえばテレビのチャンネルを変える、自動車のカーナビを操作するといった具合です。現状対応している言語はヒンディー語とベンガル語、インド系英語(俗にいうヒングリッシュ)の3つですが、今後対応言語を増やしていくとのこと(インドには20以上もの言語があります)。 7.Mobvoi(出门问问) 2012年に創業した中国のAIスタートアップ。中国語の音声認識や自然言語処理などを中核としたソリューションを提供しています。自動車内での電話やGPSの操作などを音声でコントロールできる車載機器「Ticauto」などを提供しています。2017年4月には、フォルクスワーゲンの中国法人から1.8億米ドルの資金を調達。今後フォルクスワーゲン製自動車向けのAIサービスを提供していく考えを示しています。 8.Rulai カスタマーサポート向けのチャットボット作成キットを提供。既存の会話データをもとに、で会話のスクリプトを「コーディングなし」で作成できる点が特長とのこと(GUIベースで作成できるソリューションはすでに数多く乱立している状態ではありますが)。会話の最中にボットだけでは対応しきれない場合、人間のスタッフにつなぐわけですが、そのタイミングは、文脈などをもとにチャットボット自体が判断できるとしています。 9.Troops 営業チーム向けのタスク効率化ツール。Salesforce上のCRMデータをSlack上で扱うことができるようになります。具体的には、営業レポートやスケジュール、任意のデータをSlackで閲覧する、(タスクの標準プロセスを自動化できる)「ワークフロー」機能をカスタマイズするといった作業です。同じ作業でも、Salesforce上の複雑なUIを使うよりも、チャットUIでやったほうが簡単だよねということのようです。 10.Zodiac BtoCマーケター向けの顧客分析プラットフォーム。サイトのアクセスデータや商品の購買情報といった行動データをもとに、ユーザーの価値を「High Value」「Medium Value」「Low Value」の3つにセグメント。同じような属性を持った他のユーザーを探し当てたり、1人当たりの売上高を予測するといったことが可能になるとのこと。

2030年にはこうなっている、チャットボット先端開発事例

「2030年には、ありとあらゆる分野でこれくらいのレベルのチャットボットが使える時代になっているのではないか」。 AI・人工知能EXPOに登壇した、国立研究開発法人 情報通信研究機構(NICT)の鳥澤健太郎氏は、そう言いながら次のような音声でのやり取りを紹介しました。 チャットボット「A銀行の定期預金が満期をむかえますね。B国の投資信託が人気のようですが、どうですか?」 ユーザー「でもB国の政権が不安定だから危ないんじゃない?」 チャットボット「そういう意見もありますが、一方で本日の新聞には面白いことが書かれていますよ。後で送ります」 いかがでしょう?事前に決められた対話ルールに沿うだけの現状のチャットボットと比べると、かなりインテリジェントな印象です。 「政治が不安定だと、普通は投資信託の価値が下がる」という事象を一般的な知識として持つことができている一方で、その内容と矛盾する「本日の新聞」の内容が「面白い」と判断することもできています。 また以下のやりとりのように、保有する知識をベースに、仮説や推論を行うこともできるようになると鳥澤氏はみています。 チャットボット「C社様向けの開発の件、Dアルゴリズムで効率化できそうです。関係する論文を送っておきます」 ユーザー「了解。開発チーム全員に送っておいて」 ユーザーが携わっている「C社様向けの開発」と「Dアルゴリズム」の内容をそれぞれ理解した上で、独立して存在している2つが関連しそうだという仮説を導きだすことができています。 「膨大なテキスト、つまりビッグデータを解析した上で多くの知識を持っていないと、このようなことはできない」と鳥澤氏は語ります。 次世代のボット開発に向けた取り組み こうしたインテリジェントなチャットボットの実現に向けて、鳥澤氏らが開発したのが「WISDOMちゃん」という音声型チャットボット。 裏側のシステムには、すでに一般公開されているWisdom Xという大規模Web情報分析システムを採用しています。Web上にあがっている約40億ページ分の情報を知識として持ち、ユーザーの様々な質問に答えることができるといいます。 WISDOMちゃんはまだ着想してから約10カ月。当日公開されたデモでのやり取りは、とてもスムーズなものでした。 まだまだ研究開発の途上で、「頓珍漢な返事をすることもある」といいますが、より人間らしいやり取りの実現に向けて、従来のチャットボットとは異なる仕組みが導入されています。 より有益な会話の実現に向けた仕組みとは? 現状のチャットボットは対話のデータから学習することで、いわばそれを「マネすること」だと鳥澤氏はいいます。 「一時はみんながこの仕組みで挑戦したが、しばらく経つと悲鳴が聞こえてきた。何を言っても相槌しか打たない。これだけでは面白いことはできない」(鳥澤氏)。 つまりこういうことです。 ユーザーとのやり取りの中には、たとえば「iPS細胞ってすごいね」といった意図が分かりにくい問いかけも多数。従来のボットでは、こうしたあいまいな問いかけの意図をうまく理解できず、単なる相槌や頓珍漢や返事に終始しがちでした。 そこで鳥澤氏らは、あいまいなユーザー入力が来た場合、まずそれをシステムが理解できる「質問」に翻訳することで、より自然な応答を返す仕組みを作りました。 たとえば以下がその一例です。 ・ユーザー:「iPS細胞ってすごいね」 ・Wisdom X:システム内部で「iPS細胞で何ができる?」という「質問」に変換 ・Wisdom X:iPS細胞によって可能なことのリストの中から、面白そうな応答をピックアップして出力 「たとえばある端末や家電製品ってすごいよね、という発言があったとして、それに対して具体的に何ができるという返事が続くというのは、実際の対話でも割と自然な流れなのではないか」(鳥澤氏)。 多様な会話、「質問」の数を増やすことで実現 上記で育成した「質問」は、「iPS細胞で何ができるの?」というものでしたが、生成できる「質問」の種類が多ければ多いほど、様々な対話に対応できることになるというわけです。 たとえばユーザーからの問いかけとして、「日経新聞に『南鳥島沖に球状レアメタル』という記事が出ているね」というものがあったとします。 受験生向けの対話システムであれば、 ・「質問」として「南鳥島はどこにある」を生成 ・応答として「南鳥島は日本最東端にあります。覚えておきましょう」を返信 またビジネスマン向けの何らかのシステムであれば、 ・「質問」として「レアメタルは何に使う?」「誰が(レアメタルを使う)ハイブリッド車を製造する?」を生成 ・応答として「自動車会社に影響があるかもしれません」を返信 ただ育成した複数の「質問」の中から、適切な「質問」を選ぶという機能を実装するには、まだ至っていないとのこと。 今後の課題 こうした仕組みのチャットボットが目指す未来像は、ユーザーの目的を理解した上で、有益な雑談を行うというものですが、課題もあるといいます。 まず前提条件として、ユーザー自身やその目的に関する知識を大量に持たせる必要があるということ(適切なビッグデータの必要性)。 またそうしてユーザー特有の情報や状況に応じて返答をするということは、一種の疑似的な人格を持つ必要があるといいます。 たとえば一例として挙げられたのがドラえもん。「のび太を真人間にする」という目的を持ち、のび太に関する知識を山ほど持っていることで、例のドラえもんの「人格」が成立しているといいます。 そしてそのような疑似的な人格を、ビジネスや介護など様々な目的に応じて適切にプログラムすることは可能なのか?という点も懸念とのこと(特定の業務における適切な人格を決めるなど、人間が相手でも難しいのに。。。)。 さらに大量の学習データの構築や、基礎的なテキスト解析の精度を向上させることも必須になってくるといいます。 ユーザーに寄り添うインテリジェントなチャットボットというのは、大きな可能性がありつつも、まだまだ課題も多そうです。