新着記事

効果的なランディングページはどちら?予測対決でAIが熟練マーケターを打ち負かす

ランディングページ制作ツールとして、日本のデジタルマーケターにもお馴染みのカナダ企業Unbounce。 彼らが機械学習モデルによって、ランディングページのコンバージョン率を予測するという試みを実施しました。 最高技術責任者(CTO)のCarl Schmidt氏が率いるデータサイエンティストやコンバージョン最適化チームは、過去12か月間にわたってプロジェクトを進行。 Unbounceによって作られた数十万件ものランディングページ(LP)を対象に、機械学習モデルによってそれぞれのLPによるコンバージョン率の高低を予測しました。 特定のLPが業界平均より高いか低いかという予測において、同モデルの的中率は平均80%に上ったといいます。 かなり高い的中率のようですが、ここまで出来ると次に知りたくなることは、人間による精度と比べてどうなのかという点です。 AIによる正答率、人間を大幅に上回る そこでUnbounceは、今年5月にカナダのバンクーバーで開かれた同社主催のカンファレンスにて、参加者と機械学習モデルによる予測対決を実施しました。 仕様は次の通り。 ・特定のLPによるコンバージョン率が業界平均より高いか低いかについて、デジタルマーケターとAIそれぞれが予測 ・対象LPの数は204本 ・参加したマーケターは427人(同イベントに登壇した著名マーケター含む) ・分析対象は、LPのテキストコピーだけ(デザインや画像などは考慮なし) そして結果はこの記事のタイトルにもある通り、AIの勝利でした。 AIによる正答率が79.7%に上った一方で、参加者による正答率は平均で50%。最も正答率が高かった参加者でも56.9%にとどまったといいます。 つまりこうしたイベントに登壇するような著名なマーケターですら、予測精度でAIに遠く及ばなかったのです。 LPのコピーライティングが専門で、今回の試みに参加したJoel Klettke氏は、その難しさについて次のように振り返っています。ちなみに同氏は、今回の参加者の中で最も高い正答率をたたき出した人物。 「自分が持つバイアスを克服しなければいけない点が難しかった。LPの内容やデザインに嫌悪感を抱いてしまうこともあり、そうなるとユーザーの視点で判断することが難しくなってしまう」。 また今回の判断要素はテキストコピーだけ、というルールだったものの、デザインが優れていると、二流なコピーでもある程度マシに見えてしまう、というジレンマもあったようです。 過去の事例や自らの直観に従って判断しがちな人間による限界が浮き彫りになった形でしょう。 コンテンツ制作におけるAIの役割とは? さらにコンテンツ制作におけるAIの役割について、Klettke氏はこう語りました。 「従来のコンテンツ制作をすべてAIが担うようになる、ということではない。ただ人間の判断がどこまで正しいかをアルゴリズムの視点で検証できることは良い」。 ただUnbounceのSchmidt CTOは、マーケターのタスクを補助するのが現状のAIによる役割だとしつつも、「それもすぐに変わる」としています。 「(AIによって)コピーの作成や編集が可能になる時期もそう遠くはない。さらにコンテンツを一から作ることができるようになる日も来るだろう。ただそうなるまでにはあと数年はかかるはずだ」。 いずれにしても、テクノロジーの発展具合に合わせて、自らの業務を最適化させていく努力が一層重要になりそうです。

社員の誰もがAIを活用できる環境へ、ウーバーが社内プラットフォームを公式発表

社内の関係者の誰もが、機械学習を使ったサービス改善を実施できる。 こうした環境の実現に向けて、配車サービスのウーバーが社内システムを強化しています。 同社はこれまで各サービスで機械学習を活用した機能を実装してきました。 たとえばフードデリバリーサービス「UberEats」では、配達先までの距離や道路の混雑状況、調理時間などのデータをもとに、配達時間を予測するといった具合です。 こうした機能の開発・実装に向けて、ウーバーが活用しているのが、自社向け機械学習プラットフォームMichelangelo(ミケランジェロ)。HDFSやSpark、TensorFlowなどのオープンソースを中心に構築されています。 データの処理や学習モデルの構築、予測など、これまでチームによってバラバラだった一連のワークフローがこのプラットフォームによって標準化できたといいます。 過去1年にわたって社内のエンジニアやデータサイエンティスト向けに導入を進めていたといいますが、今回公式に発表されました。 機械学習を活用するにあたって、なぜ社内共通のプラットフォームが必要なのか?実際にどのように使われているのか?詳細をみていきましょう。 なぜ必要なのか?ウーバーの課題感 機械学習モデルを開発・実装するにあたって、ミケランジェロのような社内共通プラットフォームがなかった時代。ウーバーは予測モデルを備えたシステムが必要になるたびに、毎回ゼロベースで構築していたといいます。 そのため手間と時間が膨大にかかることから、オープンソースのツールを使って短期間で作れるものに限られていたそう。 またそれだけのことができるスキルやリソースを持った一部のデータサイエンティストやエンジニアが活用するにとどまっていました。 さらに機械学習モデルを学習させる際も、個々のデータサイエンティストが持つデスクトップで動く範囲のみ。そして学習結果を保存する共通の場所もないから、取り組みがサイロ化してしまう。 このような状態では、社内の誰もがより手軽に機械学習モデルに携われる状態にまでスケールさせることができないでいたのです。 代表例はUberEats そこでウーバーが導入したシステムがミケランジェロ。サービスに機械学習モデルを実装するにあたって必要な次のワークフローを標準化することができるといいます。 1.データの処理 2.モデルの学習 3.モデルの評価 4.モデルの実装 5.予測 6.予測結果のモニタリング ミケランジェロを使った機械学習実装の代表例として紹介されているサービスが、フードデリバリーのUberEats。配達時間の予測やレストランのランキング付けなどに活用されているとのこと。 「配達時間を正確に予測することは、思ったより複雑だ」とウーバーはブログ記事で述べています。ケースごとの不確定要素が非常に多いからです。 料理の調理時間は、注文内容やレストランの繁忙度によって異なります。またUberEatsの配達パートナーがレストランに到着するまでの時間や、配達先に到着するまでにかかる時間は、距離やルート、交通量、天気など、多くの要素に影響されます。 UberEatsがミケランジェロを通して目指すゴールは、こうした不確定要素が複雑にからみ合う状況かでも、正確な配達時間を表示すること。その実現のために同社のデータサイエンティストたちは、”Gradient boosted decision tree regression models”と呼ばれる手法を活用しているそうです。 今後も向こう数カ月間で、機械学習を自動で最適化するAutoMLの導入を予定するなど、プラットフォームの改善活動を続けていくとしています。

AIデータがないなら買えばいい、要注目の「データ市場」とは?

言うまでもなく、AI(人工知能)関連の施策を実施するにあたって、学習データの用意はとても重要になります。 機械学習といったAI関連の技術自体は、エクセルやパワポのようにどんどんコモディティ化していくであろうことを考えると、差別化となるのはどれだけ適切な学習データを確保できているか、という点になるでしょう。 けれども必要なデータをすべて自社でそろえることができるケースは、中々レアなのではないでしょうか。 ただもし必要なデータを適切な価格で、個人や法人から買うことができたらどうでしょう? 施策の自由度が一気に広がるのではないでしょうか。 たとえば個人から位置情報や歩数といった行動データを買う。法人から各種センサー機器経由のデータを買うといった具合です。 つまりデータを欲しい人と提供したい人をマッチングさせるプラットフォーム。株式市場のデータ版というイメージです。 いわゆる「データ市場」と呼ばれるこの仕組みは、すでに欧米では活発化してきているといいますが、日本において先んじて取り組んでいる企業が、2014年創業のEverySenseです。 第1回AI・人工知能EXPOに登壇した同社の眞野浩CEOによる講演をもとに、基本的な情報をお伝えします。 ただ先に断っておくと、データ市場はあらゆるデータ売買を仲介するプラットフォームということで、何もAIの文脈に限った話ではありません。 現状のIoT、データ流通が不十分 「今のIoTでは情報が十分に流れていない。インターネットオブシングスではなくイントラネットオブシングスだ。つまりインターネットを使ってセンサー機器による情報を発生させてはいるが、その情報が流通していない」。 各種のセンサー機器によって発生したデータを活用する際の課題について、眞野CEOはこう語ります。 眞野氏によると、ヘルスケアや建設、自動車など、各業界の中ではIoT関連のデータ活用が進み始めているものの、こうしたデータを業界横断で活用できていないというのです。 ビッグデータがタコつぼ化している原因について眞野氏は、「人間の心理として、価値が高いものは当然ながら所有していたい。人にあげたくない」と話します。 そのため各業界でタコつぼ化しているデータに横ぐしを刺して、データの流通を促そうという仕組みが、同社によるデータ流通プラットフォーム「EverySense」です。データの売買を中立公正に仲介することが目的だといいます。 「所有しているビッグデータは高付加価値化して財に変えたいという動機がはたらく。しかし売るために取ったわけではないけど、ただあるというデータであれば、外に出しても良いとなるかもしれない」(眞野氏)。 売るために取ったわけではないデータというのは、たとえば道路の混雑状況やCO2の排出量、位置情報、企業の独自データなど、各種センサー機器から発生するデータを指します。 データを第三者に渡す個人や法人からしてみれば、様々な懸念がつきまといます。 個人情報は守られるのか?公開した情報の価値に値する対価は得られるのか?といった具合です。 またデータを買う側からしても、提供されるデータが不正なく信頼のおけるものかが懸念されます。 EverySenseは両者の間に立つ中立公正な仲介者として、これらの課題を解決することを目指すとしています。 データ流通の要、EverySenseの仕組み EverySenseは、データを売る人と買う人がいるデータ市場を農業に例えます。データを売る人が「ファームオーナー」。買う人がそれを使って料理をする「レストランオーナー」という形です。 データを売るファームオーナーは、「私がスマホで溜めた歩行データを売ります」といった条件をプラットフォーム上で公開します。一方でデータを買うレストランオーナーは、欲しいデータの条件を記載した「レシピ」と呼ばれる注文書を作ります。 両者がマッチングすれば取引成立です。データがいくらになるかは、ファームオーナーとレストランオーナーの取引で決まります。 たとえばデータ提供者の性別や年代をはじめ、より詳しい属性情報を求めるとその分だけ価格も高くなります。また同じデータでも1分に1回なのか、1時間に1回なのかといった取得頻度でも変わってくるといいます。 個人情報を販売するとなると、プライバシーの問題が懸念されますが、ファームオーナーはレストランオーナーの信用性を確認した上で、販売するかどうか決めることができます。またそもそもどの属性情報を販売するかはファームオーナー自身が選べます。知らない間に個人情報をたくさん抜かれていたというようなことが起きない仕組みになっているのです。 データを提供したファームオーナーは、報酬としてポイントが付与されます。そのポイントはEverySenseのサイトや金券ショップなどでマイルや現金に換えられるといいます。 こちらが取引の一例を示した図です。ファームオーナーは、e燃費データ(実燃費やガソリン価格データなど)を所有するイード、レストランオーナーは不特定多数のユーザーです(EverySenseによる資料より)。

そもそもAIで何ができるのか?実現可能な7つの成果

「AI(人工知能)を活用してビジネスで成果をあげよう」という動きがますます高まってきました。 しかし一方で「AIを魔法の杖だと誤解した人たちが、ムチャな要望を出してくる」というようなボヤキも、またよく耳にする話です。 つまりAI関連の技術によって、何ができて何ができないのか?という点があいまいなままに、期待だけが先行しがちというのが大方の現状といえそうです。 そんな中でちょっと便利な図をみつけました(記事最上部。オリジナルをもとにAI4U編集部で作成)。 「AIによる7つの成果」(Seven spectrum of outcomes for AI)と題された図。その名の通り、AIによって解決できる成果、つまりユーザーニーズを7段階で整理しています。 「認知」や「通知」のように現時点の技術レベルで可能な段階もあれば、人の判断を手助けする「環境認知」といったまだ難しいレベルもあります。 AI事業を検討する際に、できることとできないことの整理に便利そうです。 それぞれの段階の説明はこちら。 1.認知 AIによって可能な項目の中で、最も初歩的な段階。画像や音声、感情といったデータをもとに、ユーザーに関する何らかのパターンを読み取る段階。 2.通知 ユーザーが知る必要がある情報をアラートやリマインダーといった形で通知。「適切な情報」を「適切なタイミング」で「適切なユーザー」に届けることで、唐突感なく自然に受け取ってもらうことを目指す。そのために必要なユーザーの属性や好みを把握するために地理データや天気、心拍数、感情など、あらゆるデータの活用を試みる。 3.提案・リコメンド サイトのアクセスデータや商品の購買情報といった過去の行動データをもとに、ユーザーへのリコメンドを実施。そのリコメンド内容もマシーンラーニング(機械学習)などによって継続的に改善することができる。つまり少数ではなくマスのユーザー群に対して、コンテンツやマーケティング施策のパーソナライゼーションが可能になる段階。 4.自動化 ユーザーが抱えるタスクを自動で肩代わりできる段階。さらに機械学習によって継続的な改善やチューニングを実施できる。 5.予測 過去に蓄積されたデータをもとに、機械学習による予測ができる段階。 6.事前対処・予防 起こり得る問題を予測し、潜在的なリスクを回避できる段階。 7.環境認知 人がすべきことを判断する際の手助けができる段階。

AI企業が未来の有望スタートアップ50社を予測、その結果とは?

2009年にビジネスウィーク誌がこんな企画を立てました。 これから急成長するであろう無名のスタートアップ50社をコンピューターによってリストアップするというお題を、ビッグデータ視覚化ソリューションを提供する米Quidのボブ・グッドソンCEOに出したのです。 企画は無事当時の紙面に掲載。ただリストアップされた企業のことは、同誌やリストアップしたグッドソン氏自身も忘れていたといいます。 それから約8年たった今年。 改めて当時のリストを見返した同誌(現在はブルームバーグ・ビジネスウィーク)の編集者とグッドソン氏は、その結果を目にして驚いたそう。 そこには今や誰もが知る有名企業が名を連ねていたからです。以下がその一例。 ・Evernote ・Spotify ・Etsy ・Zynga ・Palantir ・Cloudera さらに一般的な知名度はそれほど高くはないものの、非常に優れた業績をあげたスタートアップも含まれていたといいます。 たとえば同じくリストアップされていたインドのIbibo。オンライン旅行予約サイトを運営する同社は、2009年当時は従業員8人ほどの小企業だったものの、現在は売上高20億米ドル(約2200億円)もの規模にまで成長しています。 2017年版を新たに作成、その結果とは? こうした結果を受けて、同誌は再度グッドソン氏に現時点でのリストの作成を新たに依頼しました。 作成方法の詳細は一部伏せられているものの、過去3年でベンチャーキャピタルから投資を受けた5万社をリストアップした上で、資金調達額といった定量データや創業メンバーの経歴などの定性データを使って、最終的に50社に絞り込んでいます。 こうして出来上がったリストがこちらです(オリジナルをもとにAI4U編集部で作成)。 AI4UはAI専門のビジネスメディアということで、中でも「業種」が「Artificial Intelligence」(人工知能)となっていた10社をピックアップして紹介していきます。 各社の情報をみていくと、場所でいうとやはりシリコンバレーに本拠を置く企業が最も多く、ジャンルでいうとマーケティング関連が目立ちます。 まだあまりメディアにも取り上げられておらず、せいぜい資金調達のニュースがテッククランチに報じられたぐらいという企業ばかりですが、未来のメジャー企業が含まれているかもしれません。 1.Folloze B2Bマーケティングの見込客を獲得する際に活用するソリューションを提供する企業。サイト訪問者の属性や行動などによるコンテンツ出し分け機能や分析機能などを搭載しています。AI技術をどう活用しているかは不明ですが、おそらくサイト内行動のスコアリングやコンテンツの出し分け関連で使っているのだと思われます。 2.Geoblink 地理情報を活用したマーケティング、いわゆる「ジオマーケティング」と呼ばれるジャンル向けのアナリティクスプラットフォームを提供する企業。地域別の人口や商取引額、交通量といった地理情報のデータベースを保有しており、ユーザーはこうした地理データのビジュアライゼーションや機械学習による分析などが可能になるとのこと。小売店舗の出店地域を決める、既存店舗の売上予測を立てるといった用途に使えそうです。 https://vimeo.com/224972248 3.GrayMeta 顧客情報や契約情報など、企業内に散在する様々なデータ。ただ蓄積されているだけだと「ゴミ」と変わらないデータでも、適切にラベリングして管理することで「資産」にすることも可能になります。GrayMetaのソリューションによって、散在する社内データ(クラウドとオンプレミス問わず)を検索した上で、機械学習の活用によって新たなメタデータを付与することができるようになるとのこと。つまり社内データの検索と目的に応じたラベリング作業をAIによって効率化できるというサービスです。 4.Kahuna B2C向けのマーケティングオートメーションツール。サイト訪問者の属性や行動(商品をカートに入れるなど)を収集した上で統合。それらを元にデバイスや流入チャネルごとにペルソナを作成してくれるとのこと。さらにそうして作成したペルソナをもとに適切なコンテンツを出し分けることで、コンバージョンを狙います。このコンテンツの出し分けの精度をAIによって高めることができるとのこと。 5.Mad Street Den AIとコンピュータービジョンを中核としたサービスを提供するインド企業。インド系アメリカ人の夫婦が2013年に立ち上げました。主要ソリューションとして、ファッションEC向けのAIサービス「Vue.ai」を提供しています。「AIスタイリスト」を標ぼうする同サービスは、EC訪問者の好みの色や柄、サイズなどを把握した上で、商品をリコメンドしてくれるとのこと。2016年にSequoia CapitalなどからシリーズAでの資金調達を実施しています。 6.Mihup Communications ヒンディー語をはじめとするインド系言語専門のボイスコントロールソリューションを提供する企業。同社によるSpeech APIを各種機器に搭載することで、音声によるコントロールが可能に。たとえばテレビのチャンネルを変える、自動車のカーナビを操作するといった具合です。現状対応している言語はヒンディー語とベンガル語、インド系英語(俗にいうヒングリッシュ)の3つですが、今後対応言語を増やしていくとのこと(インドには20以上もの言語があります)。 7.Mobvoi(出门问问) 2012年に創業した中国のAIスタートアップ。中国語の音声認識や自然言語処理などを中核としたソリューションを提供しています。自動車内での電話やGPSの操作などを音声でコントロールできる車載機器「Ticauto」などを提供しています。2017年4月には、フォルクスワーゲンの中国法人から1.8億米ドルの資金を調達。今後フォルクスワーゲン製自動車向けのAIサービスを提供していく考えを示しています。 8.Rulai カスタマーサポート向けのチャットボット作成キットを提供。既存の会話データをもとに、で会話のスクリプトを「コーディングなし」で作成できる点が特長とのこと(GUIベースで作成できるソリューションはすでに数多く乱立している状態ではありますが)。会話の最中にボットだけでは対応しきれない場合、人間のスタッフにつなぐわけですが、そのタイミングは、文脈などをもとにチャットボット自体が判断できるとしています。 9.Troops 営業チーム向けのタスク効率化ツール。Salesforce上のCRMデータをSlack上で扱うことができるようになります。具体的には、営業レポートやスケジュール、任意のデータをSlackで閲覧する、(タスクの標準プロセスを自動化できる)「ワークフロー」機能をカスタマイズするといった作業です。同じ作業でも、Salesforce上の複雑なUIを使うよりも、チャットUIでやったほうが簡単だよねということのようです。 10.Zodiac BtoCマーケター向けの顧客分析プラットフォーム。サイトのアクセスデータや商品の購買情報といった行動データをもとに、ユーザーの価値を「High Value」「Medium Value」「Low Value」の3つにセグメント。同じような属性を持った他のユーザーを探し当てたり、1人当たりの売上高を予測するといったことが可能になるとのこと。

2030年にはこうなっている、チャットボット先端開発事例

「2030年には、ありとあらゆる分野でこれくらいのレベルのチャットボットが使える時代になっているのではないか」。 AI・人工知能EXPOに登壇した、国立研究開発法人 情報通信研究機構(NICT)の鳥澤健太郎氏は、そう言いながら次のような音声でのやり取りを紹介しました。 チャットボット「A銀行の定期預金が満期をむかえますね。B国の投資信託が人気のようですが、どうですか?」 ユーザー「でもB国の政権が不安定だから危ないんじゃない?」 チャットボット「そういう意見もありますが、一方で本日の新聞には面白いことが書かれていますよ。後で送ります」 いかがでしょう?事前に決められた対話ルールに沿うだけの現状のチャットボットと比べると、かなりインテリジェントな印象です。 「政治が不安定だと、普通は投資信託の価値が下がる」という事象を一般的な知識として持つことができている一方で、その内容と矛盾する「本日の新聞」の内容が「面白い」と判断することもできています。 また以下のやりとりのように、保有する知識をベースに、仮説や推論を行うこともできるようになると鳥澤氏はみています。 チャットボット「C社様向けの開発の件、Dアルゴリズムで効率化できそうです。関係する論文を送っておきます」 ユーザー「了解。開発チーム全員に送っておいて」 ユーザーが携わっている「C社様向けの開発」と「Dアルゴリズム」の内容をそれぞれ理解した上で、独立して存在している2つが関連しそうだという仮説を導きだすことができています。 「膨大なテキスト、つまりビッグデータを解析した上で多くの知識を持っていないと、このようなことはできない」と鳥澤氏は語ります。 次世代のボット開発に向けた取り組み こうしたインテリジェントなチャットボットの実現に向けて、鳥澤氏らが開発したのが「WISDOMちゃん」という音声型チャットボット。 裏側のシステムには、すでに一般公開されているWisdom Xという大規模Web情報分析システムを採用しています。Web上にあがっている約40億ページ分の情報を知識として持ち、ユーザーの様々な質問に答えることができるといいます。 WISDOMちゃんはまだ着想してから約10カ月。当日公開されたデモでのやり取りは、とてもスムーズなものでした。 まだまだ研究開発の途上で、「頓珍漢な返事をすることもある」といいますが、より人間らしいやり取りの実現に向けて、従来のチャットボットとは異なる仕組みが導入されています。 より有益な会話の実現に向けた仕組みとは? 現状のチャットボットは対話のデータから学習することで、いわばそれを「マネすること」だと鳥澤氏はいいます。 「一時はみんながこの仕組みで挑戦したが、しばらく経つと悲鳴が聞こえてきた。何を言っても相槌しか打たない。これだけでは面白いことはできない」(鳥澤氏)。 つまりこういうことです。 ユーザーとのやり取りの中には、たとえば「iPS細胞ってすごいね」といった意図が分かりにくい問いかけも多数。従来のボットでは、こうしたあいまいな問いかけの意図をうまく理解できず、単なる相槌や頓珍漢や返事に終始しがちでした。 そこで鳥澤氏らは、あいまいなユーザー入力が来た場合、まずそれをシステムが理解できる「質問」に翻訳することで、より自然な応答を返す仕組みを作りました。 たとえば以下がその一例です。 ・ユーザー:「iPS細胞ってすごいね」 ・Wisdom X:システム内部で「iPS細胞で何ができる?」という「質問」に変換 ・Wisdom X:iPS細胞によって可能なことのリストの中から、面白そうな応答をピックアップして出力 「たとえばある端末や家電製品ってすごいよね、という発言があったとして、それに対して具体的に何ができるという返事が続くというのは、実際の対話でも割と自然な流れなのではないか」(鳥澤氏)。 多様な会話、「質問」の数を増やすことで実現 上記で育成した「質問」は、「iPS細胞で何ができるの?」というものでしたが、生成できる「質問」の種類が多ければ多いほど、様々な対話に対応できることになるというわけです。 たとえばユーザーからの問いかけとして、「日経新聞に『南鳥島沖に球状レアメタル』という記事が出ているね」というものがあったとします。 受験生向けの対話システムであれば、 ・「質問」として「南鳥島はどこにある」を生成 ・応答として「南鳥島は日本最東端にあります。覚えておきましょう」を返信 またビジネスマン向けの何らかのシステムであれば、 ・「質問」として「レアメタルは何に使う?」「誰が(レアメタルを使う)ハイブリッド車を製造する?」を生成 ・応答として「自動車会社に影響があるかもしれません」を返信 ただ育成した複数の「質問」の中から、適切な「質問」を選ぶという機能を実装するには、まだ至っていないとのこと。 今後の課題 こうした仕組みのチャットボットが目指す未来像は、ユーザーの目的を理解した上で、有益な雑談を行うというものですが、課題もあるといいます。 まず前提条件として、ユーザー自身やその目的に関する知識を大量に持たせる必要があるということ(適切なビッグデータの必要性)。 またそうしてユーザー特有の情報や状況に応じて返答をするということは、一種の疑似的な人格を持つ必要があるといいます。 たとえば一例として挙げられたのがドラえもん。「のび太を真人間にする」という目的を持ち、のび太に関する知識を山ほど持っていることで、例のドラえもんの「人格」が成立しているといいます。 そしてそのような疑似的な人格を、ビジネスや介護など様々な目的に応じて適切にプログラムすることは可能なのか?という点も懸念とのこと(特定の業務における適切な人格を決めるなど、人間が相手でも難しいのに。。。)。 さらに大量の学習データの構築や、基礎的なテキスト解析の精度を向上させることも必須になってくるといいます。 ユーザーに寄り添うインテリジェントなチャットボットというのは、大きな可能性がありつつも、まだまだ課題も多そうです。

来場者数が想定の3倍だったAIエキスポ、個人的にはデータまわりが注目

私は元々記者をやっていたので、これまでにビジネス関連の展示会は取材で山ほど参加してきました。 その中でも先日開かれた第1回AI・人工知能EXPOの盛況ぶりは、別格だった気がします。 主催のリード エグジビション ジャパンさんに事前にお話しを伺った時は、「3日間で約1万5000人の来場者を見込んでます」とのお話。 「当日は歩けないくらいの感じにすらなるかもしれません」と聞いていたものの、正直なところ混雑ぶりを表すたとえだと思っていたのですが、本当にそんな感じでした。 ふたを開けてみると3日間の参加者数が4万1,677人と、当初予想の約3倍。 AIブームの真っただ中だからということはもちろんですが、あらゆる産業と関連し得るという意味で、すそ野が広い分野だということもあるのでしょう。 パっと目につくのはやはりチャットボット 数あるブースの中でも、一番目についたのはやはりチャットボット関連のサービス。 関連ブースをまわりましたが、主な使い道はサポートセンターによる一部業務をボットで代替することで、人件費削減や業務効率化を目指すというものが多いようです。 事前に決めた対話ルールに沿ってやり取りを進めるという仕組みなので、あまり複雑すぎる対話は難しく、「問い合わせの8割は大体同じ質問です」みたいなケースの効率化が一番ハマりやすい、つまり事前に決めたルールの範囲で対応しやすいんだろうなという印象。 おそらく実際に使ってみると、料金体系やUIの使い勝手、周辺機能などの面で相性の良しあしを感じるのでしょうが、チャットボット自体の性能という意味では、各社で大きな違いはなさそうです。 「将来的には機械学習を活用して、対話ルールの設計部分をもっと自動化していきます」と仰っていた会社さんもいましたが、一方で「単純にそうするとボットがどんな回答をするか予測できない部分も出てきてしまうので、難しいところなんですよね」とのことで、どこまで自動化させるかについては、バランスを考慮する必要がありそうです。 周辺機能という意味では、個人的にはhachidori(ハチドリ)のLINE関連機能が気になりました。 LINEユーザー向けにチャットボット上でアンケートを実施できるのですが、そのアンケート結果をもとにメッセージの出し分けができるというもの。 たとえば「アンケートで購買意向が高かったユーザーに限って、クーポンを送ろう」といった具合に、ユーザーのセグメントや購買熟度に応じた出し分けができそうです。ちなみにこの機能、特許出願中だとか。 結局データが一番重要 やはり結局、人工無能やディープラーニングといったAI関連の技術だけでは根本的な差別化にはならないとすると、最も重要なのは独自の学習データをいかに集めるかということになります。 そういう意味では、出展社の中でもIR-ALT(アイアール・アルト)のように学習データの作成や収集を支援している企業が、個人的には興味深かったです。 AIを作りたいけど「機械学習用の正解データがない」というようなケースは多いはずだからです。 同社によるデータ収集は、必要な学習データの専門性によって段階があります。 専門性が比較的低いデータであれば、クラウドソーシングによる不特定多数から収集。 一方クラウドソーシングでは対応しきれない要件、たとえば特定の属性(幼児や高齢者など)や精度の高いデータが必要な時は、同社のネットワークを使っての収集といった具合です。 また音声データの収集にも対応していて、高齢者や認知症の方による発話データといった非常にニッチなデータ収集にも対応できる点が強みのようです。 「データ市場」という仕組みにも注目 この「AIに使うデータがないなら買えばいいじゃない」的な発想をさらに突き詰めた先の一つとして、データの持ち主とデータが欲しい人をマッチングさせる「データ市場」という考え方があるようです。 今回のエキスポで開かれた専門セミナーにいくつか出席させていただきましたが、中でもEvery Sense社の眞野浩氏と東京大学の大澤幸生教授によるデータ市場の話は、とても刺激的で面白かったです。 Every Senseは、データの持ち主とデータが欲しい人をマッチングさせるプラットフォームを運営する企業。この場合のデータとは各種のデバイスから発生したセンサー情報、いわゆるIoTまわりのデータになります。 AI分野のニュースというと、個々のサービス内容にフォーカスされがちですが、いかに独自の学習データを確保するかという話のほうが本質的かつ重要なはずなので、この手の話は今後さらに注目されてくるはず(後ほどセッションの詳細をレポートします)。 ちなみにAI・人工知能EXPOの専門セミナーも、事業会社による実際の事例から研究者による最新技術の話題まで、ラインナップが非常に充実していました。 かなり濃い情報が展開されるので、参加費も決して安くはないですが、広い会場がびっしりと埋まっています。 次回は来年4月 次回のAI・人工知能EXPOはまた1年後の6月、、、と思いきや、来年の4月なんです。 ◆第2回 AI・人工知能EXPO 2018年4月4日(水)~6日(金) 前回の約3倍の規模を想定するとのことで、展示スペースも大幅に広げるようです。 第2回目はAI4U運営元のインキュビットも出展しますので、皆さまとお会いできるのを楽しみにしております!

コルタナ活用の先進事例、ナビタイムとマイクロソフトによる新たな顧客対応

企業による導入が進むチャットボット。 その効果といえば、「サポートセンターの人員代行」といった人件費削減や、ユーザーにとって面倒な作業の負担を軽減するサービス向上といったあたりが中心になっています。 今回は後者の「サービス向上」について面白い事例があったのでご紹介。「AI・人工知能EXPO」(2017年6月28日~30日)で開かれたセッションでの様子をレポートします。 コルタナを搭載、ユーザーニーズを先回りして理解 ネットサービスを使いこなしたり、Q&Aで必要な情報を探しきるというのは意外と難しい作業です。 サービス開発者側や一定のネットリテラシーを持つ人からすると、「こんな簡単な(だと思っていた)操作でつまずくの?」という場合も実は多いでしょう(ユーザビリティ調査とかやると本当にこれ思います)。 そこでネットリテラシーの有無を問わず使えるようにすることで、ユーザーのすそ野を広げる必要があるわけですが、そこでチャットボットが活躍するという話。 今回登壇したナビタイムジャパンは、旅行プランの作成や航空券・宿泊施設の予約サービス「NAVITIMEトラベル」などでチャットボットを活用しています。 「AIを活用することで、ユーザー自ら情報を探すのではなく、彼らが求める情報をこちらがくみ取って、かつ提案できるナビゲーションシステムを目指している」と、同社の小田中育生氏(開発部部長ACTSルートグループ責任者)は話します。 裏側の仕組みとしては、マイクロソフトが開発したパーソナルアシスタント機能「コルタナ」を搭載。これについては「思った以上に簡単に入れられるなという印象です」(小田中氏)とのこと。 詳細をお伝えします。 便利機能、「設定が多すぎて使いこなせない」という声も ナビタイムジャパンは、「移動の課題を解決する」をミッションとして、各種のナビゲーションサービスを提供してきましたが、これに関してさらなる改善の余地を感じていたといいます。 それは多様なニーズやシーンに応えるために多くの機能を搭載している分、それらを使いこなしきれない人々も出てしまっているという点。 たとえば電車の乗換案内サービスには、「乗り換え少ない順」や「徒歩速度」といった多くの検索条件が用意されています。 「きめ細かく設定できて便利だと言ってくださる方がいる反面、設定が多すぎて使いこなせないという声もありました」(小田中氏)。 そこで、乗り換え案内のチャットボットを昨年9月にLINE向けにリリースするなど、AIの活用に乗り出しました。 ユーザーのあいまいな要望を理解 また別途提供している観光ガイドアプリ「NAVITIMEトラベル」では、さらに踏み込んだ形でAIを活用しています。 ユーザーが直接的にニーズを伝えなくても、言外の意図をくみ取ることで、きめ細かなサービスを提供できるようにしようという試みです。 たとえば旅行先の観光スポットを探しているユーザーが、「癒しが欲しい」といったあいまいな要望をしたとして、それに対してスパのお店を表示する。また「鎌倉でおいしいレストランを教えて」という要望があれば、好みに合ったお店を紹介するといった具合です。 同サービスは、主に海外からの観光客を想定ユーザーとして多言語展開しています。 そのためバックグラウンドもITリテラシーも多種多様なユーザーが使うことになるので、テキストメッセージという世界共通のUIで操作でき、かつユーザーの意図をくみ取ることができる今回の仕様は、必要不可欠ということでしょう。 コルタナの搭載、「思った以上に簡単」 こうした機能は、「癒されたい」「飲みにいきたい」といったあいまいな要望の意図を学習させることで、実現しているとのこと。 裏側の仕組みとして、マイクロソフトによるパーソナルアシスタント機能「コルタナ」を活用。ナビタイム側のアプリケーションと、コルタナのボットフレームワークをつなぎ、さらに入力された自然言語を理解するツールであるLUIS(Language Understanding Intelligent Service)といった各種AI機能を使うことで実現しています。 特に同サービスの肝になっているあいまいな要望の解釈という部分については、このLUISを使った学習が非常に重要になっているといいます。 またLUISは日本語を含む12言語に対応していることも、採用の決め手になったといいます。 「日本語に対応しているコグニティブサービスは、最近は増えてはいるが当時はあまりありませんでした」(小田中氏)。 2016年12月末から開発を始め、今年2月にローンチしたということで、開発期間はたったの2か月間だったといいます。 「スピーディーに開発できた要因としては、マイクロソフトさんと合同でワークショップを実施したことが大きい。ナビタイムのエンジニアとマイクロソフトが一緒になって、サービスの内容や会話の設計などを2日間のワークショップで考え、基本的なところはそこで完成してしまいました」(小田中氏)。 「ボットを開発したことがなく、作るのにどれくらい時間かかるんだろうと思っている方もいると思いますが、思った以上に簡単に入れられるなという印象です」(同)。 ナビタイムとして最終的に目指す方向性について、小田中氏は次のように話します。 「これまではユーザーが自ら検索して情報を探すというのがナビゲーションサービスとして基本的なところだったが、ユーザーが求めるものをこちらがくみ取って提案してあげる、そしてユーザーがそこから選ぶという時代になってくるのではないでしょうか」。 たとえば「リラックスしたい」「海に行きたい」「和食を食べたい」という複数の文章から、複合的に判断して「伊豆の温泉が良いですね」と教えてあげるようなサービスをイメージしているといいます。 複雑な入力、画像認識で省略 またサービス活用の障壁をなくして、幅広いユーザーが使えるようにするという意図の事例として、リコーのケースも紹介されていました。 同じく登壇した、日本マイクロソフトの大田昌幸氏(デベロッパーエバンジェリズム統括本部テクニカルエバンジェリスト)によると、リコーは社内向けのQ&Aツールとしてコルタナを搭載したチャットボットを採用したといいます。 この社内Q&Aでは、自分のPCに関する情報を入力する場面があるそうですが、このチャットボットではPC画像をアップすることで、その手間を省くことができるといいます。 「ユーザーの誰もがPCのリテラシーが高いわけではないので、PCの型番を答えられる人は非常に少ないです。『Surface 3』と『Surface Pro3』の違いを見分けるのは、簡単ではない人も中にはいます」(大田氏)。 またシリアルナンバーを手打ちで入力するといった面倒な作業も、PCの画像認識によって省略できるとのこと。 ユーザーがリテラシーの向上という形でサービスに合わせるのではなく、サービス側がユーザーに合わせるための施策としてのチャットボット。先進的な企業はすでに活用方法を模索し始めているようです。

アドビシステムズに聞く、「Adobe Sensei」の未来【後編】

AI(人工知能)、特にディープラーニング」を活用し、写真の加工や動画の編集、書類のデジタル変換などの複雑な課題に対処する新技術として2016年10月31日~11月4日のAbode MAX2016(米国カリフォルニア・サンノゼで行われたクリエイティブカンファレンス)で発表された「Adobe Sensei」。 アドビ システムズ 株式会社(以下、アドビ)日本法人を訪問し、気になる機能の数々についておたずねしたインタビューの後編をお届けします! アドビシステムズに聞く、「Adobe Sensei」の未来【前編】 前編では、Adobe PhotoshopやAdobe Premiere Proをはじめとした、クリエイティブ領域のアプリケーションに「Adobe Sensei」がどのように実装されているのか、未来の技術も含めてヒアリングしました。 後編では、日本でも大手企業を中心に導入が進むアドビのマーケティング領域のソリューションについて、「Adobe Sensei」がどう活かされるのか、伺ってみました。 マーケティング領域における取り組み「Adobe Experience Cloud」とは? https://www.youtube.com/watch?v=o-rL2vatwlo ――まず、アドビさんが提供されているマーケティング領域のクラウドについて、お聞かせください。 アドビ:私たちの一番のミッションとしては「世界を動かすデジタル体験を提供していく」というものがあります。2017年3月に発表した「Adobe Experience Cloud」では「デジタルによるワークスタイルの変革」を目標として掲げているのですが、具体的には、マーケティング領域でバナーやディスプレイ広告、Eメールキャンペーンなどを効率よく運用していくためのクラウドになります。クリエイティブとマーケティングテクノロジー(従来のアドテク)を統合的に結びつけるのが「Adobe Experience Cloud」の役割です。 ――クリエイターがつくったバナーなどを、効率よく運用していくためのツールなんですね。 アドビ:「Adobe Experience Cloud」にはAdobe Marketing Platformなど、広告のアセット管理を行うプラットフォームも含まれています。ユーザーの行動履歴を可視化するデータ分析ツールなどは、他社でも提供されていますが、Adobe PhotoshopやAdobe Illustratorで作ったコンテンツが「どういう風にビジネスに貢献しているか」を統合的に支えるための仕組みが「Adobe Experience...

アドビシステムズに聞く、「Adobe Sensei」の未来【前編】

2016年10月31日~11月4日のAdobe MAX2016(米国カリフォルニア・サンノゼで行われたクリエイティブカンファレンス)で発表された「Adobe Sensei」。人工知能(AI)、特にディープラーニングを活用し、写真の加工や動画の編集、書類のデジタル変換といった手間のかかる複雑なタスクを対処する新技術「Adobe Sensei」とは、どんなソリューションなのか? アドビ システムズ株式会社(以下、アドビ)日本法人を訪問し、気になる機能の詳細について聞いてきました! 気になる人工知能、「Adobe Sensei」ってなに? アドビについて、一般的にはAdobe Photoshop、Adobe Illustrator、Adobe Premiere Pro(以下、Photoshop、Illustrator、Premiere Proと表記)といったグラフィックや動画編集ソフトのイメージを抱いている方が多いかと思います。 現在は従来のクリエイティブ方面で利用されるアプリケーションの数々やそれを提供するためのプラットフォーム「Adobe Creative Cloud」に加え、マーケティング領域で大手企業向けの統合デジタルソリューション「Adobe Experience Cloud」や、文書の編集をデジタル化&高速化してビジネスの効率を高める「Adobe Document Cloud」の提供を行っています。 Adobe Creative Cloud Adobe Experience Cloud Adobe Document Cloud このように、アドビのサービスはクリエイティブ、マーケティング問わず、多方面で活用できます。おそらく、業務に欠かすことができないという方も多いのではないでしょうか。 しかし、新技術の人工知能を使った「Adobe Sensei」は、さらに作業を効率化してくれるとのこと…。一体、どんなシステムなのでしょうか。さっそくお話を伺ってみましょう! ――まず、「Adobe...