Facebook上のチャットボット、実は社会貢献関連が盛り上がっていたという話

Facebookが2016年4月にリリースしたチャットボットのプラットフォーム。これによって、Facebookメッセンジャー上で動くチャットボットを外部の開発者が制作できるようになりました。 今では同プラットフォーム上で提供されているチャットボット関連のサービスは、10万件以上に上るそう。 このFacebookによるチャットボットプラットフォームについて、海外メディアのMashableが「特に社会貢献関連のサービスが盛り上がっている」と報じています。 サービスの一例として、 ・英語を話せない難民や移民に翻訳者を紹介することで、移民先での生活支援を目指すTarjimly ・法律知識のない一般の人々に弁護士サービスを提供するDoNotPay ・一般的に男性に比べ給与水準が低い傾向にある女性を支援するAsk for a Raise などが挙げられています。 なぜ特に社会貢献サービスが増えているのか?要因としては、 ・社会的に弱い立場にある人々もFacebookを日常的に使っているため、リーチしやすい ・12億人以上のユーザーが集まるFacebook上で出したほうが、マーケティングがしやすいというサービス提供側のニーズにマッチしている ・非エンジニア向けのチャットボット制作ツールが充実してきている ・社会貢献を重視する Facebook自身の思想ともマッチしている といったことのようです。詳しくみていきましょう。 ◆社会的弱者とされる人々にリーチしやすい 「Facebook上でチャットボットを出す利点は、すでに多くのユーザーが集まり長い時間を過ごしているプラットフォームだということ。さらにユーザーにとっても、Facebook上のほうが使いやすいでしょう」。 シリコンバレーを拠点とするTarjimly創業者のAtif Javed氏は、こう語ります。 同社は、中東などからの難民や移民向けにチャットボットを提供しています。 移民先の言語に不自由する彼らに対して、翻訳者を紹介することで現地での生活を支援するというもの。 具体的には、言語の障壁を取り払うことで、彼らが医者や就職支援者、法的支援サービスなどにアクセスさせることが目的だといいます。 https://www.youtube.com/watch?v=nItrdMJKmFY 当然ながら難民という立場に置かれる人々の多くが、経済的に困窮しています。それでも彼らの多くはスマートフォンを持っており、日常的にFacebookメッセンジャーやWhatsAppを使ったテキストメッセージに親しんでいるよう。 慣れ親しんだFacebook上で提供されるサービスであれば、活用に向けたハードルも非常に低いというわけです。 またあくまでアプリではなく、Facebookメッセンジャー上での提供を選んだ理由について、Javed氏はこうも話しています。 「今から独自のアプリを作って、無数にある他のアプリと競争するだけの価値はない」。 ◆非エンジニアでも作れる環境が整備 またエンジニアでなくとも、Facebook向けチャットボットを作ることができる環境が整ってきているという利点もあります。 もともと社会貢献に関わろうという人々は、必ずしもエンジニアリソースを豊富に持っているというわけではありません。 「チャットボットを作るなんて、想像したこともなかった」。 クリエイティブエージェンシーのR/GAでシニアコピーライターを務めるKate Carter氏はこう語ります。 彼女は「Ask for a Raise」というFacebook向けチャットボットの開発・運営を主導しています。 同サービスの目的は、男性より給与水準が低い傾向にある女性を支援すること。昇給に必要な説得材料をチャットボットによって提供しています。 実際アメリカにおいて男女間の賃金差は問題視されている状況。昨年実施の調査によると、アメリカの企業で女性が昇給を達成できる確率は、男性より25%も低いといいます。 彼女はチャットボットを開発するにあたって、チャットボット開発支援ツール「Reply.ai」を活用。同ツールによって、コードを書くことなくGUIベースでチャットボットを制作しました(ちなみに日本ではトランスコスモスが販売)。 この手のツールは、他にもRapidProやChatfuel、Meyaなど数多くそろっており、従来テクノロジーから遠かった分野によるチャットボット制作を後押ししているようです。 ◆Facebookによる思想ともマッチ さらにソーシャルメディアを通じて社会的弱者を支援するという思想は、FacebookのMark Zuckerberg氏の考えとも共通しています。 Zuckerberg氏は、「Building Global Community」と題した、6000語に及ぶマニフェストを2017年2月に発表しました。 この中でZuckerberg氏は、ソーシャルインフラとしてのFacebookをより進化させていく考えを示しています。 単に友人や家族同士をつなげるにとどまっていた従来の役割から、貧困などの社会問題の解消に向けたコミュニティ作りに貢献するインフラを目指すというのです。 チャットボットの開発や集客を低コストで行いたいという企業側のニーズと、慣れ親しんだプラットフォームで手軽にサービスを使いたいというユーザーニーズ、社会貢献を重視するプラットフォーム側の思想。 この3つが合わさっていることが、社会貢献チャットボットの増加を後押ししているといえそうです。

人工知能関連で国内最大の展示会が開催、その裏側をリードさんにインタビュー

もうすでにご存じの方も多いと思いますが、人工知能(AI)関連の企業や研究機関などが出展する「AI・人工知能EXPO」が、6月28日(水)~30日(金)に東京ビッグサイトにて開催されます。 AIのビジネス活用がここまで盛り上がったからには、近いうちにこの手の展示会が開催されるだろうな、期待していた方も多いでしょう。 展示会の概要やオススメのブースといった情報は、こちらの記事をご覧いただくとして、 ・【予告編】日本初!人工知能だけの見本市『第1回AI・人工知能EXPO』 今回僕らのほうでは、主催者のリード エグジビション ジャパンさんにお邪魔して、開催の裏側について、色々と聞いてきました。 AIのビジネス活用市場というのは、まだまだ黎明期。リードさんにとって、AI関連展示会の開催も初めて。そんな中で、どうやって想定来場者数1万5000人以上の大規模な展示会に仕立て上げていったのか。個人的にも興味あります。 AI関連の展示会、各業界から望む声 ――今回「AI・人工知能 EXPO」を開こうとなったきっかけは? 岡部氏:もともと年間170本以上の展示会を開いているので、エレクトロニクスやIT、自動車など各業界の中心人物の方々とつながりがあります。 こういった方々から、ここ2年くらいの間に、AI関連の技術やサービスを集めた展示会があったらぜひ行きたい、というお話をいただくようになりました。 そこで2016年に、日本最大のコンテンツビジネス総合展「コンテンツ東京」の一角に、「AI・人工知能ワールド」というエリアをトライアルで作りました。 会期2か月前に急きょ開催することを決めたのですが、それでもいきなり20社程度出展が決まり、ものすごい反響だったので、これは本格的にやる意味があると判断しました。 ――そもそも展示会を開こうと決まった場合、どういった準備をするものなのでしょう? 岡部氏:基本的には1年~1年半前から企画調査を進めていきます。 ――AIの展示会はリードさんとしても初めての分野になりますが、今回はどういった調査をされたのですか? 岡部氏:AIに限らず様々な業界で同じなのですが、まず業界団体の方にお話を伺ったり、各業界のキーマンの方々に協力を仰ぎながら準備を進めていきます。 「AI・人工知能 EXPO」の場合でいいますと、去年の「AI・人工知能ワールド」で講演していただいた人工知能学会の松原仁会長に色々とご相談させていただきました。そして人工知能学会に後援として入っていただき、様々なアドバイスをいただくという体制を作ったんです。 展示会の準備、AI研究のトップランナーたちと共同で ――開催・運営にあたっては、第1回ならではの難しさというのもありそうですね。 岡部氏:現時点では、我々も含め世の中の人が、「AI・人工知能 EXPO」というものをみたことがないという状態です。そういった中で、この展示会を開催する目的や意義を丁寧に説明し、キーマンの方々や出展企業を巻き込まないといけないので、非常に難しい活動になりますが、それこそが私たちの腕の見せ所ですね。 ――未知の領域でもあるので、多くの方々の協力が必要なんですね。 岡部氏:松原先生だけでなく、日本のAI研究のトップランナーの方々に、アドバイザリーコミッティとして入っていただき、セミナーや展示会の内容について、色々なアドバイスをいただきました。 ――具体的にはどんなアドバイスだったのでしょう? 岡部氏: そうですね、たとえばクリエイティブの分野に強い先生方から、「人工知能がこれからクリエイティブの分野でどう活用されていくかの講演会を開いたほうがいい」というアドバイスをいただきました。クリエイティブの世界への人工知能の影響が今後大きくなってくるからというものです。 また医療分野やマーケティング分野など、多種多様な分野で人工知能の活用が急増していることを伺い、それぞれの分野のリストを拡充し丁寧に招待券を送るということもしました。 さらにAIを動かすにあたって圧倒的に大事である学習データに関するセミナーも、アドバイスに基づいて設けました。 そういった細かいアドバイスをたくさんいただきましたね。 想定来場者数は1.5万人、さらに来年は3倍の規模に ――AIというと、これまで割とアカデミックな濃いコミュニティが中心だったと思いますが、それをビジネスの世界に開いたらどうなるかというのは楽しみですね。 岡部氏:そうですね、そういう意味ではアカデミックな世界とは補完しうる内容になるのではないかと思います。学会が人工知能の要素技術を深く掘り下げていく一方で、展示会のほうは、実際の生々しいやりとりを含む商談の場を作り上げることがコンセプトです。アジア最大のAI総合展に育て上げていくことが目標です。 ――来場者数はどれくらいを想定されているんでしょう? 岡部氏: 3日間で約1万5000人です。これは今回の規模からするとかなりの人数で、当日は歩けないくらいの感じにすらなるかもしれません。ましてやリードの場合、名刺1枚を1人としてカウントする、つまり水増し一切なしの数え方での数字ですので。 講演もかなり大規模で、大きいものだと1500人が入る会場で開催します。会期中の総聴講者数は、5000人は超えるでしょう。展示会と大規模カンファレンスを同時開催することで、AIに関わる方にとっては欠かせない場になると思います。 また出展企業向けのスペースも今回は、募集開始と同時にあっという間に埋まってしまいました。ゆえに次回の2018年は、今年の3倍のスペースを確保し、さらに大規模に開催します。すでに多くの企業から、2018年の出展スペースを確実に確保しようと、出展申込が寄せられている状況です。 ――最後に展示会に出展する際のアピール方法と来場者される方へのメッセージをお願いします。 岡部氏:まずは自分たちのお客様と見込み客に招待券と製品情報をきちんとお送りすることが基本中の基本ですね。これをやる会社とやらない会社では成果が全然違ってきます。 毎年全部の展示会でアンケートをとってるんですが、「招待券を送ってくれたブースを訪問しましたか?」という質問に対して、約9割以上が「訪問しました」と答えています。来場者が訪問する優先順位は、 ・アポを取ったブース ・次に招待券を送ってくれたブース となります。だからアポも招待券もやらないと、自分の順番がまわってこないということになってしまいますね。 また、来場の際は、すべてのブースをくまなく見ていただくためにも、2日間、3日間の来場をおすすめしています。展示会場には出会いや発見があふれており、きっとご来場いただいた方のビジネスにお役に立てると思います。 ◆第1回AI・人工知能EXPO ・出展社検索ページ ・セミナープログラム一覧 ・招待券申込ページ

自動車とやり取りできるチャットボット、テスラ向けにリリース

小売りや飲食、金融など、あらゆる業種でチャットボットが導入され始めている今、自動車も例外ではないようです。 シリコンバレーにあるSmartCarというスタートアップが、電気自動車テスラ向けのチャットボット「TeslaBot」を発表しました。 Facebookメッセンジャーを通じて、テスラに対して様々な質問や指示をすることができるというもの。テスラのオープンAPIを活用しているそう。 実際どんなことができるんでしょうか? 充電やロックなどの基本操作をボット経由で 自分で試してみたいのは山々ですが、テスラを持っていないので断念。一部のメディアが試用した際のスクリーンショットを出していたので、それでみていきます。 ちなみに対応車種はクロスオーバーSUV「Model X」とセダン「Model S」の2車種。 それぞれの世界販売台数は、Model Xが約4万台、Model Sが約17万台ほどなので、まだ使えるのはごく一部の人に限られそうですね。 こちらがTeslaBotの利用を始める際に表示されるパーミッション画面。 これによると、TeslaBotによってテスラに関する次の項目をコントロールするとしています。 ・電力量の閲覧と操作 ・ドアのロック状況の閲覧と操作 ・自動車の位置情報の閲覧 ・自動車の基本情報の閲覧 ・車内の温度の閲覧と操作 ・サンルーフの状況の閲覧と操作 ・クラクションの使用とヘッドライトの点灯 ・キーレスドライビング(キーなしで運転できるテスラの機能)の実施 そしてこちらがFacebookメッセンジャー上でのやり取りの様子です(ちなみにボットの名前は「Elon Musk」でした)。 ユーザーが「Odometer(走行距離)」と入力すると、「47257マイルです」と返したり、「Lock my car(車をロックして)」という指示に答えたりしています。また車内の温度も教えてくれているようです。 さらに「I’m bored(退屈だ)」という入力に対しては、「ネットの縦長動画を再生する時に、私のテレビが90度回転できたら良いのですが」といった、(面白いのかなんなのかよく分からない)返しをしています。 ちょっとした定型的な会話のようなこともできるものの、基本的には充電やドアのロックといった簡単な操作がメインになるようです。 今後さらなる進化も 「え、テスラのアプリでも同じことできなかったっけ?」と思った方、まさにその通りです。 TeslaBotのほうが動作が少し早いという特長はあるそうですが、現時点でできることに大きな違いはないようです。 ただSmartCarのSahas Katta創業CEOは、「これは始まりに過ぎない」と述べています。 「機械学習エンジンを搭載しているため、数多くの利用データをもとに学習させていくことができる。さらに今後はSmartCarのプラットフォーム上で、開発者が新たな機能を追加することもできるようになる」。 自動車という文脈の中で、チャットボットがどう進化していくのか楽しみです。 仮に音声操作も可能になれば、まさになつかしのアメリカドラマ「ナイトライダー」的な世界が実現する未来も、そう遠くないかもと思ったり。 ちなみにこのSmartCarという会社。ヒュンダイのハイブリッド車「アイオニック」や、今後発売が予定される電気自動車に搭載されるプラットフォーム向けに、ボットを開発中だそうですので、そちらも近々動きがあるかもしれません。

画像分析で商品の活用シーンを把握、マーケティング等に使えるKiducoo AI

イー・ガーディアンというと、これまではWebの掲示板や投稿の監視企業というイメージでした。ユーザーが投稿したエロやグロなどの有害テキスト・画像を検知して、削除するといった形です。 しかし同社はこうした従来の監視事業にとどまらず、そこで培った画像検知技術やビッグデータの分析ノウハウを応用して、マーケティング支援にも乗り出してきました。 その手始めが、今回リリースされた「Kiducoo AI」(キヅコウ エーアイ)というサービス。 画像内の物体を分析することで、「何が写っているか」「どの位置に写っているか」をAIによって自動で検知するそう。 そういった分析を多くの画像を対象に実施すると、商品の利用シーンや傾向を浮き彫りにできるので、マーケティングデータとして活用できるというわけです。ちょっと使ってみたいかも。 「Kiducoo AI」のベースとなっている画像認識システム「ROKA SOLUTION」は、同社が東京大学との産学連携で開発したAI。 ROKAは、これまでエロ・グロなどの違法画像の検知を自動化するために使われてきましたが、さらに「最新の物体検知アルゴリズム」を組み合わせることで、「Kiducoo AI」の開発に至ったとのこと。 従来のテキストや画像の監視という「守り」の事業で得たノウハウをもとに、マーケティング支援という「攻め」の事業にも力を入れ始めた同社。 その手始めとなる「Kiducoo AI」とは、どんなサービスなんでしょうか? マーケティングに使える知見、画像分析で抽出 「画像認識を累計でここまでやっている会社はそうそうない」「画像分析をマーケティングに使っていく流れを推進していきたい」。 イー・ガーディアンの高谷康久社長は、「Kiducoo AI」の発表にあたってこう語っていました。 イー・ガーディアンは、「Kiducoo AI」の特長として次の3つを挙げています。 ・画像内に写っている複数の商品を識別できる(何が写っているか) ・画像内に写っている複数の商品の位置を認識できる(どこに写っているか) ・識別対象となる商品の追加が容易 発表会見では、ビールの事例を紹介していました。 イー・ガーディアンは、Instagramで「上野公園 ビール」と検索して出てくる約2万枚の画像を「Kiducoo AI」で分析したといいます。これによって主に分かることの一例としては、 ・写っているビールブランドごとの数 ・それぞれのビールと共に、どの性別・年代の人がどういう料理を食べているか といったことがあるそう。 またマーケティングだけでなく、カスタマーサポートにも使えるとのこと。たとえば、 ・部屋の画像を送信するだけで、引っ越しの見積もりを出してくれる ・冷蔵庫の中の画像を送信するだけで、レシピをレコメンドしてくれる などが挙げられていました(まだこれらの実績はなく、あくまで今後の可能性)。 画像分析に必要な学習作業 もちろん画像内の何をどれくらいの精度で検知できるかは、学習のさせ方次第とのこと。そして言うまでもなく、学習に向けた適切な画像データを整えるのは大変な作業です。 ただこうした学習データの収集や整理も、イー・ガーディアン側で支援することが可能だそう。従来から違法画像の検知を人海戦術で進めてきた同社は、潤沢な人的リソースを抱えているので、こうした作業は得意だとしていました。 プランも企業ニーズに合わせて柔軟に変えていくそうで、たとえば ・単なるAPIの提供 ・クライアントが学習データを保有している場合、コンサル・データセットの分析・成型も含めた一気通貫の支援 ・クライアントが学習データを保有していない場合、適切なデータを保有する外部企業と連携してデータ提供 などがあります。 3つ目の場合は、外部企業が持つデータの種類に応じて、多様なソリューションの可能性がありそうです。一例としては、 ・引っ越し業者向けのソリューション。地図データと間取り写真データを連携することで、引っ越しの見積もり精度UP ・小売業向けのソリューション。気象データと連携することで、気温や湿度に合ったレシピ食材を提案 ・広告会社向けのソリューション。ロイヤリティの高い顧客による購買データと、ビール・カレーの投稿写真データを連携することで、写真投稿ユーザーに「おしゃれ食器」のレコメンドを表示するためのDMP(データ・マネジメント・プラットフォーム)を構築 といった具合です。 処理量に応じた課金体系、場合によっては人海戦術のほうがベター 気になる費用感ですが、40万円で画像400万枚までの処理量に対応しています。また必要な学習データ量としては、「ケースバイケースで難しいが、これまでの事例では、例えば初期学習時点9割程度の検知率を目指す場合として数千枚~数万枚」とのこと。 また自社の案件に特化した学習モデルを構築する場合は、別途初期費用が数十万円~数百万円発生する場合も多いそう。 なので学習させる画像枚数によっては、AIによる自動化ではなくイー・ガーディアンの人的リソースで人海戦術をとったほうが、適切なケースもあるとしていました。画像枚数が累計数十万枚程度、もしくは毎月数万枚ほどであれば、「目視での監視で十分ご満足いただける可能性も高い」とのこと。 ここは自社の状況に応じて、要検討ですね。 画像分析のマーケティング需要が急増 もともとネットにあがっているテキストや画像の監視事業がメインだったイー・ガーディアン。マーケティング支援にも乗り出したきっかけは、何だったのでしょうか? 「画像から商品のユーザーの年齢層や利用シーンをまとめてレポーティングしてほしいという依頼が、ここ数年で急激に増えていた。これまでに15社ほどから声がかかってきた」(高谷社長)。 WebサイトやTwitter、Instagramなどを通して、貴重なユーザー情報を含む大量の画像にアクセスできるようになってきたことからすれば、当然の流れでしょう。 強みはAIシステムと潤沢な人的リソースという、学習に必要な両方を備えている点とのこと。ちょっとまずはAPIベースで試してみるのも面白そうです。

IBMビッグデータ専門家のいう「Hadoopの人気減が著しい」はどういうことか?

「2016年のビッグデータ界隈におけるHadoopの人気減が著しい。私の想定以上だ」。 IBMでビッグデータエヴァンジェリストを務めるJames Kobielus氏が、2016年のビッグデータ界隈を振り返って述べた言葉が話題になりました。 KDnuggetsというIT系メディアサイトに掲載されたこの記事にて、Kobielus氏はさらに次のように話しています。 「(Hadoopの中核となる分散処理フレームワークの)MapReduceや(Hadoop上の分散データベースの)HBase、さらに(分散処理ファイルシステムの)HDFSでさえ、データサイエンティストにとって重要ではなくなってくるだろう」。 つまりHadoopの3つの基礎構成要素のいずれについても、活用が減ってくるというのです。 一時はビッグデータ処理の本命として、もてはやされたHadoop。Kobielus氏によるこのコメントを受けて、「Hadoopはダメだ」派と「いや、そんなことはない」派のそれぞれが、相次いでブログ記事を発信する事態にもなりました。 実際のところHadoopの活用状況はどうなのか?Kobielus氏による発言の真意は別として、ちょっと整理してみました。 Hadoopは必要、ごく一部の企業にとっては Kobielus氏のコメントを受けて書かれた記事の中で、特に反響の大きかったのがこちら。Innovation EnterpriseというBtoB向けITメディアで編集長を務めるGeorge Hill氏によるもの。「Hadoopはダメだ」派です。 Hadoopに関する調査データなどを示した上で、Hadoopを使ったビッグデータ処理への需要はあるにはあるが、企業がうまく使いこなせていない、と結論づけています。具体的には、 ・Hadoop関連の求人は2016年までの18か月間で43%増えているが、使いこなせる技術者が育っていない ・そもそもHadoopが必要になるだけのデータ量を抱える企業はごく一部。多くが2~10TB程度の少ないデータ量でHadoopを使おうとしている。 とのこと。 Richard Jacksonというビッグデータ領域のディレクターも、この意見に加勢しています。 彼によると、GoogleやFacebook、Yahooのような企業でない限り、そもそもHadoopを使う必要性もなければ、扱える専門家の確保も難しいだろうとのこと。 イギリスで活動するJackson氏は、企業が保有するデータ量の傾向について、次のように語っています。 「アメリカのテック企業は、世界の他の企業も自分たちと同様の規模のデータを有すると勘違いしている。過去数年でわれわれが関わったヨーロッパの多くの企業は、せいぜい1~20TB規模。100TB以上のデータを持っているケースはめったにない」。 こういった意見に対して、「大企業に限れば、銀行や通信、製造、保険などの分野で導入が急増している!」という反対派の記事もあったりします。 ただよくよく著者の経歴を見ると、主要Hadoopベンダーの一つHortonworksの中の人なので、ちょっとポジショントークっぽいなとも思ったり。 少なくともこれら現場レベルの人たちによる記事だけをみると、こういうことのようです。 つまり大量のデータを抱えており、かつHadoopを使いこなせるだけの人的・金銭的リソースがある企業なら使う価値があるが、そんなのはごく一部に過ぎないと。 この辺りは調査会社が出す有料レポートとか買えば、さらに数字でも検証できるんでしょうけど、どれもかなり高いのでちょっと割愛。 現場レベルの声だけでなく、もう少し違ったマクロな視点でも見てみましょう。もしHadoopの人気が急減しているのなら、主要なHadoopベンダーの動向にも影響しているはず。 そこでHadoop関連製品の大手、ClouderaとHortonworksの2社の動きをみてみました。 Hadoopブランドからの脱皮 色々調べる中で出てきたのは、ビッグデータの処理が従来のオンプレミスからクラウドに移行する流れが出てきているほか、AIの活用も増えてきていることで、2つとの相性が必ずしも良くないと言われるHadoopの存在感が徐々に薄れてきているということ。 さらにそうした中で、ClouderaとHortonworksが、これまで前面に打ち出してきたHadoop企業というブランドから脱皮しようとしている点です。 順を追って説明していきましょう。 調査大手のForresterは今年3月、「The cloud is disrupting Hadoop」(Hadoopを駆逐するクラウド化の流れ)という記事を発信。この中で著者のBrian Hopkins氏は、次のように述べています。 「より多くの企業がオンプレミスでHadoopを構築する複雑さを避け、クラウド化を進めている。そうなるにつれ彼らがHadoop以外の選択肢を探す流れも進むだろう。つまりHadoopベンダーは、収益源をオンプレミスからクラウドに移そうとするだろう」。 しかしそれは難しいとHopkins氏は考えているようです。 なぜなら保有データのセキュリティやガバナンスといった現状のHadoopの利点とされる項目は、どれもオンプレミスだからこそ。クラウド化とは矛盾してしまいます。 Hopkins氏はHadoopベンダーの関係者による話として、「もしわれわれがクラウドを本当に理解していたら、Hadoopは今のような仕組みにはなっていなかっただろう」というコメントも紹介しています。 こうした動きを踏まえて、Hopkins氏はこう予測しています。 ビッグデータ処理のクラウド化が進む中で、HadoopはAmazonやGoogle、IBMといったクラウド勢によるサービスに対抗できない。それに伴いClouderaやHortonworksなどのベンダーが、Hadoopブランドから離れる動きが次の2~3年で加速するだろうと。 クラウド化とAI化、どちらも難しく 少なくとも2019年までにはビッグデータ処理の大半がクラウド化する、という声もみられますが、そうした中で、Hadoopベンダーがブランディングを変えようとしている、という意見は先のHopkins氏だけではありません。 ITジャーナリストのArik Hesseldahl氏はCIO誌の記事にて、Clouderaがバズワードとしての旬が過ぎたHadoopから、機械学習プラットフォームとして脱皮しようとしていると主張。4月にニューヨーク証券取引所で上場を果たしたばかりの同社について、こう触れています。 「150ページに及ぶS-1上場申請書の中で、Clouderaは主要事業である”Hadoop”について14回しか触れていない。一方で”machine learning”という言葉は70回以上も繰り返している」。 確かにS-1上場申請書の冒頭で、自社を「データマネジメント及び機械学習、アナリティクスのプラットフォーム」と言及したのをはじめ、繰り返しこの単語を登場させています。 「しかしClouderaの主要事業は、疑いの余地なく依然としてHadoopだ」(Hesseldahl氏)。 また競合のHortonworksも同様の動きをみせているようです。4月3日付のForbes誌による記事の中で、2016年度の決算発表時の同社によるコメントが紹介されています。 「人工知能や機械学習など、ビッグデータ市場のトレンドとなる新技術への研究開発投資を一層強化していく」。 両社によるAI技術強化の取り組みはうまくいくのでしょうか?先のForbes誌の記事を書いたGil Press氏は、そうは考えていないようです。ForresterのHopkins氏による次のコメントを引用しています。 「Hadoopがクラウド向けに設計されていないのと同様に、ディープラーニングに求められる行列演算にも向いてない」。 クラウド勢がAIの活用に適した環境を整えている中で、Hadoopベンダーがこうした流れにキャッチアップするのは難しいといいます。 なぜHadoopが機械学習に最適ではないのかという点については、この記事とかこの記事とかが分かりやすかったですが、あまり技術的な方面に立ち入るとウソ書きそうなので割愛。 ここまでの流れをまとめると、 ・Hadoopの人気が衰えてきているとの声が出ている ・そもそも必要性のない企業が導入するケースが目立つほか、必要性があっても技術者の確保が難しい、という現場の声がある ・またマクロ的な流れとして、ビッグデータ界隈がクラウド化・AI化に進んでいるが、Hadoopがこの2つに適応するのは技術的な観点から難しい ということになります。

次のAIは常識を理解できるようになる、アメリカの軍事研究機関が予測

人工知能(AI)のテクノロジーは、現在の「第2の波」から「第3の波」へと移りつつある。 アメリカで軍事目的の新技術を開発・研究する機関、アメリカ国防高等研究計画局(DARPA)がこんな予測を明らかにしました。 まず「第1の波」とは、人間がAIに知識を細かく教え込む段階。また次の第2の波は、学習データを使って統計的に示唆を出すという、現在主流のAI手法です。 しかし第2の波のシステムによって分かることは、単に膨大な学習データを統計的に処理した結果であり、物事を理解しているわけではありません。 だからデータの質によっては、人間ではありえないような間違った判断を下してしまう場合もあります。 一方で今後主流になるという第3の波では、同じく学習データを処理する中で、その根底にある常識やルールを「理解」することが可能になるといいます。そのため、ほんの少しのデータだけでも学習が可能になる領域も出てくるそう。 今回の元ネタは、DARPAが公開したこちらの動画。話し手は、同機関のJohn Launchbury氏という人物。 https://www.youtube.com/watch?v=-O01G3tSYpU 15分ほどの動画ですが、面白かったのでゴリゴリ翻訳してみました。ちょっと全部訳すと長いので、第2の波の課題とは何か?第3の波によってどう解決できるのか?といった部分に絞って翻訳(5:00~)。 そもそも第2の波の仕組みとは? 第2の波のシステムでできることはとても限られています。一つの物事を抽象化した上で知見を引き出し、別の物事に応用するということはできません。 データの分類から始まり、その後の帰結を予測することはできるかもしれません。しかし物事の文脈を理解する能力はないのです。また物事を判断する能力も欠けています。 第2の波のシステムは何ができて、何ができないのか?この点については、もう少し深堀りする価値があるでしょう。そのためには、ちょっとした数学的な説明が役に立ちます。 多様体仮説(manifold hypothesis)と呼ばれる考え方があります。 多様体とは、幾何学における構造体です。多様体は、様々なデータがグルーピングされて一つの集合体となっている状態を指します。 私たちが自然界で起きる現象を分析しようとする時、データはこうした集合体の形をとっています。一つ例をご紹介しましょう。 ここに回転している球体があります。これは自然界から収集したデータを3次元で表したものです。 異なる様々なデータが一つに集まっています。あるものは糸状の形をしており、あるものはけば立ったスポンジのような形をしています。また中心のほうには、赤いオレンジの皮のような形をした2次元の物体が、表面上に張り付いています。 こうしたそれぞれの多様体、つまりそれぞれの集合体は異なる現象をあらわしています。AIシステムが物事を理解するには、これらを識別して分離する必要があるのです。 第1の波のシステムでは、この分離作業は難しいでしょう。たとえば「左上にある何々の形をした集合体」といった指示では正確に識別できません。 そのため第2の波では、異なる方法で分離させる必要があります。何をするかというと、空間そのものをいじることで、データの集合体を伸ばしたり圧縮したりするのです。 こちらが一例です。話を単純にするために、2次元であらわしました。青と赤の曲線があります。 それぞれの曲線は、異なる多様体をあらわしています。空間そのものをいじり、これらを圧縮したり伸ばしたりすることで、2つの多様体をきれいに分離させることができるのです。 これが、第2の波でできることです。 第2の波、実態は強力な統計処理 皆さんも聞いたことがあるかもしれないニューラルネットワークは、まさにこの伸縮と圧縮をするよう設計されています。 ニューラルネットワークによる働きは、とても神秘的で複雑にみえるかもしれません。しかし一つ秘密を明かすと、それはあくまで単なる強力なスプレッドシートに過ぎないということです。 ここに幾重にも重なっているレイヤーがあります。それぞれのレイヤーにて、データの計算を実施します。 最初のレイヤーから計算を始め、20番目のレイヤーまで順々に計算を実施するとしましょう。最後のレイヤーでの計算が終わると、異なる多様体の分離が完了するイメージです。 それぞれのレイヤーでの計算によって、データがある空間を伸ばしたりつぶしたりしながら、分離を進めていくのです。もちろん実際の作業は、さらに複雑です。高いスキルや膨大な手間がかかります。 こうした計算の末に、明らかに間違っている回答が出ることもあります。その場合は、正しい回答を導き出すために、データを少しずつ調整していきます。そうした作業を様々なデータ群に対して5万回から10万回も実施します。 そうして回を重ねるにつれ、パラメーターの精度が少しずつ良くなっていき、多様体の分離作業、つまりたとえば息子の顔から私の顔を分けるといった作業をより正確に実施できるようになるのです。 第1と第2の波、すでにDARPAも実用化 このように、この技術は仕組みがシンプルですが非常に強力です。DARPAでもよく活用されています。 たとえばネットワーク上でのサイバー攻撃の状況を把握するために、ネットワークの流れをリアルタイムかつ広範囲で監視するのに使います。 またWi-FiやBluetooth、GPSといったものの電波干渉を解消するためにも使っています。電話が数多くある空間の中で、いかに個々の端末の性能を最大限にしつつ、干渉を避けるかという用途です。 さらに第1と第2の波によるテクノロジーの両方を活用したプラットフォームを開発しました。防衛ミッションの常識をくつがえすほどのインパクトを持っています。 たとえば新型の船。人間による操縦がなくても、目的地へ向けて数カ月の間自動で航行できます。他の船舶による動きを把握することも可能です。 このようにAIテクノロジーは、非常に強力であり、防衛の世界でも大きな変化を起こしています。 第2の波の課題 ただ第2の波には課題もあります。完璧な技術ではないのです。 たとえばここに1枚の写真があります。キャプションには「野球のバットを握っている若い男の子」とあります。実際の人間であれば、このような言い回しはしないでしょう。 第2の波のシステムは、膨大な試行錯誤の末にこうした変なアウトプットを出したりするのです。確かに統計的な素晴らしい処理をしているのかもしれませんが、単体での信頼性は低いといえるでしょう。 もう一つ例があります。左側にパンダの写真があります。そして画像認識システムも正しく「パンダ」だと認識できている状態です。 ここでエンジニアが画像から特定のデータパターンを抽出して、スプレッドシート上で歪みを加えます。 その結果、出来た画像が右側です。人間の目には全く変わらないようにみえます。しかし画像認識システムは、「99%の確率でパンダではなく、テナガザルだ」と判定してしまいました。 また時間がたつにつれ分かってきた課題もあります。マイクロソフトが開発した学習型人工知能ボット「Tay」が一例でしょう。リリースから24時間で緊急停止する事態に陥ってしまいました。 当初の目的はTwitter上でユーザーたちと会話をすることでした。しかしTayは教えられたことを学習する能力が高かったばっかりに、故意に差別的な言葉を教え込むユーザーがあらわれました。 その結果、Tayは差別発言を連発するようになってしまったのです。こちらの画像は、私が見つけたツイートの中でも比較的マシなものです(「ヒトラーは間違っていない!」)。 このように学習し続けるシステムがある場合、元になるデータには非常に気をつける必要があることが浮き彫りになりました。 場合によっては悪意ある使われ方をすることもあるのです。これが第2の波の課題です。 次の第3の波でできることとは? こうしたAIの課題は、現状のようにスプレッドシートで実施するようなシンプルな計算手法を見直す必要があることを意味しています。ここで第3の波のテクノロジーが求められてくるわけです。 この第3の波は、文脈理解が中心になってくるでしょう。 そもそもこの世界では、現実世界を解釈するための説明モデルをシステムそのものが時間をかけて作り上げてきました。 いくつか例をご紹介したいと思います。 まずは膨大な計算を主とする第2の波が、画像を分類するとしましょう。猫の画像を与えれば、システムはそれが猫だと判別するでしょう。 もしこのシステムが話せるとしたら、「なぜ猫だと思うんだい?」という問いにこう答えるはずです。 「計算をした結果、猫である確率が最も高いと判定されました」と。 これでは十分な答えとはいえません。願わくば、「耳があって、前足があって、表面に毛がはえていて、他にも色々な特徴があるからですよ」くらいの回答は欲しいところです。 そのためには物事を理解したり、決断の要因を認識したりする能力をシステムに持たせる必要があります。ただ話はこれだけにとどまりません。 膨大な学習データが必要ない場合も 第2の波の特徴の一つとして、物事を学習するために膨大な量のデータを要するという点があります。 たとえば手書き文字を認識できるようにさせるためには5万個、場合によっては10万個もの例が必要になるでしょう。 もし私が自分の子供に文字を覚えさせるために、10万個も教えないといけないとしたらうんざりです。しかし実際には1個か2個で十分でしょう。人間による学習方法はそもそも異なるからです。 われわれは、同じように1個か2個の例だけで学習できるシステムの可能性を模索し始めています。手書き文字の認識がその一つです。それは次のようなやり方で可能になると考えています。 まず文字を書いている手の動きを認識できるモデルを作ります。次に「この手の動きの場合は”0”、こういう場合は”1”、またこんな場合は”2”だよ」という紐づけを実施します。 そして仮に、この文字を認識しろという課題が出たとしましょう。 その場合、様々なモデルを参照します。つまりすでに学習した「4」というモデルと、お題の文字がどれだけ似ているのか?「9」というモデルとはどれだけ似ているのか?という具合です。 その結果、どちらが正しいのかを決めることができるのです。 AIの第3の波は物事の背後にあるルールの理解が中心になると、われわれは考えています。このモデルは、ルールや常識を学び取った上で、現実世界を認識することができます。 物事を判断した上で、自ら決定を下すことも可能になるでしょう。さらにデータから得たことを抽象化することもできるようになるはずです。ただしこうしたシステムを作り上げるには、まだやらなくてはならないことが数多くあります。 ここで最後のまとめです。 DARPAとしては、AIを3つの波に分けて考えています。第1の波では、人間がシステムに知識を教え込む段階。まだまだ非常に重要な手法です。 第2の波は膨大なデータによって統計的に学習するやり方。現在のメインストリームの手法です。 しかしこれら2つのシステムには問題もあります。両方の良さを合わせる必要があります。またルールや常識の学習が可能になる第3の波がやってくるはずです。

Facebookによるチャットボット元年から早1年、結局これまでどうだったの?的まとめ

2016年のF8でFacebookがチャットボットのプラットフォームを発表して、企業がより簡単にサービスをリリースできるようになってから早1年。 チャットボット元年と呼ばれてから最初のF8が、4月18日と19日にカリフォルニア州サンノゼで開かれました。 今回の発表内容も含め、ここ1年のメッセンジャー上のチャットボットをめぐる動きをまとめてみました。 今ではメッセンジャーの月間アクティブユーザー数は12億人、稼働するボットの数は10万件にも上るそうですが、直近の評価はどうなんでしょうか? 鳴り物入りで発表も期待外れ? 「友人との会話のように、企業と個人がコミュニケーションを取ることができるようになる。これまでのようにアプリをインストールする手間もない」。 2016年4月のF8にて、ボットについてマーク・ザッカーバーグ氏はこうアピールしていました。 チャットボットによって、ユーザーは人と会話するようにサービス側とコミュニケーションできるようになる。誰もが慣れ親しんだチャットというインターフェースでサービスが完結するようになり、ウェブサイトやアプリに取って代わるようになる。そうした期待が一気に沸き起こりました。 確かに長い目でみればそうなのかもしれませんが、まだ少し時期が早すぎたのかもしれません。 発表から半年後の2016年11月、同社のデビッド・マーカス氏(メッセージング製品担当副社長)は、インタビューの中で初期にリリースされたボットを振り返り、「非常に悪い」(really bad)とコメントしています。 当時の時点でチャットボットの数は3万4000件にも上っていました。 ただし当初狙っていた水準には至っていませんでした。すでに体験されている方も多いでしょうが、チャットボットの質が、当初狙っていた『友人との会話』とは程遠かったのです。 「Facebookのいう『友人』の定義は広すぎるようだ。こんな友人とはとても付き合えない」。 ブロガーのVictor Luckerson氏は、4月18日付の記事「The Chatbot Revolution Is on Hold」(チャットボット革命は停滞)にて、こう皮肉っています。 彼の友人であるKateさんが、人気バンドのMaroon 5によるチャットボットとやりとりした際の様子です。何をたずねても「Hi Kate!」としか答えないMaroon 5とイラつくKateさん。 ボットの価値は会話ではない? 「アプリやウェブサイトも当初は質が低かった。これからさらに改善できる」と、Facebookのマーカス氏は去年11月の時点で話していました。 その後、Facebookはチャットボットの仕様変更に動き出します。2016年3月、従来のような会話形式ではなく、ユーザーによる回答を選択肢の中から選ばせるメニュー式の機能を開発者向けにリリースしたのです。 https://videopress.com/v/prkprUKp 現状の技術レベルに合わせた現実的な仕様でしたが、自然な会話の実現を期待していたメディアからは、失敗とみなす声が相次ぎました。チャットができない「チャットボット」など、ただのアプリではないかと。 「われわれは『チャットボット』という言葉を使ったことはない。あくまでボットだ。会話こそがボットの未来だという期待が先行しすぎた」。 先に触れたFacebookのマーカス氏は、今年のF8開催中にジャーナリストに対してこう語ったといいます。 その上でボットの位置づけについて、「アプリとも違う」と話しています。つまりアプリのような機能をユーザーが慣れ親しんでいるメッセンジャー上で実現するのが「ボット」、という考え方のようです。 開発者にとっては、Facebookという巨大プラットフォームで多くのユーザーにリーチできることに加え、膨大なユーザーデータを活用できるというメリットもあります。 またFacebookにとっては、ユーザーの滞在時間を上げることによって、マネタイズの機会を増やせるというわけです。 確かにこうした文脈の中で、今年のF8で発表されたボット関連の新機能は、ビジネス活用(特にBtoC)を促進するものが中心になっていました。 量から質重視に転換、ビジネス活用重視へ メッセンジャー製品を担当するStan Chudnovsky氏は、今年のF8にて次のように話しています。 「Facebookの目的は、数多くのボットをリリースすることではない。メッセンジャー上でのビジネスを成功に導くことだ」。 こうした文脈をふまえた上で、今回のF8で発表されたボット関連の主な新機能をみていきましょう。 ・Discovery チャットボットの検索機能。メッセンジャーアプリのホーム画面上に表示される「Discovery」タブから、お目当てのチャットボットを探すことができるようになるようです。アプリでいうアプリストアのような位置づけの機能が、チャットボットでも出てきた形です。 ・Chat Extensions メッセンジャー上のユーザー同士の会話を元に、文脈に合ったサービスを自動で表示する機能。すでに食品配達サービスのDelivery.comでテスト済みだとか。この場合ピザを注文するか?という選択肢が、会話の最中に表示されるというもの(ちょっとウザそう。。)。ほかにも対応サービスとして、サブカル系のトリビアを提供するTrivia Blastや音楽配信サービスのSpotify、ソーシャル投票サービスのSwellyなどが挙げられています。 ・Messenger Codes QRコードに近いイメージ。Messenger Codesを端末で表示すると、ドットやダッシュで丸く囲まれたユーザーのプロフィール写真があらわれます。それを他のユーザーがカメラで読み取ると、自動で友人に追加されるというもの。それは企業アカウントでも同じ。たとえばユーザーがあるカスタマーサービスボットのMessenger Codesを読み取れば、その場ですぐにやり取りを始められるという仕組みです。ボットの露出を増やすという意味では、Discoveryと通じる機能ですね。マーケティング活用の幅が広がりそうです。 テキストでやりとりするチャットボットが、今後自然な会話ができる水準にまでレベルアップして花開くのか?それともメニュー選択式の現状の仕様でそれなりの役割をみつけるのか?(中国のWeChatなんか結構そうですね)、もしくはGoogle Echoのような音声アシスタントが一般化するまでの過度期的な存在にとどまるのか?今後の動向をウォッチしていきたいところです。

リクルートによるAI活用のリアル、華やかさの裏に潜む試行錯誤

リクルートが人工知能(AI)関連の技術に力を入れています。 2015年には、リクルートホールディングスとして人工知能研究所を設立。米カーネギーメロン大学のトム・ミッチェル教授をはじめ、AI分野の世界的権威を招いて技術開発に乗り出しています。 さらにこのたびホールディングス傘下のグループ会社からもAI関連の取り組みが出てきました。 それが機械学習技術を活用した各種サービスのAPI群「A3RT」(アート)。リクルートテクノロジーズが3月にリリースしたソリューションです。 リクルートテクノロジーズは、数年前からAI関連のソリューションを開発し、グループ会社向けに展開。業務の効率化や付加価値の増大などに取り組んできました。 たとえば機械学習によって文章の誤字脱字を自動で検出できる機能や、画像検索機能などが一例です。 こうした機能を外部の企業や個人も使えるよう、リクルートテクノロジーズがAPIとして無料で一般公開したのがA3RT。 これによってAI関連のサービスを開発できるリソースがなくても、より手軽に各種のAIサービスを利用できるようになるというもの。現状公開されているAPIはこちらの6種類になります。 ・Proofreading API 文章の誤字脱字を検知するAPI。 ・Talk API チャットボットを作成するためのAPI。 ・Listing API リスト作成のためのAPI。Webサイトでのレコメンド機能やターゲティングメールなどに使える。 ・Image Influence API ある画像がどれだけユーザーに受け入れられるか、点数で表してくれるAPI。 ・Text Classification API 文章をカテゴリごとなどによって自動で分類できるAPI ・Text Suggest API ユーザーが入力した単語や文章に対して、次に続く適切な文章を表示してくれるAPI。 GoogleやMicrosoft、IBM、AmazonなどのITジャイアントが相次いで自社によるAI技術をAPIという形で一般公開する中、リクルートも同じ流れに乗り出した形です。 そもそもリクルートはなぜAI技術に力を入れているのか?どのような経緯でA3RTの開発や一般公開に至ったのか? 今回、丸の内にあるリクルートテクノロジーズさんのオフィスにお邪魔して、こういった点についてお話を伺ってきました! リクルート社内に眠る膨大なデータを活かせ、AI活用の原点 AIを含む新技術をいち早く取り入れ、リクルート全体に展開する役割を持つリクルートテクノロジーズ。今回話を聞いたのは、同社の石川信行氏(左)と白井祐典氏(共にITソリューション統括部ビッグデータ部)のお二人です。 石川氏はA3RTを発案して開発を主導。白井氏はA3RTの各種APIの中でも、画像解析関連の開発を手がけた人物です。 そもそもリクルートが人工知能、つまり機械学習を中心とするAI技術に注力するきっかけから聞いてみました。 「事の発端はデータ解析です。リクルートの各事業会社に眠るデータを使って、ビジネスに貢献しようという動きが5、6年前から始まっていたんです」(石川氏)。 従来のリクルートによる主な分析対象は、Web上での行動ログといった数値データが中心だったといいます。いわゆる構造データと呼ばれる類です。 しかし非構造データと呼ばれるテキストや画像、動画、音声などは、従来の技術では扱いが難しく、十分に活かすことができていませんでした。 美容や旅行、就職、住まいなどあらゆる領域でビジネスを展開するリクルートには、原稿や商品・店舗の画像、社員による営業日報など、膨大な非構造データが溜まっています。これらを整理・分析して何らかのビジネス価値を引き出すことが、長らく課題だったといいます。 「まずは画像の解析から始めよう、うまく解析できれば何か用途もあるはずだと考えました」(石川氏)。 こうして非構造データを活かしてビジネス貢献につなげるための取り組みが、石川氏主導によるボトムアップで始まりました。 まだいわゆる「AI」と呼ばれる機械学習技術が、今のように一般的になる前の話です。 難航する解析作業、効果的な手法もなく 当初の解析作業は難航したといいます。「ディープラーニングすら使っていませんでした。商用利用に堪えられるような、利用が多いフレームワークがなかったんです」(白井氏)。 石川氏「最初はスパースコーディングという特徴量抽出の手法を使って画像を判別しようとしましたが、精度はすごく低かったです。45%くらい。これじゃ人が見たほうが早いよねとなってしまいました(笑)」。 画像に映る物体を判別するためには、物体の特徴をうまく抽出することが必要。当初精度が上がらなかった主な要因は、その手法にあったといいます。 「SIFT特徴量などを用いた従来の手法では、何を特徴として抽出するか人が設定する必要がありました。たとえば『ヒゲがあって耳がここにあって輪郭はこうだったら猫です』みたいな。人が決めた特徴なのでバイアスがかかりやすく精度が上がりませんでした」(石川氏)。 ただ取り組みを始めて半年ほどたったころ、より優れた特徴量抽出の手法であるディープラーニングを一般に使える環境が整ってきます。 ディープラーニングを実装するためのフレームワーク「Caffe」が2014年に登場したのです。さらに実際にディープラーニングを動かすためのより安価な基盤が、クラウドなどで手に入るようになってきたことも活用を後押ししたといいます。 「ディープラーニングだと、画像に映る物体を一番よく表す特徴を勝手に抽出してくれます。人が介在しないので、飛躍的に精度が上がったんです。いよいよ実用で使えそうだと思いました」と石川氏は言います。 ディープラーニングの課題、学習データの用意が手間 とはいえディープラーニングを使った画像解析にも、難しい点が多々あります。まず直面した課題の一つが、AI施策につきまとう学習データの用意です。 ディープラーニングが「勝手に特徴量を抽出してくれる」といっても、そうなるためには、まず元となるデータを人がニューラルネットワークに入れ学習させる必要があります。 画像解析施策の第1号として選ばれた、ホットペッパービューティーでもそれは同じでした。 白井氏らは、ユーザーがネイル画像を閲覧すると、デザインや色が似ている他のネイル画像を表示してくれる機能を開発しようとしていました。 そのためにはユーザーが入力したネイル画像を認識できる判別モデルを開発する必要があり、それに向けたネイルの学習データが不可欠です。 同メディアを運営するリクルートライフスタイルには、当然ながらネイル画像が数多くありました。しかしそれらがデザインごとに適切に分類されていなかったため、そのまま学習データとして活用するとネイルの判別精度が非常に低くなってしまったといいます(18%程度)。 そこで学習データとして適した分類に整理し直すことになりました。約20人のメンバーで、約4万枚ものネイル画像を分類していったといいます。ネイルに詳しくない男性メンバーばかりでしたが、作業が終わるころには「ピーコック」と「マーブル」と「プッチ」の違いを即座に判別できてしまうエンジニア男性が誕生することに。 「ディープラーニングといっても、基本的に人が判別できる精度より高くなることはありません。人が用意した学習データが元になるので。より高い精度を求めるのであれば、データをきれいに整備しないといけないんです」(石川氏)。 実装した結果、成果はどうだったのでしょうか? 「類似のネイル画像を表示することによって、ユーザーの回遊率が上がりました。ただそれよりも画像データをビジネス価値につなげられるんだという認識を、リクルート内で広められたというのが大きいですね」(石川氏)。 AIへの過剰な期待、コミュニケーションで解消 リクルートグループ内でのAI施策導入を推進してきた石川氏と白井氏。技術的な部分以外で難しかった点を尋ねると、白井氏がこう答えました。 「一番難しいのは期待値の調整ですね。AIへの期待が高いがゆえに、事業からは高い精度を求められる。理想と現実はズレてくるので課題も多いです。ただ基本的なスタンスとしては、事業の『こうやりたい』に対して、全力で考えて実現するということですね」。 類似ネイル検索機能を開発した時は、週1回のペースで事業担当者との進捗確認会を実施。課題や現実的な実装範囲を共有しながら、ステップバイステップで進めたといいます。 白井氏「今でこそ少しノウハウが溜まってきたので、機械学習によってどれくらいの判別精度が見込めるか、ということが以前よりは事前に予測できるようになってきました。ただ当初は全然読めなかった。ということは事業担当者と一緒に試行錯誤していくしかない。毎週毎週ありのままの結果を共有しながら進めました」。 石川氏「今は『AI』という言葉がかなり一人歩きして魔法の技術のように言われているので、僕らはそこを否定していくというか、現実に引き戻す役割を担っていると思っています」。 A3RTとして結実したAI施策、一般公開の狙いとは? こうしてホットペッパービューティー以外の各種サービスでも、様々なAI機能が実装されていきました。 中古車情報サービス「カーセンサー」では、ユーザーが撮影した自動車画像から車種を判定する機能、婚活支援サービス「ゼクシィ縁結び」ではチャットボットによる顧客サポート機能、といった具合です。 石川氏らが社外での講演でこれらのサービスを紹介したところ、外部のエンジニアから「ぜひ使ってみたい」という要望が出てきたことが、API公開のきっかけだったといいます。 APIとして公開した狙いについて、石川氏は次のように話します。 「それぞれのAI機能について、使い方の提案・相談などのフィードバックを得たいと思っています。それを受けて新しいAPIを作って展開することもあるかもしれない。A3RTというプロダクト自体をより進化させていきたいという思いがあります」。 またより多くのユーザーが使えば使うほど、学習データがたまるため精度の向上も期待できるといいます。 ユーザーからのフィードバックはどのように得ているのでしょうか? 「Twitterはずっと見ています。あと問い合わせ画面経由や、講演の後に直接フィードバックをいただくこともありますね」(石川氏)。 3月の公開以来、APIの利用数は順調に伸びているとのこと。現状のユーザー層としては、法人よりも個人が比較的多いそうです。「コール数の多いAPIは日によって異なりますが、(チャットボットを作成できる)Talk APIの利用数が総じて多いですね」(石川氏)。 今後の方針、3つのポイント A3RTに含まれるAPIのラインナップは、今後も増えるといいます。ラインナップを決めるにあたって、基準のようなものはあるのでしょうか? 「リクルートの業務でよく使用されたことで洗練され始めた機能は出したいです。それといち早くユーザーのフィードバックを得たい、新しい技術も優先的に公開していきます。また3つ目の基準として、GoogleやAmazon、Microsoftさんなどが出しているAPIと差別化できるということも重要です。彼らと同じことをやって争う理由はないので。より多くのフィードバックを得るためにも、そこはむしろ避けたいです」(石川氏)。 そのためにはこんな方向性を想定しているそうです。 「汎用性を失わせて専門領域に特化したAPIにしたい。たとえば自動車の分類に特化したAPIといった具合です。また他のAPI群は基本的に課金モデルですが、A3RTは無課金というのもポイントですね」(石川氏)。 A3RTの一般公開によって、特別なリソースがなくても、誰もがAI機能をより手軽に使えるようになりました。いわゆる「AIの民主化」につながる動きであり、今後の動向が楽しみです。

Googleが新たな機械学習手法をテスト中、クラウドではなくスマホ上で学習実施

ユーザーのプライバシーを保護しつつ、いかにAIによってビッグデータを分析するか? Googleはこの課題の解決に向け、新たな機械学習モデルをテスト中だと発表しました。 従来はモバイル端末を使うユーザーによる行動データ、たとえば検索時に表示される予測キーワードの中からどれをクリックしたか等々、は同社のデータセンターに集約されていました。 そうしてクラウド上に一元化されたユーザーデータが、機械学習モデルによる分析の対象になっていたのです。 しかし行動データを一つの場所に集めておくということは、その分だけ個人が特定される可能性が増してしまいます。 仮にクラウド上のデータだけでは特定できなかったとしても、外部にある別のデータと照合することで、個人が判別できてしまう恐れも。実際にNetflixが以前そんなことになっていましたね。 Googleの新手法、学習データはクラウドに残さず 今回Googleが発表した手法は、機械学習を使った行動データの分析を、ユーザーのモバイル端末上で実施しようというもの。そして結果をGoogleのクラウド上に送信するわけですが、それは分析されたデータ丸ごとではなく、親モデルの改善に必要な分だけを抽出して送信するそうです。 つまり個別のユーザーによる行動データがクラウド上に丸々存在する、という事態を避けることができるようになるわけです。 この「Federated Learning」と呼ばれる一連の流れを図にしたものがこちら。 まず個々のユーザーがAndroid端末を使うことによって、行動データが発生。端末にダウンロードされている機械学習モデルがそれに最適化されます。 (A.)それぞれのユーザーによる行動データのうち、クラウド上にある親モデルの改善に必要な分だけが抽出・集約されます。 (B.)多くのユーザーから集約されたデータを「平均化」(averaged)する、という手順を繰り返した後に、 (C.)クラウド上の親モデルに適用します。 こうして多くのユーザーによる行動データを使って改善された親モデル。その結果は、すぐに個々の端末での利用に反映されるそうです。これまでのように、Googleがアップデート版をリリースするタイミングを待つ必要がなくなるわけです。 Federated Learningの適用先 GoogleはこのFederated Learningのテストとして、Android向けのキーボードアプリ「Gboard」で検証を進めているとのこと。 検索時に表示される予測キーワードのうち、どのキーワードがクリックされたのか?どんな文脈で検索されたのか?といった情報をクラウド上に集約して、親モデルによる予測精度を改善していくというもの。 実装するにあたっては、TensorFlowの簡易版を使っているとのこと。 ちなみに普通にスマホを使っている時に、こんなモデルをローカルでグルグルまわされたらたまったものではないですが、もちろんそこもちゃんと考慮されています。 Federated Learningが端末上で稼働するタイミングは、 ・端末が使われていない ・電源につながれている ・Wi-Fiにつながれている という条件を満たした時のみとのこと。 Federated Learningの課題 ただFederated Learningにも技術的な課題はあります。 従来の機械学習モデル、つまり学習データをクラウド上に集約するやり方であれば、 SGDのような最適化アルゴリズムを大規模データ上で一気に走らせることができます。 しかし各端末上で機械学習モデルを走らせるFederated Learningでは、処理があちこちに分散される上に、レイテンシが大きく処理能力も低くなる。さらにモデルを走らせることができるタイミングも限られてしまいます。 そこで解決策として、端末とクラウドとのやり取りの数を少なくするためのアルゴリズムを開発しているほか、アップロードされるデータを圧縮する技術も適用するとのことです。 Federated Learningによって、Googleの各種サービスの使い勝手がどう変わるのか楽しみですね。 ただGoogleによると、これまでの機械学習モデルを全て捨てて、Federated Learningを全面採用することはないとのこと。Gmailのように、学習元となるデータが最初からクラウドにあがっているサービスもあるためです。 ちなみにAppleも、Federated Learningと近い「Differential Privacy」という手法を2016年の開発者向けカンファレンス「WWDC」で発表しています。 プライバシーを保護しつつ、ビッグデータを分析する手法の開発については、各社ともに力を入れているようです。

こんな使い方もあった、チャットボットのユニークな活用事例集

ビジネスやテック系のニュースで、引き続きチャットボットが日々話題になっています。 こういうテクノロジー系のメディアをやっていると、つい目新しい部分、つまり「技術的にこんなこともできるようになった!」「この業界でもついにチャットボットを導入!」といった点に注目したくなってしまいます。 けれどもそもそもチャットボットは何らかのユーザーニーズを満たすための手段です。そうなると目新しい技術だけ騒いで終わりになってしまうのは、少し違う気もしてしまいます。ユーザーニーズを最も適切に満たす手段が、最も洗練された技術である必要は必ずしもないからです。 たとえばメルマガというチャネル。ネット黎明期からある古い情報発信手段ですが、検索技術が洗練され、SNSが登場した今になっても、存在感がますます増しています。メルマガにしか満たせないユーザーニーズ(関心の高い情報源による発信をタイムリーに確実に受け取りたい)があるからです。 チャットボットもまた同じかなと思います。まだぎこちないやりとりしかできないですが、うまく使えば効果は絶大なはず。「うまく使う」というのは、「自社のユーザーの悩み事は何か?」「それを解決するための手段とは?」という視点で、チャットボットを活用すること。 今回はチャットボットの事例集をお届け。特別な技術は使っていないけれども、ユーザーの課題解決を念頭に、絶妙なベネフィットを提供している施策例です。チャットボットの使い道は本当に多種多様だなと思わされます。 ■イヤな男をシャットダウン、女性の味方のチャットボット 最初の事例は、出会い系サイト向けのボット「Ghostbot」です。 出会い系サイトを使う女性にとって、悩みの一つがデリカシーのない男とのやりとり。自分が相手にされていないと感じると罵声を浴びせかけたり、ひいては卑猥な画像を送りつける輩もいたりします。こういうシチュエーションにも対処しないといけないとなると、出会い系サイトを使う女性にとってはストレスでしょう。 そんな時に役立つのがGhostbot。女性が「あ、この男ダメだ」と思った瞬間に、以下のような設定一つで相手とのやりとりをボットが代わりに担ってくれるというもの。 Ghostbotの役割は、相手との会話を自然に終わらせること。これ以上メールを続けたくないという旨をやんわりと伝えてくれるそう。Ghostbotのプロダクトデザイナーいわく、「会話を盛り下げて、エンゲージメントを下げる」よう設計されているとのこと。 出会い系サイトでのやりとりにおいて、ボットが自動で返信できるようにするためには、元となる学習データが必要です。そのためGhostbotの担当者は、ネット上にアップされている(さらされている?)出会い系でのやりとりをかき集めたといいます。 一例がByeFelipeというインスタグラムのアカウント。ここには出会い系で逆上した男どもによる、女性へ罵倒メッセージのキャプチャがアップされています(彼らもまさかこんな形でネット上にさらされるとは思っていなかったでしょう)。 面倒な会話を自分で終わらせなくてはいけない、もしくはブチっと切ってしまうとなると面倒ですが、あとはボットがやってくれると思えば気が楽になりそうです。 ■ AI弁護士、複雑な法的手続きが一瞬で 英BBCから「ネット界のロビンフット」と称された期待のスタートアップDoNotPay。同社は一般人では難しい様々な法的手続きを自動で担ってくれるチャットボットを提供しています。 創業者は若干20歳でスタンフォード大学に通うJoshua Browder氏。18歳の時に30枚以上の駐車違反切符をきられたことがDoNotPayを立ち上げたきっかけだったといいます。 交通違反切符は、適切に申請すれば取り消してもらえる可能性がありますが、必要な法的手続きを個人でやるのは至難の業。DoNotPayのチャットボットを使えば、いくつかの質問に答えるだけで、1分ほどで申請書が出来てしまいます。 DoNotPayによって取り消された違反切符は、イギリスだけでも約17万5000件(16年末時点)。金額にすると約5億6000万円に上るといいます。 現在は違反切符の取り消しだけでなく、遅延した飛行機や電車の補償請求、ホームレスの住宅申請、HIV患者への法的アドバイス、難民申請などにも対応しています。 根底にあるのは、複雑な法的手続きをチャットボットが肩代わりすることで、市民が本来受けられる権利を享受できるようにしようという考えです。 複雑で面倒な手続きを肩代わりするというスタイルは、今後チャットボットのあるあるパターンの一つになりそうです。 ■投票率を上げろ、面倒な有権者登録を肩代わり これも同じく面倒な作業を肩代わり系のチャットボットです。有権者登録をチャットボットがやってくれるというもの。 アメリカの大統領選挙に投票するには、各州のルールに則って有権者登録をする必要があります。ただこの手続きが非常に面倒らしく、投票率を下げる要因になっています。 たとえば2012年の大統領選挙では、有資格者のうち30%以上が有権者登録をしていなかったとのこと。さらに18~24歳の若年層に限ると、この割合はさらに上がるそう。 そこでFight for the FutureというNPOが制作したチャットボット”HelloVote”では、いくつかの質問に答えるだけで、1~2分で手続きを完了できるようになっています。 氏名や住所、生年月日、運転免許情報などの個人情報を入力することで、州の有権者データベースに登録される仕組みです(ただしオンラインでの登録を認めていない州もあるので、一部郵送などのステップが入る地域もあり)。 https://www.youtube.com/watch?v=iIRMXnIRwIM ターゲットはスマートフォンに慣れ親しんだ若年層。モバイルのテキストメッセージやFacebookメッセンジャー上にてチャットベースで手続きできるので、従来の書類手続きよりかなり敷居は下がりそうです。 ただ投票率を下げている要因には、手続きの煩雑さに加えて、費用の問題もあります。最大で約7000円の費用がかかる州もあるため、貧困層による投票率に悪影響を与えているよう。 チャットボットだけで全て解決というわけにはいかなそうですね。 ■有料購読の管理キャンセル 毎月費用がかかる有料サービスの管理って、地味に大変だったりしますよね。 通信サービスのオプションをキャンセルしたと思っていたけれども、実はできておらず毎月数百円引かれていた、なんてこともありがちです。 チャットボットのTruebillでは、銀行口座もしくはクレジットカード情報をもとに、Netflixやスマホの通信費、スポーツジムのメンバーシップといった有料サービスを抽出。一覧化して管理できることに加えて、キャンセルもボット上でできてしまいます。 ターゲット層は、お金の管理が苦手なルーズな人が主になってきそうです。となると、慣れ親しんだプラットフォーム(Facebookメッセンジャーなど)でチャットによって完結できるという手軽さは、非常に良さそうです。 ■ボットを通してユーザー調査 上記の事例とは少し毛色が違う施策です。 米デザインコンサル大手のIDEOは、ユーザー調査の手段としてチャットボットを活用。そこで得た知見を製品デザインに活かしているとのこと。 一例として挙げられているのが、日本の電機メーカーとの協業。2014年に運動する女性向けのウェアラブルデバイスとスマホアプリのデザインに携わったそう。ユーザーによる日々の行動をトラッキングして得たデータをもとに、フィットネスに関するアドバイスを提供するというもの。 ここで問題になってくるのが、ターゲット層(35~54歳のアメリカ人女性)はフィットネス向けのウェアラブルデバイスに何を求めるのか?という点。従来の男性向け製品のように、走行距離のようなデータの優劣を他のユーザーと競う、というベネフィットでは女性が満足できません。 そこで彼女たちのニーズを探るためのプロタイピングツールとして、IDEOはボットを開発。被験者の女性がランニング中に、様々なメッセージを送りました。 たとえば「素晴らしいワークアウトです。この調子でいきましょう」「1万歩まであと5分です」といった具合です。 ボットを通して彼女たちの反応を観察した結果、やはり男性とは違うニーズがみえてきました。フィットネスデータで優劣を競いたがる男性に対して、女性の場合は自身のアクティビティにまつわるストーリー全体をシェアしたい、という傾向があったそう。 たとえば疲れて途中でワークアウトをやめてしまった、甘い物に手を出してしまったなどの失敗談も含めて、コミュニケーション手段としてシェアしたがったとのこと。 ターゲットの反応をリアルタイムで吸い上げる手段として、チャットボットをうまく活用した事例といえるでしょう。 ■履歴書替わりにチャットボット 最後は、求職者がチャットボットによって自身の経歴をアピールした事例。チャットボットを通じて、採用担当者が彼女の経歴や実績を閲覧できるようにしたのです。「求職者に関する情報を知りたい」という企業側のニーズに応えた一例です。 ボットを作ったのは、サンフランシスコ在住のマーケター、Esther Crawfordさん。彼女はエンジニアではなく、HTMLやCSS、JSの基礎知識がある程度。そのためTextItのようなプログラミングなしで構築できるツールを使ってボットを作ったといいます。 求職者が自身の経歴をボットでアピールする斬新さが話題となり、2万4000件ものメッセージをやりとりするに至ったそう。その中にはFacebookやGoogle、Microsoftなどの大手も含まれていたといいます。 チャットボットが話題になり始めた旬な時期だっただけに、彼女のマーケターとしてのセンスやテクノロジーへの理解を強烈にアピールできた結果といえるでしょう。