事例を知る

事例を知る

AI時代、NVIDIAが当面は無敵と思える理由

最近の株式市場もAIブーム。その中で最も注目されている銘柄が米半導体メーカーNVIDIA(エヌビディア)。同社の株価もすごいことになっているが、最近では同社と提携する企業の株価も高騰する傾向にある(関連記事:AI相場“中核”、NVIDIA関連の「神通力」)。 果たしてNVIDIAは、このままAI時代の覇者として逃げ切ることになるのだろうか。日本法人のDeep Learning部長の井崎武士さんにお話を聞いた。(ITジャーナリスト・湯川鶴章) 2000個のCPUの計算を12個のGPUで実現 そもそもNVIDIAって、いつAI企業になったのだろう。ゲーム用半導体のメーカーと認識していたのは僕だけじゃないはず。 世界中のAIの研究者がNVIDIAのGPU(Graphics Processing Unit)に注目したのは2012年といわれる。Googleが2000個のCPU(Central Processing Unit)を使ってニューラルネットワークを構築し、YouTubeのサムネイル画像の中から猫の画像を認識させることに成功したが、それと同じ実験をスタンフォード大学のAndrew Ng(アンドリュー・エン)氏が、わずか12個のNVIDIA製GPUで再現した。大量のコンピューターを持たなくてもAIを作ることができることに気づいた世界中の研究者たちが、NVIDIAのGPUに飛びつき、AI研究が一気に加速したと言われている。 それまでのAI研究って、冬の時代だったと言われている。長年に渡ってどうしても超えられない山があったわけだが、急に冬の時代から抜け出せたのには3つの要因があるといわれている。1つには、Deep Learningという新しい手法が登場したこと。2つ目は、大量のデータがネット上に溢れ出したこと。そして最後の要因は、NVIDIA製GPU。NVIDIAのGPUのおかげで、AI研究・開発の低コスト化が進んだからだと言われている。 新しい手法と、それに必要な大量のデータ。そして、低コスト半導体で研究の裾野が一気に広がったことで、新たな技術、手法が次々と登場している。そしてその勢いは、今日でもまだ一向に減速しそうにない。 そういう意味で、NVIDIA製GPUの果たした功績は大きい。取材先の研究者に聞いても、半導体ハードウェアはNVIDIA一択だというような話が多い。NVIDIAはAI時代のハードウェアの覇権を握ったのだろうか? とはいうものの一方で、競合他社によるAIチップ開発のニュースが次々と出始めている。こうした動きを、NVIDIAはどう見ているのだろうか。 NVIDIAに待ったをかけるインテル 例えば、Intelは「Xeon Phi(ジーオン・ファイ)」の新バージョンをディープラーニングに最適だとして発表するなど、この半年ほどで猛烈な追撃を始めている。日本のAIベンチャーに話を聞いても、インテルからの営業が精力的になってきているという。 Intelと言えばパソコン全盛時代に、Microsoftとともに時代の覇権を握った半導体メーカー。技術力は半端ないはず。 Intelは、Xeon Phiの発表文の中で「128のノードのインフラを使って学習させたところGPUの50倍速かった」と、NVIDIAのGPUより優れていると書いている。NVIDIAは、早くも追いつかれてしまったのだろうか。 これに対してNVIDIA日本法人の井崎武士氏は「正式に説明文を出したのですが、インテルさんの発表の中で使われていたのはNVIDIAの2世代前のGPU。最新GPUではNVIDIAのほうが断然速いんです。インテルさんのハードウェア開発能力を持ってしても、まだわれわれには追いついていない状態なんです」と胸を張る。 とは言っても巨人Intelが本気を出し始めたわけだ。NVIDIAがいつまでも安泰というわけにはいかないだろう。 「そうかもしれませんが、ただ勝負は半導体というハードウェアだけの話ではないと思うんです。われわれはハードウェアとしてはGPUを持っていますが、そのGPUの性能を最大限利用できる開発環境としてCUDA(クーダ)というものを独自に用意しています。それが他社とは異なるところです」。 とは言ってもGPUの上に乗る言語として、OpenCLなどオープンソースの言語がある。 「業界標準フレームワークのOpenCLで実装するアプローチも当然あります。それは特に一般に流通するソフトウェアの互換性を保つためには有効に働きます。一方、研究で利用されるときには動く環境が決まっていることが多いため、より性能を出しやすい、そして使いやすい(開発サポートが手厚い)ものが選ばれます。われわれはOpenCLを一応はサポートしているのですが、それとは別に最大限性能を引き出してもらうためにCUDAを用意しています」。 CUDAはそんなに使いやすいのだろうか。 「ただCUDAという開発環境で誰でもDeep Learningを簡単に作れるかというと、CUDAを使いこなすのにもそれなりの能力が必要になってきます。なのでCUDAの上にDeep Learning用のライブラリ、GPUとのコミュニケーション用のライブラリなど、各種ライブラリを用意しています」 「それでも開発は簡単ではありません。なので、オープンソースのフレームワークが幾つか登場しています。例えばUCバークレーの『Caffe』、Facebookの『Torch』、日本のPreferred Networksが作った『Chainer』などがそうです。そうした主だったフレームワークの開発者とNVIDIAは緊密な関係にあり、われわれは積極的にフレームワーク開発のお手伝いをしています。どのフレームワークでもCPUと同じようにコードを書いて、『GPUを使う』という設定にするだけで、GPUを簡単に使うことができるようになっています」。 「こうしたところまで競合他社が環境を整えられているかというと、まだどこもできていません。われわれはこの数年、こういった開発環境の整備に注力してきました。ですので今から他社が参入してきても、すぐに追いつけるわけではありません。たとえハードウェアでNVIDIAと同様もしくは超える製品を作れたとしても、そうした開発環境まですぐに用意できるわけではないのです。なので当面は他社がそれほど脅威になるとは思っていません」と言う。 Googleも半導体を独自開発 インテルだけではない。GoogleやMicrosoftなども、NVIDIAに追いつき、追い越そうとしているという話が聞こえてくる。 Googleは新しくTPUと呼ばれる半導体を開発した。日経コンピュータの記事によると、TPUはディープラーニングのために開発されたASIC(Application Specific Integrated Circuit、特定用途向けIC)で、GPU(Graphic Processing Unit)やFPGA(Field Programmable Gate Array)といったディープラーニングの処理に使用する他の技術と比較して「消費電力当たりの性能は10倍」とGoogleのCEOが主張しているらしい。 これに対し井崎氏はこう解説する。「Googleさんが新しく開発したハードウェアTPUは、特化型の半導体なんです。Deep Learningが成熟してきて、『この問題はこのアルゴリズムで解ける』というようなフェーズに入ってくれば、特化型の半導体でもいいと思うんです。でも現状では、毎日2、3本のペースで新しい論文が出ています。新しい最適化の方法、新しいニューラルネットワークの形が、日々登場しています。そうした新しい知見に応じて、ハードウェアを常に更新していくというのは、大変なコストになります。すべてのAIを特化型半導体をベースに作るというのは、リスクが大き過ぎると思うんです」。その証拠にGoogleは、いまだにNVIDIAのGPUを購入し続けているようだ。用途が決まっているところには特化型を、まだまだ進化の最中のところにはNVIDIAのGPUを、ということなのだろう。 MicrosoftはFPGAに社運を賭ける Microsoftも動き出している。Microsoftが力を入れているのはFPGAと呼ばれるタイプの半導体だ。 今日(こんにち)のGPUは、実行するソフトウェアによって機能を自由に定義・変更できるプロセッサーというタイプの半導体。反対にGoogleのTPUなどのASICは、すべての機能が回路としてハードウェア上に焼かれていて、変更できないタイプの半導体。FPGAはちょうどASICとGPUの中間のような存在。ハード上の一部回路を書き換えることで機能変更が可能なタイプの半導体だ。 Wiredの記事によると、Microsoftは、そのFPGAに社運を賭けているという(関連記事:Microsoft Bets Its...

Facebookによるチャットボット元年から早1年、結局これまでどうだったの?的まとめ

2016年のF8でFacebookがチャットボットのプラットフォームを発表して、企業がより簡単にサービスをリリースできるようになってから早1年。 チャットボット元年と呼ばれてから最初のF8が、4月18日と19日にカリフォルニア州サンノゼで開かれました。 今回の発表内容も含め、ここ1年のメッセンジャー上のチャットボットをめぐる動きをまとめてみました。 今ではメッセンジャーの月間アクティブユーザー数は12億人、稼働するボットの数は10万件にも上るそうですが、直近の評価はどうなんでしょうか? 鳴り物入りで発表も期待外れ? 「友人との会話のように、企業と個人がコミュニケーションを取ることができるようになる。これまでのようにアプリをインストールする手間もない」。 2016年4月のF8にて、ボットについてマーク・ザッカーバーグ氏はこうアピールしていました。 チャットボットによって、ユーザーは人と会話するようにサービス側とコミュニケーションできるようになる。誰もが慣れ親しんだチャットというインターフェースでサービスが完結するようになり、ウェブサイトやアプリに取って代わるようになる。そうした期待が一気に沸き起こりました。 確かに長い目でみればそうなのかもしれませんが、まだ少し時期が早すぎたのかもしれません。 発表から半年後の2016年11月、同社のデビッド・マーカス氏(メッセージング製品担当副社長)は、インタビューの中で初期にリリースされたボットを振り返り、「非常に悪い」(really bad)とコメントしています。 当時の時点でチャットボットの数は3万4000件にも上っていました。 ただし当初狙っていた水準には至っていませんでした。すでに体験されている方も多いでしょうが、チャットボットの質が、当初狙っていた『友人との会話』とは程遠かったのです。 「Facebookのいう『友人』の定義は広すぎるようだ。こんな友人とはとても付き合えない」。 ブロガーのVictor Luckerson氏は、4月18日付の記事「The Chatbot Revolution Is on Hold」(チャットボット革命は停滞)にて、こう皮肉っています。 彼の友人であるKateさんが、人気バンドのMaroon 5によるチャットボットとやりとりした際の様子です。何をたずねても「Hi Kate!」としか答えないMaroon 5とイラつくKateさん。 ボットの価値は会話ではない? 「アプリやウェブサイトも当初は質が低かった。これからさらに改善できる」と、Facebookのマーカス氏は去年11月の時点で話していました。 その後、Facebookはチャットボットの仕様変更に動き出します。2016年3月、従来のような会話形式ではなく、ユーザーによる回答を選択肢の中から選ばせるメニュー式の機能を開発者向けにリリースしたのです。 https://videopress.com/v/prkprUKp 現状の技術レベルに合わせた現実的な仕様でしたが、自然な会話の実現を期待していたメディアからは、失敗とみなす声が相次ぎました。チャットができない「チャットボット」など、ただのアプリではないかと。 「われわれは『チャットボット』という言葉を使ったことはない。あくまでボットだ。会話こそがボットの未来だという期待が先行しすぎた」。 先に触れたFacebookのマーカス氏は、今年のF8開催中にジャーナリストに対してこう語ったといいます。 その上でボットの位置づけについて、「アプリとも違う」と話しています。つまりアプリのような機能をユーザーが慣れ親しんでいるメッセンジャー上で実現するのが「ボット」、という考え方のようです。 開発者にとっては、Facebookという巨大プラットフォームで多くのユーザーにリーチできることに加え、膨大なユーザーデータを活用できるというメリットもあります。 またFacebookにとっては、ユーザーの滞在時間を上げることによって、マネタイズの機会を増やせるというわけです。 確かにこうした文脈の中で、今年のF8で発表されたボット関連の新機能は、ビジネス活用(特にBtoC)を促進するものが中心になっていました。 量から質重視に転換、ビジネス活用重視へ メッセンジャー製品を担当するStan Chudnovsky氏は、今年のF8にて次のように話しています。 「Facebookの目的は、数多くのボットをリリースすることではない。メッセンジャー上でのビジネスを成功に導くことだ」。 こうした文脈をふまえた上で、今回のF8で発表されたボット関連の主な新機能をみていきましょう。 ・Discovery チャットボットの検索機能。メッセンジャーアプリのホーム画面上に表示される「Discovery」タブから、お目当てのチャットボットを探すことができるようになるようです。アプリでいうアプリストアのような位置づけの機能が、チャットボットでも出てきた形です。 ・Chat Extensions メッセンジャー上のユーザー同士の会話を元に、文脈に合ったサービスを自動で表示する機能。すでに食品配達サービスのDelivery.comでテスト済みだとか。この場合ピザを注文するか?という選択肢が、会話の最中に表示されるというもの(ちょっとウザそう。。)。ほかにも対応サービスとして、サブカル系のトリビアを提供するTrivia Blastや音楽配信サービスのSpotify、ソーシャル投票サービスのSwellyなどが挙げられています。 ・Messenger Codes QRコードに近いイメージ。Messenger Codesを端末で表示すると、ドットやダッシュで丸く囲まれたユーザーのプロフィール写真があらわれます。それを他のユーザーがカメラで読み取ると、自動で友人に追加されるというもの。それは企業アカウントでも同じ。たとえばユーザーがあるカスタマーサービスボットのMessenger Codesを読み取れば、その場ですぐにやり取りを始められるという仕組みです。ボットの露出を増やすという意味では、Discoveryと通じる機能ですね。マーケティング活用の幅が広がりそうです。 テキストでやりとりするチャットボットが、今後自然な会話ができる水準にまでレベルアップして花開くのか?それともメニュー選択式の現状の仕様でそれなりの役割をみつけるのか?(中国のWeChatなんか結構そうですね)、もしくはGoogle Echoのような音声アシスタントが一般化するまでの過度期的な存在にとどまるのか?今後の動向をウォッチしていきたいところです。

IBMビッグデータ専門家のいう「Hadoopの人気減が著しい」はどういうことか?

「2016年のビッグデータ界隈におけるHadoopの人気減が著しい。私の想定以上だ」。 IBMでビッグデータエヴァンジェリストを務めるJames Kobielus氏が、2016年のビッグデータ界隈を振り返って述べた言葉が話題になりました。 KDnuggetsというIT系メディアサイトに掲載されたこの記事にて、Kobielus氏はさらに次のように話しています。 「(Hadoopの中核となる分散処理フレームワークの)MapReduceや(Hadoop上の分散データベースの)HBase、さらに(分散処理ファイルシステムの)HDFSでさえ、データサイエンティストにとって重要ではなくなってくるだろう」。 つまりHadoopの3つの基礎構成要素のいずれについても、活用が減ってくるというのです。 一時はビッグデータ処理の本命として、もてはやされたHadoop。Kobielus氏によるこのコメントを受けて、「Hadoopはダメだ」派と「いや、そんなことはない」派のそれぞれが、相次いでブログ記事を発信する事態にもなりました。 実際のところHadoopの活用状況はどうなのか?Kobielus氏による発言の真意は別として、ちょっと整理してみました。 Hadoopは必要、ごく一部の企業にとっては Kobielus氏のコメントを受けて書かれた記事の中で、特に反響の大きかったのがこちら。Innovation EnterpriseというBtoB向けITメディアで編集長を務めるGeorge Hill氏によるもの。「Hadoopはダメだ」派です。 Hadoopに関する調査データなどを示した上で、Hadoopを使ったビッグデータ処理への需要はあるにはあるが、企業がうまく使いこなせていない、と結論づけています。具体的には、 ・Hadoop関連の求人は2016年までの18か月間で43%増えているが、使いこなせる技術者が育っていない ・そもそもHadoopが必要になるだけのデータ量を抱える企業はごく一部。多くが2~10TB程度の少ないデータ量でHadoopを使おうとしている。 とのこと。 Richard Jacksonというビッグデータ領域のディレクターも、この意見に加勢しています。 彼によると、GoogleやFacebook、Yahooのような企業でない限り、そもそもHadoopを使う必要性もなければ、扱える専門家の確保も難しいだろうとのこと。 イギリスで活動するJackson氏は、企業が保有するデータ量の傾向について、次のように語っています。 「アメリカのテック企業は、世界の他の企業も自分たちと同様の規模のデータを有すると勘違いしている。過去数年でわれわれが関わったヨーロッパの多くの企業は、せいぜい1~20TB規模。100TB以上のデータを持っているケースはめったにない」。 こういった意見に対して、「大企業に限れば、銀行や通信、製造、保険などの分野で導入が急増している!」という反対派の記事もあったりします。 ただよくよく著者の経歴を見ると、主要Hadoopベンダーの一つHortonworksの中の人なので、ちょっとポジショントークっぽいなとも思ったり。 少なくともこれら現場レベルの人たちによる記事だけをみると、こういうことのようです。 つまり大量のデータを抱えており、かつHadoopを使いこなせるだけの人的・金銭的リソースがある企業なら使う価値があるが、そんなのはごく一部に過ぎないと。 この辺りは調査会社が出す有料レポートとか買えば、さらに数字でも検証できるんでしょうけど、どれもかなり高いのでちょっと割愛。 現場レベルの声だけでなく、もう少し違ったマクロな視点でも見てみましょう。もしHadoopの人気が急減しているのなら、主要なHadoopベンダーの動向にも影響しているはず。 そこでHadoop関連製品の大手、ClouderaとHortonworksの2社の動きをみてみました。 Hadoopブランドからの脱皮 色々調べる中で出てきたのは、ビッグデータの処理が従来のオンプレミスからクラウドに移行する流れが出てきているほか、AIの活用も増えてきていることで、2つとの相性が必ずしも良くないと言われるHadoopの存在感が徐々に薄れてきているということ。 さらにそうした中で、ClouderaとHortonworksが、これまで前面に打ち出してきたHadoop企業というブランドから脱皮しようとしている点です。 順を追って説明していきましょう。 調査大手のForresterは今年3月、「The cloud is disrupting Hadoop」(Hadoopを駆逐するクラウド化の流れ)という記事を発信。この中で著者のBrian Hopkins氏は、次のように述べています。 「より多くの企業がオンプレミスでHadoopを構築する複雑さを避け、クラウド化を進めている。そうなるにつれ彼らがHadoop以外の選択肢を探す流れも進むだろう。つまりHadoopベンダーは、収益源をオンプレミスからクラウドに移そうとするだろう」。 しかしそれは難しいとHopkins氏は考えているようです。 なぜなら保有データのセキュリティやガバナンスといった現状のHadoopの利点とされる項目は、どれもオンプレミスだからこそ。クラウド化とは矛盾してしまいます。 Hopkins氏はHadoopベンダーの関係者による話として、「もしわれわれがクラウドを本当に理解していたら、Hadoopは今のような仕組みにはなっていなかっただろう」というコメントも紹介しています。 こうした動きを踏まえて、Hopkins氏はこう予測しています。 ビッグデータ処理のクラウド化が進む中で、HadoopはAmazonやGoogle、IBMといったクラウド勢によるサービスに対抗できない。それに伴いClouderaやHortonworksなどのベンダーが、Hadoopブランドから離れる動きが次の2~3年で加速するだろうと。 クラウド化とAI化、どちらも難しく 少なくとも2019年までにはビッグデータ処理の大半がクラウド化する、という声もみられますが、そうした中で、Hadoopベンダーがブランディングを変えようとしている、という意見は先のHopkins氏だけではありません。 ITジャーナリストのArik Hesseldahl氏はCIO誌の記事にて、Clouderaがバズワードとしての旬が過ぎたHadoopから、機械学習プラットフォームとして脱皮しようとしていると主張。4月にニューヨーク証券取引所で上場を果たしたばかりの同社について、こう触れています。 「150ページに及ぶS-1上場申請書の中で、Clouderaは主要事業である”Hadoop”について14回しか触れていない。一方で”machine learning”という言葉は70回以上も繰り返している」。 確かにS-1上場申請書の冒頭で、自社を「データマネジメント及び機械学習、アナリティクスのプラットフォーム」と言及したのをはじめ、繰り返しこの単語を登場させています。 「しかしClouderaの主要事業は、疑いの余地なく依然としてHadoopだ」(Hesseldahl氏)。 また競合のHortonworksも同様の動きをみせているようです。4月3日付のForbes誌による記事の中で、2016年度の決算発表時の同社によるコメントが紹介されています。 「人工知能や機械学習など、ビッグデータ市場のトレンドとなる新技術への研究開発投資を一層強化していく」。 両社によるAI技術強化の取り組みはうまくいくのでしょうか?先のForbes誌の記事を書いたGil Press氏は、そうは考えていないようです。ForresterのHopkins氏による次のコメントを引用しています。 「Hadoopがクラウド向けに設計されていないのと同様に、ディープラーニングに求められる行列演算にも向いてない」。 クラウド勢がAIの活用に適した環境を整えている中で、Hadoopベンダーがこうした流れにキャッチアップするのは難しいといいます。 なぜHadoopが機械学習に最適ではないのかという点については、この記事とかこの記事とかが分かりやすかったですが、あまり技術的な方面に立ち入るとウソ書きそうなので割愛。 ここまでの流れをまとめると、 ・Hadoopの人気が衰えてきているとの声が出ている ・そもそも必要性のない企業が導入するケースが目立つほか、必要性があっても技術者の確保が難しい、という現場の声がある ・またマクロ的な流れとして、ビッグデータ界隈がクラウド化・AI化に進んでいるが、Hadoopがこの2つに適応するのは技術的な観点から難しい ということになります。

シリア難民が抱える心の傷、チャットボットで救えるか?

シリア内戦の戦禍を逃れるため、2014年からレバノンの首都ベイルートに住んでいる27歳のラカン・ゲバルという青年。 ゲバルは内戦によって家族を何人も失ったストレスで、重度の神経症に悩まされています。現在は、親を失ったシリア難民の子供たちが通う学校の教師として働いている彼。その学校の子供たちの多くも、ゲバルと同じ症状で苦しんでいるようです。 壮絶な体験によって出来てしまった心の傷をいやすため、ゲバルはメール経由で心理カウンセラーにかかっています。 カウンセラーによるアドバイスは、「今という瞬間にひたすら集中すること」。些細なことでも良いから、目の前の事に打ち込むことで、不安や心配を忘れることができるはず、とそのカウンセラーは言います。 ゲバルにとってこういったアドバイスは、時々腑に落ちないことがありつつも、概ね心の支えになっているようです。シリアから逃れてきた周囲の生徒たちにも、カウンセラーからのアドバイスを共有しているといいます。 チャットボットによる心理カウンセリング ゲバルを担当したカウンセラーの名前はKarim(カリム)。実はカリムは人間ではなく、サイコセラピー専門のチャットボット。開発元は、2014年にシリコンバレーで創業したX2AIというスタートアップです。 X2AIは、誰もが質の高い心理カウンセリングを利用できるようにすることを理念として、心理療法分野のチャットボット開発に取り組んでいます。 共同創業者の一人、マイケル・ロウズ氏は、過去に慢性的な健康障害を患ったことで、カウンセリングに通った経験を持つ人物。数ヶ月間通った末に、ロウズ氏はあることに気づいたといいます。 カウンセラーとロウズ氏の間で交わされる会話の多くは、定型的なもの。つまりいくつかのテンプレに沿ってカウンセリングが進められていたのです。 カウンセリングがある型に沿っているということは、機械によって自動化できる余地がある。こう考えたロウズ氏は、感情認識アルゴリズムを開発中だったユージン・バン氏と共同で、X2AIを立ち上げたといいます。 人ができない難民のケア、ボットで解決 元々アメリカでのサイコセラピー普及を視野に立ち上がったX2AIですが、需要はアメリカ国内にとどまりませんでした。 同社が創業した2014年は、ちょうどシリア内戦が深刻化していた時期。シリア難民たちの心のケアの必要性が叫ばれていました。 世界保健機関(WHO)と国際医療部隊(IMC)が共同出資した機関の調査によると、ヨルダンにあるザータリ難民キャンプに滞在するシリア難民の半数が、「自身の未来に絶望を感じている」と回答。 また過度の神経症や睡眠障害、号泣といった問題行動を一つ以上抱えている人の割合は、ヨルダン国内に避難するシリア難民の4分の3に上るといいます。 こうした精神疾患に苦しむシリア難民が多い一方で、適切なメンタルヘルスケアを受けることができた人の割合は、ザータリ難民キャンプでは13%にとどまります。 まさにシリア難民の心のケアが不可欠な状態です。 しかしそのためにはアラビア語が堪能で、かつ紛争地帯で働くことができるカウンセラーを数千人規模で確保する必要があるものの、そのようなことはほぼ不可能です。 そこでこの課題解決に向け、X2AIによるチャットボット「カリム」に期待が集まっています。AIカウンセラーであれば、ネックとなっていた現地での生活や安全の確保、給料の支払いなどを心配する必要がありません。しかもテキストのやり取りをするモバイル端末さえあれば、昼夜問わず膨大な数の患者に対応できます。   導入に向けた課題、信頼の獲得 しかし自身の生活や命が脅かされている難民たちのカウンセリングは、非常にデリケートな作業。乗り越えなくてはいけない課題もあります。 まずは彼らの信頼を獲得すること。チャットボットという未知のテクノロジーに対して心を開いてもらい、胸の内を語ってもらう必要があります。 2016年3月、シリコンバレーを拠点とする教育機関のシンギュラリティ大学らが、ベイルート周辺を訪問。現地の難民たちを対象にカリムの有効性をテストしました。 被験者は約60人のシリア難民たち。男性と中心とした幅広い年代を揃えました。まず彼らの多くは、テキストを通じたカウンセリングに乗り気ではなかったといいます。やり取りが政府やテロリストたちに監視されている可能性を恐れたからです。 またチャットボットという新しいテクノロジーを理解してもらうことも難しかったといいます。多くのシリア難民は、自分がやり取りしている相手が人間ではなく機械だということを信じられなかったそう。 さらに思わぬ落とし穴もありました。 X2AI創業者のロウズ氏がレバノンを訪問した時のこと。難民たちの中で、同社のチャットボットがあまり受け入れられていないことにロウズ氏は気づきました。原因を探るべく、現地の人たちへの聞き取り調査を進めていく中で、問題がチャットボットの名前にあることが分かったといいます。 当時のチャットボットの名前は、カリムではなく「エイズィズ」(Aziz)。アラビア語で「親愛なる」「最愛の」といった意味の言葉です。 実はこの単語の発音がイスラム国を表す「アイシス」(ISIS)と似ているため、聞き間違いでイスラム国のことだと勘違いされていたというのです。ロウズ氏は、チャットボットの名称をすぐさま現在のカリムに変更しました。 ボットによる感情の理解は可能か? 現地の人による信頼を獲得した上で、質の高いカウンセリングを提供することも当然ながら必須となります。 人間のセラピストであれば、患者の発言内容だけでなく、ボディランゲージや声のトーンなどから胸の内を探っていきます。 カリムもチャットボットとはいえ、実践のカウンセリングに投入するからには、同等のことができる必要があるでしょう。 X2AIの共同創業者バン氏によると、同社のボットは患者が打ったテキストのフレーズや言葉遣い、タイピング速度、文章の長さ、文体(能動態か受容態か)などの要素から感情を把握できるといいます。 そのアルゴリズムの詳細は非公開としているものの、人力のコーディングと機械学習によって最適化を進めているそうです。 さらにチャットボットの例に漏れず、場合によっては人間も介入します。 患者が自身を傷つけたり、他人に危害を加えそうだという明確なサインを検知した場合は、人間のサイコセラピストがボットに取って代わるといいます。 しかし人間による介入のタイミングをテキストから判断することは、簡単ではありません。文章の文脈を正しく理解する必要があるからです。 たとえば患者が「傷が出来てしまった」と発言したとして、それが紙でうっかり指を切ってしまったということであれば問題はありませんし、「もううんざりだ」というセリフも、ケーキを食べ過ぎたという文脈での発言であれば、流すことができます。 ただ上記のセリフは、文脈によっては人の生死にかかわる事態を指すことになる可能性もあるのです。 そのためX2AIによるボットは、患者の性格やそれまでのやり取りの内容といった幅広い文脈も考慮した上で、目の前のテキストを理解できるよう設計されているといいます。 そもそもチャットボットの活用は有効か? 患者の心の傷を癒すために、綿密に設計されているX2AIによるチャットボット。 しかしチャットボットによる心理カウンセリングという領域は、まだまだ新しい分野なだけに、根本的な懸念もつきまといます。 つまりX2AIに限らず、そもそもチャットボットはカウンセリング領域で効果を発揮することができるのか?という疑問です。 スタンフォード大学で精神医学教授を務めるデビッド・スピーゲル氏は、一定の効果は期待できるとの考えを示しています。 ボットであれば、患者とのやり取りの全てを記憶するだけでなく、膨大な評価基準に沿って診断を下すことができます。生身の人間にとっては難しい作業です。 ただスピーゲル氏は、ボットによる決定的な治癒は難しいとみています。そう考える要因の一つが、ボットと人間による信頼関係の構築です。 カウンセリングでは、患者がカウンセラーを信頼して自身をさらけ出す「転移」と呼ばれる現象があります。患者の精神状態の回復に向けて必須のステップです。 果たして機械であるボットがこの「転移」を起こせるかどうかについて、スピーゲル氏は懐疑的なようです。 心理カウンセリングでの活用を巡った模索が続くチャットボット。現在はレバノンの厚生省や国連も、カリムを使ったパイロットプログラムの実施に興味を示しており、今後さらに一般的になることも予想されます。 いずれにしても、心理カウンセリングの現場におけるチャットボットの使い方が明確になるのは、もう少し先の話になりそうです。 ※参照情報 ・THE CHATBOT WILL SEE YOU NOW ・X2AI ・How AI and 3D printing is set to transform the lives of refugees ・NY Jets wide receiver Brandon Marshall envisions...

レジ不要のAmazon Go、特許書類からみるその仕組み

店内での会計はなし。食料品などの商品を手に取って外に出れば買い物が済むという次世代型スーパーのAmazon Go。案の定「人の雇用への影響は?」という視点での議論が広がり始めていますが、それを横目でみつつ今回はその仕組みについて紹介していきたいと思います。 店内で買い物客が商品をバッグや買い物かごに入れる。それをシステムが自動で検知し、買い物客のAmazonアカウントへ請求。だから店内での会計は不要。買い物客に必要なのは、AmazonのアカウントとAmazon Goアプリが搭載されたスマートフォンだけ、というのは改めてすごい仕組みですね。 https://www.youtube.com/watch?v=NrmMk1Myrxc このAmazon Goを実現する仕組みとはどのようなものなのでしょうか? Amazonによるプレスリリースでは、「自動運転に活用されている技術と同様」とされています。 つまりコンピューターによる視覚を実現するコンピュータービジョン、複数のセンサで得られた情報を統合・処理するセンサ・フュージョン、そしてディープラーニング(深層学習)です。 今回は同社による特許書類を参考にしながら、もう少しだけ細かい仕組みを紹介したいと思います。 ただ最初に注意しておくと、2014年に公開されたこの書類に書かれた仕組みがそのままAmazon Goとして実現されているわけではありません。 たとえば同ドキュメントでは、棚からの商品の出し入れを検知するためにRFID(無線認証)を活用とありますが、GeekWireによると実際には活用されなかったとのこと。 ただ大枠として参考になるのではないかと思います。 複数の判断材料で商品を検知 まず客が棚から商品を取る、もしくは戻すという行為は、どのように検知されているのでしょうか? ドキュメントによると、まず棚に手を入れる直前と、棚から手を抜いた直後の手元の画像が撮影されます。棚に手を入れる前後の画像を比べることで、商品を新たに手にしたのか、もしくは戻したのかを識別するようです。 また客が手に取った商品内容の識別方法ですが、基本的には商品がある棚の位置と在庫情報によって導き出すといいます。その場で商品を撮影してその画像を処理するよりも、迅速に判別できるため、という旨の文章が記載されていました。 ただ上記プロセスの補助として、場合によっては商品画像の処理も行うそう。 しかしもちろんこの方法だけでは、識別しきれない時もあるでしょう。その際の対処法について、こう記載されています。 「仮に手に取られた商品がケチャップなのかマスタードなのか、識別できなかったとする。その場合は客による過去の購入履歴と、すでに手に取られた商品のリストを活用する。例えば仮に客が過去に手に取った、もしくは購入した商品としてケチャップしかなかったとする。その場合その情報は、”今回手に取られた商品はケチャップである可能性が高い”と判断するための材料の一つとして使われる」 さらに画像処理に加えて、商品の重さも判断材料の一つとして考慮する場合があるとのこと。複数の判断材料を組み合わせることで、商品検知の精度を上げているようです。 Amazon Goは、現在Amazonの従業員向けに米シアトルで試験的に営業中。2017年はじめには一般向けに開店予定とのことです。

「小学2〜3年生レベル」の人工知能、North Faceの商品リコメンドサービスを使ってみた

何か商品を買う時に、自分に一番合った物をカタログ情報だけで選ぶのって結構難しかったりします。 たとえば冷蔵庫。「4人家族用のサイズで、電気代がそこそこ安く抑えられて、野菜や魚を新鮮に保存できるやつが欲しい!」みたいな希望を満たす商品を探そうとしても、冷蔵庫の容量や機能名、消費電力量といった情報から、最適な品番を選ぶのは至難の技。 結局自分だけでは選びきれず、家電量販店の店員などに相談してオススメされた商品を買うっていうパターンは多いと思います。 今回紹介するアウトドアブランドのThe North Faceは、そうした商品選択に悩む消費者の課題をAI技術によって解消しようとしています。 適切なアウトドア製品を選ぶのも、また難しい作業だったりします。たとえばアウターを選ぶにしても、防水性や防風性、耐久性、重さ、通気性など、商品特徴となる項目がたくさんある中で、着るシチュエーションや現地の気温などを考慮しながら、選ばないといけません。 商品に詳しくてアウトドアの経験も豊富な人なら大丈夫かもしれませんが、初心者だとまずムリそうです。 そこでThe North Faceが2016年4月にリリースしたのが、商品リコメンドサービス。着用する時期や場所、男性用か女性用かといったいくつかの質問に答えるだけで、最適な商品群を表示してくれるというもの。 裏側の技術はIBMのWatson 今回のサービスを実現している技術が、IBMによるコグニティブ・テクノロジー「Watson」です。 Watsonとは、テキストや画像のような非構造化データを分析することで、推論や予測による答えを導き出すためのテクノロジー・プラットフォーム。分析対象となるデータが増えるほど、機械学習によって学習して賢くなっていく点が特長です。 The North Faceは、約12ヶ月かけてWatsonを活用したこのサービスを開発したといいます。ショッピングアシスタントとしてのWatson。使い心地はどうなんでしょうか? 店員と会話しているかのような使い勝手 まずは専用サイトにアクセス。一つ目の質問は「ジャケットはいつどこで着るの?」というもの。試しに「Commuting in Tokyo」(東京での通勤時に)と入れてみました。ちなみ「I want to use it when commuting in Tokyo」「I’ll use it when commuting in Tokyo」みたいな文章で入力しても理解してくれました。 次の質問は「どの時期に着るの?」。この時の入力は、「December」(12月)といった特定の時期だけでなく、「from next...

年末商戦に向けたチャットボットが相次いでリリース、アメリカ小売業の現状

年末商戦に向けて、アメリカの小売各社が相次いでチャットボットをリリースしています。 Facebookのメッセンジャー上でいくつかの質問に答えることで、適切なプレゼントやお店を教えてくれるといったギフトガイド系が主です。 一人一人の顧客のニーズにきめ細かく応えるだけでなく、会話内容をマーケティングデータとして蓄積していく、といった狙いもあるようです。 米Facebook社が、Facebookメッセンジャー上で動作するチャットボットを開発するためのプラットフォームを発表したのが2016年4月。これを活用したサービスが、早速年末商戦の中で出てきた形ですね。 ニューヨークのチャットボットベンチャーであるSnapsと組んでボットを制作した百貨店大手ノードストロームや、IBMのワトソンをベースに作ったモール・オブ・アメリカなど多種多様。 今回はノードストロームによるチャットボットをご紹介。さらに背景として、アメリカでのチャットボット活用状況にも触れてみたいと思います。 チャットボットへの注目が集まっているとはいえ、アメリカでの認知率はまだ5人に1人。普及に向けた課題もありそうです。 満を持して公開、ノードストロームのチャットボット 全米最大のデパートチェーンであるノードストロームは、同社初のチャットボットを12月にリリースしました。 チャットボットが話題になり始めた当初から、彼らによるリリースは確実視されていたので、満を持しての公開といった形で話題になっています(ただし12月24日までの期間限定)。 その内容は、クリスマスギフトの選定をヘルプするというもの。プレゼントする相手に関するいくつかの質問に答えることで、適切な商品を表示してくれるそう。実際に使ってみました。 実際の使用感 Facebookのメッセンジャーにて、ノードストロームのチャットボットとの対話画面を表示。まず聞かれるのはボットと人間のスタッフ、どちらとやり取りするか。 ボットでは対応しきれない、きめ細かい質問は人間が答えるという形で、チャットボットの作りとしては極めてスタンダード。 チャットボットとの対話を選択して、最初に出てくる質問は「その人は週末にどんなことをするの?」というもの。選択肢は「コミコンに行く」「パーティーを開く」「音楽のプレイリストを作る」「街歩きをする」の4つ。 一応特定の知り合いを自分の中で想定しつつ、答えてみました。 「街歩きをする」を選ぶと、次は「その人の好きなレストランは?」という質問。表示される選択肢は「有名なシェフがいること」「ユニークな食事」「斬新な食事」「世界の料理を楽しめる」。 ざっくりしてて答えづらいなと思いつつ、「ユニークな食事」を選択。すると次は「その人らしい絵文字はどれ?」という質問に対して、表示される絵文字がこちら。 写真撮影が好きな人、という設定で試しにカメラを選んでみました。 次の質問は「いくらでもお金があった場合、選ぶバーケーション先は?」。選択肢は「バハマ」「セドナのスパ」「エベレスト」「予想できない」。登山が好きな人という設定で、「エベレスト」にしたところ、次のような商品が表示されました。当然すべてノードストロームで売っている商品です。 ・スマホの自撮り棒 ・フェイクタトゥー ・LOMO製のトイカメラ ・ナイロン製のデイパック カメラと山登りが趣味な人の好みが、うっすら反映されているようには見えます。ただ試す前から分かっていたことですが、その人特有の細かなニーズをすくい取る水準とはほど遠いです。 今回のチャットボットは、あくまでざっくりとした提案にとどまりそう。 ただ現時点でチャットボットを使うくらい情報感度の高い人は、自分で苦もなく情報探索できそうなので、現状の精度だと中途半端な感じは否めません。 とはいえ、あまりにドンピシャな答えをボットが返してしまうと、気味悪く感じる人も出てくるであろう点が、チャットボットの難しいところですね。 チャットボットへの抵抗感解消に向けて このチャットボットへの抵抗感をいかに解消するかは、今後の課題の一つでしょう。 マーケティングエージェンシーのDigitasなどがアメリカで実施した調査によると、年収が高い人ほど、チャットボットに抵抗感を示す割合が高くなるとのこと。 「チャットボットが自分との過去のやり取りを覚えていると、抵抗を感じる」と答えた割合は、年収10万ドル以上で28%だったのに対して、5万ドル以下では20%にとどまっています。 年収が高くなるほど自分の個人情報への意識が高くなる傾向があり、ひいてはそれがチャットボットへの抵抗感につながっているといったことのようです。 すでに大手ブランドが相次いでチャットボットをリリースし、Facebook上で稼働するチャットボットは3万件以上に上るとはいえ、アメリカでの認知率はまだ5人に1人にとどまります。 今後のさらなる普及に向けてどうするべきか?同調査を実施したDigitasのJill Sherman氏はこう述べています。 「スマートフォンユーザーは、より少ないアプリで多くの作業を完結させたがっている。チャットボットはそれを可能にする手段だ。チャットボットを通した買い物は、友達に質問したりウェブ上で探すのと同じくらい簡単だ、ということを消費者に納得させる必要がある」。

チャットボットで難民申請、AI弁護士のDoNotPayが新機能、ネットでは非難の声も

英BBCから「ネット界のロビンフット」と称された期待のスタートアップ、DoNotPay。一般人では難しい様々な法的手続きを自動で担ってくれるチャットボットで、話題になってきました。 もともとは駐車違反の罰金取り消し申請をしてくれる機能から始まった同社のボットですが、その後遅延した飛行機や電車の補償請求、ホームレスの住宅申請、HIV患者への法的アドバイスなどへジャンルを広げています(筆者もいくつか試してみましたが、30秒ほどで入力済みの各種申請書が出てきます)。 一貫しているのは、テクノロジーの力によって人権を擁護していこうという思想。煩雑な法的手続きをチャットボットが肩代わりすることで、市民が本来受けられる権利を享受できるようにしようという考えです。 2014年に同社を立ち上げたJoshua Browder氏は、スタンフォード大学に通う若干二十歳の若者。フォーブスが選ぶ「30アンダー30」(30歳以下の重要人物30名)にも選出された人物です。 そんなDoNotPayによるチャットボットが、このたび難民申請にも対応しました。申請できる亡命先はアメリカとカナダ、イギリスの3か国。各国の弁護士と協同での開発だそう。 Facebookメッセンジャー上で、「移民先の国はどこですか?」「あなたの安全を脅かす脅威は何ですか?」といったいくつかの質問に答えるだけで、移民申請書が作成されるというものです。 まだローンチから1週間たらずですが、BBCやGuardian紙で紹介されたこともあり、すでに約5,000件もの利用があったそう。同社の他のチャットボットと同じく無料で使えます。 Browder氏いわく「小金を稼ぐつもりはない」とのこと。 今後の課題は、より多くの難民が使える環境を整えること。難民の多くはネットのリテラシーが高くないため、Facebookメッセンジャー上のチャットボットはベストなチャネルではないとの声もあがっています。また現状は英語にしか対応していません。 Browder氏によると、今後は対象プラットフォームをメッセージアプリのWhatsAppにも広げるほか、アラビア語にも対応させる方針だとのこと。 ネットで反発、脅迫メールが数百通届く事態に 今回の難民申請対応が、欧米の大手メディアで称賛される一方で、移民に反対する層からは反発する声もあがっています。 ルイジアナ州の元政治家で白人至上主義団体のクー・クラックス・クランの元最高幹部でもあるDavid Duke氏は、新機能がリリースされた直後に、早速Twitter上でBrowder氏にかみついています。 「イスラエル人が、アメリカへの難民申請のためにロボット弁護士を開発したらしい。ただそもそもイスラエルが受け入れたらどうなんだ?」 https://twitter.com/DrDavidDuke/status/839205356446302210 これに対してBrowder氏はこう反論しています。 「私はイスラエル人ではない。あなたは白人至上主義の人種差別者だ。トランプですらあなたとは関わりたくないだろう」。 https://twitter.com/jbrowder1/status/839318833257197568 「あなたはユダヤ人だ。にもかかわらずあなたはイスラム教徒をイスラエルではなくアメリカに送り込んでいる。なぜだ?有能な移民を受け入れればイスラエルの利益になるはずなのに」。 https://twitter.com/DrDavidDuke/status/839345188380229632 さらにBrowder氏のもとには、同じく移民に反対する層から数百通に上る脅迫メールが送られているそう。一方でBrowder氏を称賛し、Duke氏らを非案するツイートも相次いでおり、賛否両論含め大きな話題になったようです。 「David Dukeのような人たちをいら立たせているということは、何かしら正しいことができているということだ」(Browder氏)。

アメリカで人気のエンタメ賞もチャットボット導入、その狙いとは?

映画や俳優に授与される「アカデミー賞」は、みなさんご存じの有名なエンタメ賞です。一方で、ピープルズ・チョイス・アワード(PCA)はご存じでしょうか? アカデミー賞では、映画業界関係者の投票で授賞対象の映画を選出しますが、PCAでは「インターネット経由の一般投票」によって、映画、テレビ番組、音楽、有名人を選出します。毎年2000万人以上がWebサイト、モバイルアプリから投票する、米国で非常に人気のあるエンタメ賞です。 PCA 2017では、新たな試みとしてFacebookメッセンジャーのチャットボットを投票手段として採用しました。 従来のPCAの投票は、ユーザーにとって少し手間がかかるものでした。Webサイトや専用アプリにわざわざアクセスしなければならなかったからです。 そこでPCA2017では、多くの人が日常的に利用しているFacebookメッセンジャーからチャットボットを利用して直接投票できるようにしました。投票の手間が減ったことで、投票数の底上げも期待できるでしょう。 チャットボットを活用した投票の流れ チャットボットを使った投票の流れは、とてもシンプルです。 まずは投票したいカテゴリーを、「すべて」「映画」「音楽」「テレビ」「デジタル」の中から選びます。 たとえば映画を選択すると、2016年度の映画一覧が表示され、自分のお気に入りの映画に投票(Vote)できます。 続けて別のカテゴリーでの投票をチャットボットが提案してくれます。たとえばお気に入りの俳優を選択して投票できます。 またユーザーによる自由入力で、投票対象を選ぶことも可能になります。 チャットボット導入の狙い なぜPCAはチャットボットを採用したのか?そこには投票の敷居を下げることで、投票数の底上げにつなげるだけでなく、投票してくれたユーザーに関する情報を蓄積するという狙いもありそうです。 PCAがチャットボットを展開しているFacebookでは、チャットボット用の分析ツールが提供されています。2016年11月14日に始まった新しいサービスです。 この分析ツールでは、自社チャットボットの正確なユーザー数、ユーザーの年齢・性別・国といった属性データを確認できます。さらにチャットボット内でユーザーがどんな行動をとったのかも分析できます。 たとえば、チャットボットがどのくらい利用されたのか、どの時点でどのくらいのユーザーがチャットボットを離脱したのか、といった細かなデータを取得できます。このデータは、PCAの投票に関わるユーザー体験の向上や、投票数の増加に向けた戦略を練る上で重要な指標になるでしょう。 つまりチャットボットによって得られたデータは、重要なマーケティングデータとして活用できるということです。 そのためチャットボットは単なるコミュニケーションの自動化ツールとしてだけでなく、双方向性型のコミュニケーション、つまりユーザーからの意見を汲み取り、製品やサービスの改善に活用するところまで視野に入れて導入するべきだと言えるでしょう。

こんな使い方もあった、チャットボットのユニークな活用事例集

ビジネスやテック系のニュースで、引き続きチャットボットが日々話題になっています。 こういうテクノロジー系のメディアをやっていると、つい目新しい部分、つまり「技術的にこんなこともできるようになった!」「この業界でもついにチャットボットを導入!」といった点に注目したくなってしまいます。 けれどもそもそもチャットボットは何らかのユーザーニーズを満たすための手段です。そうなると目新しい技術だけ騒いで終わりになってしまうのは、少し違う気もしてしまいます。ユーザーニーズを最も適切に満たす手段が、最も洗練された技術である必要は必ずしもないからです。 たとえばメルマガというチャネル。ネット黎明期からある古い情報発信手段ですが、検索技術が洗練され、SNSが登場した今になっても、存在感がますます増しています。メルマガにしか満たせないユーザーニーズ(関心の高い情報源による発信をタイムリーに確実に受け取りたい)があるからです。 チャットボットもまた同じかなと思います。まだぎこちないやりとりしかできないですが、うまく使えば効果は絶大なはず。「うまく使う」というのは、「自社のユーザーの悩み事は何か?」「それを解決するための手段とは?」という視点で、チャットボットを活用すること。 今回はチャットボットの事例集をお届け。特別な技術は使っていないけれども、ユーザーの課題解決を念頭に、絶妙なベネフィットを提供している施策例です。チャットボットの使い道は本当に多種多様だなと思わされます。 ■イヤな男をシャットダウン、女性の味方のチャットボット 最初の事例は、出会い系サイト向けのボット「Ghostbot」です。 出会い系サイトを使う女性にとって、悩みの一つがデリカシーのない男とのやりとり。自分が相手にされていないと感じると罵声を浴びせかけたり、ひいては卑猥な画像を送りつける輩もいたりします。こういうシチュエーションにも対処しないといけないとなると、出会い系サイトを使う女性にとってはストレスでしょう。 そんな時に役立つのがGhostbot。女性が「あ、この男ダメだ」と思った瞬間に、以下のような設定一つで相手とのやりとりをボットが代わりに担ってくれるというもの。 Ghostbotの役割は、相手との会話を自然に終わらせること。これ以上メールを続けたくないという旨をやんわりと伝えてくれるそう。Ghostbotのプロダクトデザイナーいわく、「会話を盛り下げて、エンゲージメントを下げる」よう設計されているとのこと。 出会い系サイトでのやりとりにおいて、ボットが自動で返信できるようにするためには、元となる学習データが必要です。そのためGhostbotの担当者は、ネット上にアップされている(さらされている?)出会い系でのやりとりをかき集めたといいます。 一例がByeFelipeというインスタグラムのアカウント。ここには出会い系で逆上した男どもによる、女性へ罵倒メッセージのキャプチャがアップされています(彼らもまさかこんな形でネット上にさらされるとは思っていなかったでしょう)。 面倒な会話を自分で終わらせなくてはいけない、もしくはブチっと切ってしまうとなると面倒ですが、あとはボットがやってくれると思えば気が楽になりそうです。 ■ AI弁護士、複雑な法的手続きが一瞬で 英BBCから「ネット界のロビンフット」と称された期待のスタートアップDoNotPay。同社は一般人では難しい様々な法的手続きを自動で担ってくれるチャットボットを提供しています。 創業者は若干20歳でスタンフォード大学に通うJoshua Browder氏。18歳の時に30枚以上の駐車違反切符をきられたことがDoNotPayを立ち上げたきっかけだったといいます。 交通違反切符は、適切に申請すれば取り消してもらえる可能性がありますが、必要な法的手続きを個人でやるのは至難の業。DoNotPayのチャットボットを使えば、いくつかの質問に答えるだけで、1分ほどで申請書が出来てしまいます。 DoNotPayによって取り消された違反切符は、イギリスだけでも約17万5000件(16年末時点)。金額にすると約5億6000万円に上るといいます。 現在は違反切符の取り消しだけでなく、遅延した飛行機や電車の補償請求、ホームレスの住宅申請、HIV患者への法的アドバイス、難民申請などにも対応しています。 根底にあるのは、複雑な法的手続きをチャットボットが肩代わりすることで、市民が本来受けられる権利を享受できるようにしようという考えです。 複雑で面倒な手続きを肩代わりするというスタイルは、今後チャットボットのあるあるパターンの一つになりそうです。 ■投票率を上げろ、面倒な有権者登録を肩代わり これも同じく面倒な作業を肩代わり系のチャットボットです。有権者登録をチャットボットがやってくれるというもの。 アメリカの大統領選挙に投票するには、各州のルールに則って有権者登録をする必要があります。ただこの手続きが非常に面倒らしく、投票率を下げる要因になっています。 たとえば2012年の大統領選挙では、有資格者のうち30%以上が有権者登録をしていなかったとのこと。さらに18~24歳の若年層に限ると、この割合はさらに上がるそう。 そこでFight for the FutureというNPOが制作したチャットボット”HelloVote”では、いくつかの質問に答えるだけで、1~2分で手続きを完了できるようになっています。 氏名や住所、生年月日、運転免許情報などの個人情報を入力することで、州の有権者データベースに登録される仕組みです(ただしオンラインでの登録を認めていない州もあるので、一部郵送などのステップが入る地域もあり)。 https://www.youtube.com/watch?v=iIRMXnIRwIM ターゲットはスマートフォンに慣れ親しんだ若年層。モバイルのテキストメッセージやFacebookメッセンジャー上にてチャットベースで手続きできるので、従来の書類手続きよりかなり敷居は下がりそうです。 ただ投票率を下げている要因には、手続きの煩雑さに加えて、費用の問題もあります。最大で約7000円の費用がかかる州もあるため、貧困層による投票率に悪影響を与えているよう。 チャットボットだけで全て解決というわけにはいかなそうですね。 ■有料購読の管理キャンセル 毎月費用がかかる有料サービスの管理って、地味に大変だったりしますよね。 通信サービスのオプションをキャンセルしたと思っていたけれども、実はできておらず毎月数百円引かれていた、なんてこともありがちです。 チャットボットのTruebillでは、銀行口座もしくはクレジットカード情報をもとに、Netflixやスマホの通信費、スポーツジムのメンバーシップといった有料サービスを抽出。一覧化して管理できることに加えて、キャンセルもボット上でできてしまいます。 ターゲット層は、お金の管理が苦手なルーズな人が主になってきそうです。となると、慣れ親しんだプラットフォーム(Facebookメッセンジャーなど)でチャットによって完結できるという手軽さは、非常に良さそうです。 ■ボットを通してユーザー調査 上記の事例とは少し毛色が違う施策です。 米デザインコンサル大手のIDEOは、ユーザー調査の手段としてチャットボットを活用。そこで得た知見を製品デザインに活かしているとのこと。 一例として挙げられているのが、日本の電機メーカーとの協業。2014年に運動する女性向けのウェアラブルデバイスとスマホアプリのデザインに携わったそう。ユーザーによる日々の行動をトラッキングして得たデータをもとに、フィットネスに関するアドバイスを提供するというもの。 ここで問題になってくるのが、ターゲット層(35~54歳のアメリカ人女性)はフィットネス向けのウェアラブルデバイスに何を求めるのか?という点。従来の男性向け製品のように、走行距離のようなデータの優劣を他のユーザーと競う、というベネフィットでは女性が満足できません。 そこで彼女たちのニーズを探るためのプロタイピングツールとして、IDEOはボットを開発。被験者の女性がランニング中に、様々なメッセージを送りました。 たとえば「素晴らしいワークアウトです。この調子でいきましょう」「1万歩まであと5分です」といった具合です。 ボットを通して彼女たちの反応を観察した結果、やはり男性とは違うニーズがみえてきました。フィットネスデータで優劣を競いたがる男性に対して、女性の場合は自身のアクティビティにまつわるストーリー全体をシェアしたい、という傾向があったそう。 たとえば疲れて途中でワークアウトをやめてしまった、甘い物に手を出してしまったなどの失敗談も含めて、コミュニケーション手段としてシェアしたがったとのこと。 ターゲットの反応をリアルタイムで吸い上げる手段として、チャットボットをうまく活用した事例といえるでしょう。 ■履歴書替わりにチャットボット 最後は、求職者がチャットボットによって自身の経歴をアピールした事例。チャットボットを通じて、採用担当者が彼女の経歴や実績を閲覧できるようにしたのです。「求職者に関する情報を知りたい」という企業側のニーズに応えた一例です。 ボットを作ったのは、サンフランシスコ在住のマーケター、Esther Crawfordさん。彼女はエンジニアではなく、HTMLやCSS、JSの基礎知識がある程度。そのためTextItのようなプログラミングなしで構築できるツールを使ってボットを作ったといいます。 求職者が自身の経歴をボットでアピールする斬新さが話題となり、2万4000件ものメッセージをやりとりするに至ったそう。その中にはFacebookやGoogle、Microsoftなどの大手も含まれていたといいます。 チャットボットが話題になり始めた旬な時期だっただけに、彼女のマーケターとしてのセンスやテクノロジーへの理解を強烈にアピールできた結果といえるでしょう。

人気記事

AI時代、NVIDIAが当面は無敵と思える理由

最近の株式市場もAIブーム。その中で最も注目されている銘柄が米半導体メーカーNVIDIA(エヌビディア)。同社の株価もすごいことになっているが、最近では同社と提携する企業の株価も高騰する傾向にある(関連記事:AI相場“中核”、NVIDIA関連の「神通力」)。 果たしてNVIDIAは、このままAI時代の覇者として逃げ切ることになるのだろうか。日本法人のDeep Learning部長の井崎武士さんにお話を聞いた。(ITジャーナリスト・湯川鶴章) 2000個のCPUの計算を12個のGPUで実現 そもそもNVIDIAって、いつAI企業になったのだろう。ゲーム用半導体のメーカーと認識していたのは僕だけじゃないはず。 世界中のAIの研究者がNVIDIAのGPU(Graphics Processing Unit)に注目したのは2012年といわれる。Googleが2000個のCPU(Central Processing Unit)を使ってニューラルネットワークを構築し、YouTubeのサムネイル画像の中から猫の画像を認識させることに成功したが、それと同じ実験をスタンフォード大学のAndrew Ng(アンドリュー・エン)氏が、わずか12個のNVIDIA製GPUで再現した。大量のコンピューターを持たなくてもAIを作ることができることに気づいた世界中の研究者たちが、NVIDIAのGPUに飛びつき、AI研究が一気に加速したと言われている。 それまでのAI研究って、冬の時代だったと言われている。長年に渡ってどうしても超えられない山があったわけだが、急に冬の時代から抜け出せたのには3つの要因があるといわれている。1つには、Deep Learningという新しい手法が登場したこと。2つ目は、大量のデータがネット上に溢れ出したこと。そして最後の要因は、NVIDIA製GPU。NVIDIAのGPUのおかげで、AI研究・開発の低コスト化が進んだからだと言われている。 新しい手法と、それに必要な大量のデータ。そして、低コスト半導体で研究の裾野が一気に広がったことで、新たな技術、手法が次々と登場している。そしてその勢いは、今日でもまだ一向に減速しそうにない。 そういう意味で、NVIDIA製GPUの果たした功績は大きい。取材先の研究者に聞いても、半導体ハードウェアはNVIDIA一択だというような話が多い。NVIDIAはAI時代のハードウェアの覇権を握ったのだろうか? とはいうものの一方で、競合他社によるAIチップ開発のニュースが次々と出始めている。こうした動きを、NVIDIAはどう見ているのだろうか。 NVIDIAに待ったをかけるインテル 例えば、Intelは「Xeon Phi(ジーオン・ファイ)」の新バージョンをディープラーニングに最適だとして発表するなど、この半年ほどで猛烈な追撃を始めている。日本のAIベンチャーに話を聞いても、インテルからの営業が精力的になってきているという。 Intelと言えばパソコン全盛時代に、Microsoftとともに時代の覇権を握った半導体メーカー。技術力は半端ないはず。 Intelは、Xeon Phiの発表文の中で「128のノードのインフラを使って学習させたところGPUの50倍速かった」と、NVIDIAのGPUより優れていると書いている。NVIDIAは、早くも追いつかれてしまったのだろうか。 これに対してNVIDIA日本法人の井崎武士氏は「正式に説明文を出したのですが、インテルさんの発表の中で使われていたのはNVIDIAの2世代前のGPU。最新GPUではNVIDIAのほうが断然速いんです。インテルさんのハードウェア開発能力を持ってしても、まだわれわれには追いついていない状態なんです」と胸を張る。 とは言っても巨人Intelが本気を出し始めたわけだ。NVIDIAがいつまでも安泰というわけにはいかないだろう。 「そうかもしれませんが、ただ勝負は半導体というハードウェアだけの話ではないと思うんです。われわれはハードウェアとしてはGPUを持っていますが、そのGPUの性能を最大限利用できる開発環境としてCUDA(クーダ)というものを独自に用意しています。それが他社とは異なるところです」。 とは言ってもGPUの上に乗る言語として、OpenCLなどオープンソースの言語がある。 「業界標準フレームワークのOpenCLで実装するアプローチも当然あります。それは特に一般に流通するソフトウェアの互換性を保つためには有効に働きます。一方、研究で利用されるときには動く環境が決まっていることが多いため、より性能を出しやすい、そして使いやすい(開発サポートが手厚い)ものが選ばれます。われわれはOpenCLを一応はサポートしているのですが、それとは別に最大限性能を引き出してもらうためにCUDAを用意しています」。 CUDAはそんなに使いやすいのだろうか。 「ただCUDAという開発環境で誰でもDeep Learningを簡単に作れるかというと、CUDAを使いこなすのにもそれなりの能力が必要になってきます。なのでCUDAの上にDeep Learning用のライブラリ、GPUとのコミュニケーション用のライブラリなど、各種ライブラリを用意しています」 「それでも開発は簡単ではありません。なので、オープンソースのフレームワークが幾つか登場しています。例えばUCバークレーの『Caffe』、Facebookの『Torch』、日本のPreferred Networksが作った『Chainer』などがそうです。そうした主だったフレームワークの開発者とNVIDIAは緊密な関係にあり、われわれは積極的にフレームワーク開発のお手伝いをしています。どのフレームワークでもCPUと同じようにコードを書いて、『GPUを使う』という設定にするだけで、GPUを簡単に使うことができるようになっています」。 「こうしたところまで競合他社が環境を整えられているかというと、まだどこもできていません。われわれはこの数年、こういった開発環境の整備に注力してきました。ですので今から他社が参入してきても、すぐに追いつけるわけではありません。たとえハードウェアでNVIDIAと同様もしくは超える製品を作れたとしても、そうした開発環境まですぐに用意できるわけではないのです。なので当面は他社がそれほど脅威になるとは思っていません」と言う。 Googleも半導体を独自開発 インテルだけではない。GoogleやMicrosoftなども、NVIDIAに追いつき、追い越そうとしているという話が聞こえてくる。 Googleは新しくTPUと呼ばれる半導体を開発した。日経コンピュータの記事によると、TPUはディープラーニングのために開発されたASIC(Application Specific Integrated Circuit、特定用途向けIC)で、GPU(Graphic Processing Unit)やFPGA(Field Programmable Gate Array)といったディープラーニングの処理に使用する他の技術と比較して「消費電力当たりの性能は10倍」とGoogleのCEOが主張しているらしい。 これに対し井崎氏はこう解説する。「Googleさんが新しく開発したハードウェアTPUは、特化型の半導体なんです。Deep Learningが成熟してきて、『この問題はこのアルゴリズムで解ける』というようなフェーズに入ってくれば、特化型の半導体でもいいと思うんです。でも現状では、毎日2、3本のペースで新しい論文が出ています。新しい最適化の方法、新しいニューラルネットワークの形が、日々登場しています。そうした新しい知見に応じて、ハードウェアを常に更新していくというのは、大変なコストになります。すべてのAIを特化型半導体をベースに作るというのは、リスクが大き過ぎると思うんです」。その証拠にGoogleは、いまだにNVIDIAのGPUを購入し続けているようだ。用途が決まっているところには特化型を、まだまだ進化の最中のところにはNVIDIAのGPUを、ということなのだろう。 MicrosoftはFPGAに社運を賭ける Microsoftも動き出している。Microsoftが力を入れているのはFPGAと呼ばれるタイプの半導体だ。 今日(こんにち)のGPUは、実行するソフトウェアによって機能を自由に定義・変更できるプロセッサーというタイプの半導体。反対にGoogleのTPUなどのASICは、すべての機能が回路としてハードウェア上に焼かれていて、変更できないタイプの半導体。FPGAはちょうどASICとGPUの中間のような存在。ハード上の一部回路を書き換えることで機能変更が可能なタイプの半導体だ。 Wiredの記事によると、Microsoftは、そのFPGAに社運を賭けているという(関連記事:Microsoft Bets Its...

日本にもボイス時代到来!Amazon Echo連携の先行事例7選

Amazonの人気スピーカー型電子秘書「Amazon Echo(エコー)」の国内販売に向けて日本法人が動き始めた、という情報がいろいろな方面から入ってきた。(関連記事;日本でもAmazon Echo年内発売?既に業界は戦々恐々) 連携するデバイス、サービスの数が7000を超えたAmazon Echoは、スマホ全盛時代に終止符を打ち、ボイスの時代の幕を開けるデバイスと言われている。 スマホ時代の幕開けの時期にアプリ開発競争が繰り広げられたように、今年から日本でもボイス搭載デバイスやサービスが次々と登場するかもしれない。 ボイス機能で、どのようなデバイス、サービスを開発できるのだろうか。 さすがにAmazon Echoと連携する7000以上のデバイス、サービスのすべてを見て回ることはできないので、Amazon自体が出資しているものや、開発者コミュニティで話題になっているものを中心に調べ、その中で日本でも使えそうなものを7つ厳選して紹介したい。(ITジャーナリスト:湯川鶴章) Echoはハード、Alexaはソフト その前に重要な用語を整理しておきたい。Echoは、スピーカー型ハードウェアの名称。Amazonが現在、米国で販売しているのは、ノッポのEcho、少し小さめの廉価版である「Echo Dot」、それに利用する前にタッチが必要な「Echo tap」の3種類がある。 「Alexa」はEchoに搭載されている音声認識AIの名称。つまりEchoはハード、Alexaはソフトということになる。メディアではEchoのほうが取り上げられることが多いが、7000以上のデバイス、サービスが連携された今、AIであるAlexaのほうが重要性を増している。 開発者向けのサービスや開発キットには、Alexa Voice Serviceと、Alexa Skills Kitの2つがある。 前者は、クラウド上に音声認識機能が乗っていて、そこに音声データを送信するだけで、返答が返ってくるサービス。マイクとスピーカーさえあれば、Echoと同様の機能を持つデバイスを作れることになる。 後者は、Echoからコントロールできるデバイスやアプリを開発するための開発キット。 つまり前者は、コントロールする側のためのもの。後者は、コントロールされる側のためのもの、ということになる。 またAmazonは、連携するサードパーティのデバイスやサービスを「スキル」と呼んでいる。サードパーティとの連携が増えることで、Echoができること、つまりスキルが増える、という意味だ。 【関連情報:何度同じ質問をしても怒らないAIエンジニアによる「ビジネスマンのためのAI講座」2期生募集中】 調理中にカロリー計算Prep Pad 僕が最もおもしろいと思ったのは、スマート・キッチン・スケール(重量計)のPrep Pad。まな板のようなスケールに食材を載せて、スマホやタブレットのアプリに食材名を入力すれば、カロリーや栄養成分を瞬時に計算してくれるというもの。調理しながら、1つ1つの食材の重さを図っていくことで、完成した料理のカロリーと栄養価の計算ができるようになっている。 このままでも結構人気のデバイスのようだが、Alexaと連携することで、食材名を音声で入力できるようになる。料理しながらの濡れた手で、タッチスクリーンを操作するのは面倒。ボイス入力を可能にすることで、操作性が格段に向上するわけだ。 【ポイント】手を使えない状況。そうした状況にボイス機能は、最も力を発揮する。 冷蔵庫にピタッと音声機能:Triby Tribyは、フランスのベンチャー企業inovoxiaが開発したコミュニケーションデバイス。wi-fiを通じて、電話をかけたり、メッセージを表示したりできる。音楽をかけることもできる。 アイデア自体はEchoに似ているが、冷蔵庫に貼り付けることを想定した形状になっている。 Alexa Voice Serviceにアクセスできるようにすることで、Echo並みに多くのスキルを簡単に実装できるわけだ。 【ポイント】Echoとは異なる場所での利用に特化した形状にすることで、Echoとのバッティングを避けることができる。 wi-fiで簡単設置のIntercom:nucleus 電源につないで壁にかけるだけで、簡単に設置できるIntercom。wi-fi接続なので、工事いらず。各部屋に設置できるし、遠くに住む親戚でさえ、まるで同じ家に住んでいるかのように簡単にテレビ電話ができる。1台約2万円なので、iPadよりも安い。 Alexa Voice Serviceにアクセスすることで、IntercomがEchoの全機能を持つことになる。 【ポイント】デバイス自体は、1つの機能の使い勝手に徹底的にこだわったシンプルなデザインにし、Alexa連携で無数の機能を追加する、という形がいいのかもしれない。 ボイスベースのランニングコーチ:M.A.R.A M.A.R.Aは、基本的にボイスでコントロールするランニング・アシスタント・アプリ。ジョギングの時間や距離、ペースを記録したり、雨が振りそうになれば警告してくれる。ジョギングの最中に音楽も再生してくれる。 Alexaと連携することで、ジョギングが終わって、リビングでリラックスしているときにリビングのEchoに対して「Alexa、今週は全部で何キロ走った?」とか「Alexa、今週のランニングのペースの平均値は?」などと聞くことができる。 【ポイント】スマホをポケットから出すのさえ面倒に思われる瞬間というものがある。その瞬間こそがボイスの出番になる。ちょっとした使い勝手の差は、過小評価されることが多い。しかしヒットするかしないかは、ちょっとした使い勝手の差によるところが大きい。 Mojio Mojioは、コネクテッド・カー・ソリューションのリーディングプロバイダー。Mojioデバイスを自動車のOBD-Ⅱポートに接続することで、車の走行距離や診断データを入手できる。Alexaと連携することで、Echoデバイスから「Alexa、会社へ行く前にガソリンを入れたほうがいい?」「Alexa、今、娘が運転している車は、どの辺りにいるの?」などと質問することができる。 【ポイント】スマホアプリは、基本的にはすべてボイスベースにすることが可能。ただどの用途がタッチスクリーンに向いて、どの用途がボイスに向くのかを、しっかり考える必要がある。ボイスにできるからといって、すべてボイスに変える必要はない。ただ出勤前のバタバタしているときに、ガソリンの量をボイスで確認できるのは確かに便利。こうしたキラー用途を見つけ出せるかどうかがポイント。 話ができるぬいぐるみThe Talkies The Talkiesは、マイクとスピーカーと通信機器が内蔵された子供向けのぬいぐるみ。親のスマホとの間で音声メッセージの送受信ができる。Alexa Voice Serviceにアクセスすることで、Amazonのオーディオブックでの読み聞かせが可能になる。 【ポイント】Amazonは、米国の一部地域で、Alexaの対話AI「Amazon Lex」の一般提供を始めた。従量課金で、1000スピーチリクエストが4ドル。競合他社よりも利用しやすい。Amazonの音声技術を使ったコミュニケーションロボットが多数、開発されるかもしれない。 スマートホテル これは製品ではなく、開発コンテストの入賞作品。ホテルの部屋に置かれたAmazon Echoに対して、音声でルームサービスを注文すると、スマホのAlexaアプリに画像や動画が表示される。Alexaとの対話の中で画像も表示できるので、宿泊客に対してより親切な対応ができる。ルームサービスだけではなく、チェックアウトなども簡略化できるはず。 【ポイント①】B向けへの利用が期待できる。 【ポイント②】高齢者などスマホを使いこなせない層も、ボイスで対話しながらなら、インターネットを使えるようになるかもしれない。 まとめ:スマートホーム以外を狙え 家電メーカーは一斉にAmazonに対応してくるだろう。米国の状況を見ていると、対応しないと売れない時代になるような気がする。なので今までの家電をAmazonに連携させるだけでは差別化にならない。 また米国の先行事例のほとんどはスマートホーム関連。プールの水質管理や、ガレージドアの開閉、ガーデンの水やりなどを、リビングルームのEchoからコントロールできる、というようなものが多い。米国に比べて狭い家が多い日本で、スマートホーム関連で大きなヒット製品が生まれるのかどうか。 それより日本ならB向けや、高齢者向けのデバイスやサービスに可能性があるように思った。 →【ビジネスマンのためのAI講座】詳細はこちら

「小学2〜3年生レベル」の人工知能、North Faceの商品リコメンドサービスを使ってみた

何か商品を買う時に、自分に一番合った物をカタログ情報だけで選ぶのって結構難しかったりします。 たとえば冷蔵庫。「4人家族用のサイズで、電気代がそこそこ安く抑えられて、野菜や魚を新鮮に保存できるやつが欲しい!」みたいな希望を満たす商品を探そうとしても、冷蔵庫の容量や機能名、消費電力量といった情報から、最適な品番を選ぶのは至難の技。 結局自分だけでは選びきれず、家電量販店の店員などに相談してオススメされた商品を買うっていうパターンは多いと思います。 今回紹介するアウトドアブランドのThe North Faceは、そうした商品選択に悩む消費者の課題をAI技術によって解消しようとしています。 適切なアウトドア製品を選ぶのも、また難しい作業だったりします。たとえばアウターを選ぶにしても、防水性や防風性、耐久性、重さ、通気性など、商品特徴となる項目がたくさんある中で、着るシチュエーションや現地の気温などを考慮しながら、選ばないといけません。 商品に詳しくてアウトドアの経験も豊富な人なら大丈夫かもしれませんが、初心者だとまずムリそうです。 そこでThe North Faceが2016年4月にリリースしたのが、商品リコメンドサービス。着用する時期や場所、男性用か女性用かといったいくつかの質問に答えるだけで、最適な商品群を表示してくれるというもの。 裏側の技術はIBMのWatson 今回のサービスを実現している技術が、IBMによるコグニティブ・テクノロジー「Watson」です。 Watsonとは、テキストや画像のような非構造化データを分析することで、推論や予測による答えを導き出すためのテクノロジー・プラットフォーム。分析対象となるデータが増えるほど、機械学習によって学習して賢くなっていく点が特長です。 The North Faceは、約12ヶ月かけてWatsonを活用したこのサービスを開発したといいます。ショッピングアシスタントとしてのWatson。使い心地はどうなんでしょうか? 店員と会話しているかのような使い勝手 まずは専用サイトにアクセス。一つ目の質問は「ジャケットはいつどこで着るの?」というもの。試しに「Commuting in Tokyo」(東京での通勤時に)と入れてみました。ちなみ「I want to use it when commuting in Tokyo」「I’ll use it when commuting in Tokyo」みたいな文章で入力しても理解してくれました。 次の質問は「どの時期に着るの?」。この時の入力は、「December」(12月)といった特定の時期だけでなく、「from next...

「目指すは日本ならではのチャットボットの形」、サイバーエージェント石川大輔氏

日本企業によるチャットボット事業の現状とは? 今回はITジャーナリストの湯川鶴章さんに寄稿していただきました! ―――――――――――――――――――― スマートフォンアプリの次の主戦場として注目を集めるチャットボット。米国では熾烈な開発競争が始まっているが、日本ではまだまだ注目度は低い。 しかしAIの進化に伴って、日本でもチャットボットが企業と消費者とを結ぶ主要チャンネルになることは間違いない。チャットボット事業で、日本で先行する3社のうち、サイバーエージェントの戦略について詳しく調べてみた。 先行するのは、リクルートとトラコス その前に、残りの2社はどこかと言うと、1社目はリクルート。チャットボットの成功事例の先駆けである「パン田一郎」を手がけたことで、チャットボットに関心を持つ業界関係者の間では一目置かれる存在。そのリクルートが米シリコンバレーに開設したAI研究所では、さらなる高性能のチャットボットの開発を進めている。(関連記事:シリコンバレーのリクルートAI研究所はチャットボットを開発していた)世界的に見ても、リクルートが最先端を走り続ける可能性は大きい。 2社目は、コールセンター業務大手のトランスコスモスだ。チャットボットが普及すれば、コールセンター業務は大打撃を受ける可能性がある。技術革新の津波を前に主要事業を守ろうとしてジリ貧に陥る企業が多い中で、トランスコスモスは先陣を切ってチャットボット事業に乗り出した。座して死を待つより、自ら新しい領域に打って出ることで、変化の時代を乗り越えようとしているわけだ。国内メッセンジャー最大手のLINEと合弁会社を設立するなど、次々と大胆な手を打っており、チャットボットビジネスの本命と言ってもいいだろう。(関連記事:LINEチャット対応でデータを蓄積、トランスコスモスのAI戦略) チャットボットに詳しい業界関係者に聞くと、この2社が最有力。「もはや他社は入り込めない」という声さえ聞こえてくる。 サイバーの動きの速さはピカイチ そんな中で、ネットビジネスの雄サイバーエージェントが怒涛の勢いで動き出した。同社は2016年7月にチャットボットを専業にする連結子会社、株式会社AIメッセンジャーを設立した。同社の石川大輔代表取締役によると、事業を思いついたのは同年3月。「構想から実質3カ月でサービスを作り上げました」と笑う。 きっかけはユーザー行動の変化だった。石川氏はサイバーエージェントに入社以来、デジタル広告畑で実績を積んできた。ユーザー行動の変化は、広告関連のデータで読み取れた。 「何か調べ物をするときに今までだと検索エンジンを使うケースが多かったのですが、最近ではSNSで友人たちに質問することで問題を解決するケースが増えていることに気づいたんです」。 サイバーエージェントのデジタル広告の部署は、これまでユーザーを細かな層に分け、それぞれの層に合った広告を配信する支援をしてきたのだが、そうしたユーザー層の細分化や広告の最適化といった業務自体を、Facebookなどのプラットフォーム自身が手がけ始めたということも、大きな変化だった。 新しいフェーズに合った広告の形を模索していかなければならない。そう考えていたときに、チャットボットのアイデアを思いついたのだという。 デジタル広告に必要なユーザーの購買履歴、行動履歴などのデータを使って、チャットボットがユーザー一人ひとりに合った対応をするようになれば、新たな広告、マーケティングのチャンネルになるかもしれない。そう考えた同氏は、サイバーエージェントによるAIラボの自然言語処理の専門家を巻き込んで、あっという間にチャットボットを開発。9月からサービスインし、デジタル広告のクライアント企業を中心に営業をかけ、既に十数社がチャットボットの導入を進めているという。 某クライアント企業に対しては、有人対応とボット対応のハイブリッド型を導入。まずはすべての消費者に対してチャットボットが対応。ボットの対応を通じて見込み客を見極めて、人のチャットオペレーターがボットに代わって対応する形にした。しつこく電話攻勢しなくてもよくなった上、オペレーターによる成約率が100%になったという。 こうした成功事例が出始めたため、多くの企業からの引き合いが続いているという。これに対応するため、同社では沖縄で週7日24時間体制で稼働するチャットセンターの人員を急ピッチで増強し始めている。 水平分業と垂直統合 トランスコスモスとサイバーエージェントの両方を取材してみておもしろかったのが、両社の戦略の違いだ。 トランスコスモスはこのほど、有力チャットボットメーカーの米Reply社と提携。Reply社によるボット構築、運用管理プラットフォームReply.aiについて、日本での独占販売権とアジアでの優先販売権を取得した。 米国のチャットボット事情を調べていると、Reply.aiに関する言及をよく目にする。この領域でのトップ企業なのだろう。同社と提携することで、トランスコスモスは最先端のボットツールを日本で独占的に取り扱えるようになったわけだ。 どうやらトランスコスモスは、ボット関連技術をすべて自社開発するのではなく、世界中から最も優れた技術を探し出し、それを統合することで1つのサービスとして提供する戦略のようだ。餅屋は餅屋。自分は得意な領域に特化し、そのほかの領域はそこを得意な他社に任せる。いわゆる水平分業と呼ばれる戦略だ。 一方のサイバーエージェントは、バックエンドのAIから、フロントエンドのチャットボットのデザインまで、すべて自社開発するという。いわゆる垂直統合と呼ばれる戦略だ。 水平分業と垂直統合。どちらの戦略が優れているのだろうか? パソコン全盛時代は、MicrosoftとIntel陣営の水平分業が勝利した。MicrosoftがWindows、Intelが半導体、パソコンメーカーが残りの部品を組み立てるという分業体制。それぞれが得意な領域に特化したため、優れた製品を低価格で提供できたため、パソコンは世界中のオフィスに普及するまでになった。 一方で、ハードもソフトも1社で手がけるAppleのパソコンは、Windowsパソコンと比べると割高感が出て、シェアを伸ばすことができなかった。垂直統合戦略の敗北だった。 その後のスマートフォン時代でもAppleは垂直統合戦略を踏襲。iPhoneのハードも基本ソフトも自社で手がけた。一方スマホ時代のもう片方の雄、Googleは、基本ソフトAndroidの開発、改良に専念。無料でAndroidを提供したため、世界中の家電メーカーがAndroidを搭載したスマホを開発した。この水平分業のおかげでAndroid端末はiPhoneより低価格で販売でき、思惑通りシェアを伸ばすことに成功した。 ただシェアが伸びたのは主に途上国だった。先進国では低価格よりも、完成度の高さが評価され、iPhoneは圧倒的な強さを誇った。利益率もiPhoneのほうが高いので、Appleは世界トップクラスの超優良企業となった。 Googleも途中から水平分業戦略に見切りをつけ、自社でもスマホのハードウエアを手がけ、先進国でのiPhoneのシェアになんとか食い込もうと躍起になっている。Appleの垂直統合戦略の勝利だ。 ではチャットボット時代には、水平分業、垂直統合のどちらの戦略が成功するのだろうか? サイバーの思い描くビジョンとは なぜサイバーエージェントは、垂直統合にこだわるのだろうか。 石川氏は「自分たちのビジョンを貫こうとすれば、すべてのツールを自社で開発するしかないと思うからです」と言う。 石川氏はどのようなビジョンを持っているのだろう。 「デジタル広告に使うユーザーの購買履歴のデータと紐付けることで、『先日はお買上げいただきありがとうございました』というやりとりが可能になります。GPSデータと紐付けることで、最寄りの店舗まで道案内が可能になります。クーポン発行ツールと紐付けることで『今、このクーポンを使うとお得ですよ』と店内での購買を促進することも可能になります。いろいろなデータを集めてきてAIが解析、最も適した情報やサービスをチャットボットが提供する。そういう時代になると思うんです」と石川氏は言う。 いろいろなデータやツールを統合する際に、異なるメーカーのツールを組み合わせて使うには限界がある、と石川氏は指摘する。ツールメーカーの間で、チャットボットの使い方に対するビジョンが異なるかもしれない。それぞれのツールのバージョンアップの速度や頻度も異なってくるだろう。 「僕も異なるツールの組み合わせでデジタル広告事業を手掛けたことがあるんですが、大変でした。なかなか前に進まないんです。絶対にうまく行かないと思います」と石川氏は断言する。 「ツールごとの価格や性能では、海外のツールに勝てないかもしれない。でも各種ツールを統合したサービスの総合点では、自社開発にこだわったほうが良いサービスになるのではないかと思うのです」と力説する。 日本人の心理に特化。 またチャットボットは、検索連動型広告など、これまで主流の広告マーケティング手法と大きく異なることが一つある。ユーザーは、チャットボットに人間味を求める、ということだ。 すべてのユーザーに対して同じ受け答えをするより、ユーザーの購買履歴を見て『先日は商品をご購入いただきありがとうございました。その後、いかがですか?」と語りかけるほうが、ユーザーの心に響くことだろう。 そうした人間味のある理想的な受け答えは、国や文化によって異なってくるはず。米国製の味気ないチャットボットより、日本語と日本文化に特化したチャットボットのほうが、日本のユーザーに受け入れられるのではないだろうか。 そう考えた石川氏は、心理面での専門家をアドバイザーに迎え、日本語での日本人らしい対話のあり方を研究しているのだと言う。「『わたしに何でも聞いてください』とチャットボットに問いかけられても、ユーザーは何を聞いていいのか分からない。でも『こちらの商品が新しく発売になりました。青と赤ではどちらの色がお好みですか?』と聞かれれば、より答えやすい。そうしてユーザーの選択を支援してあげれば、ユーザーはより買いやすくなるみたいなんです」。 まるでリアル店舗の店員の接客術のようだ。 「まだ業界内で『チャットボットの正しい使い方』という共通認識はない。僕達は、1つの『正しい使い方』のビジョンをどこよりも早く提案していきたい。そして期待通りの効果が出れば、僕達は先行企業として、圧倒的に有利なポジションに立てるのではないかと思うんです」。 Appleは、電話もできる音楽プレーヤーという独自のビジョンでiPhoneを開発した。このビジョンが、音楽好きのアーリーアダプターに受け、続いてアプリが充実するようになり、ユーザー層が広がった。Appleのビジョンが、業界を先導したわけだ。 まだ誰も打ち立てていないビジョンを実現するには、すべてをコントロールできる垂直統合戦略しかない。「われわれのビジョンを共有してくださるクライアント企業と一緒に、新しい広告マーケティングの形を目指していきたいと考えています」。 果たしてサイバーエージェントは、独自ビジョンを早急に実現し、効果を上げることで、業界を先導できるようになるのだろうか。 引き続きウォッチしたいと思う。 より詳しい情報を知りたい方は、著者が主催する勉強会やオンラインサロンにご参加ください。 ・TheWave湯川塾「オピニオンリーダーたちと議論する革命前夜」【39期塾生募集中】 ・湯川鶴章オンラインサロン ・ビジネスマンのためのAI講座

自動運転にも応用される精緻な画像認識技術、「画像セグメンテーション」とは?事例を交えてわかりやすく解説

近年、ディープラーニング(深層学習)を中心とした機械学習の技術が注目を集めています。そのホットな応用先の1つが画像認識です。 今回は「画像×機械学習」によって、精緻な画像識別を可能にする技術、”画像セグメンテーション”について見ていきましょう。 画像分類の種類について 「画像×機械学習」といってもその応用例はたくさんあります。 画像セグメンテーションの特徴を理解するためにも、まずはよく使われているその他の画像分類技術も見ていきましょう。 今回は画像セグメンテーションを含む、こちらの3つを紹介します。 1)画像分類(classification)…”その画像が何なのか”を識別 2)画像検出(detection)…”その画像のどこに何があるのか”を識別 3)画像セグメンテーション(segmentation)…”その画像領域の意味”を識別 1)画像分類(classiification)…”その画像が何なのか”を識別 画像分類では、”その画像が何なのか”カテゴリ分けします。 例えば、様々な寿司ネタの書かれた画像を「これはサーモン、これはいくら、これはとろ、、、」というように一枚一枚分類していく感じになります。 最近AmazonからリリースされたAmazon RekognitionのObject and scene detectionもこの画像分類にあたりますね。 こちらの画像では、対象の画像がCityやDowntown、Metropolisであると分類されています。 この方法では1枚の画像が1つの物体等を映し出していた場合には有効ですが、複数の対象が写っていた場合、それぞれを認識することはできません。 例えば、今机にある複数の物体を写真に撮ってRekognitionにアップロードしてみます。 本来であれば「カップとスマホとボトル」が写っているのですが、Amazon Rekognitionでは画像全体へのラベル付けとしてCupやCoffee Cupが上位に来ています。 これでは、複数の物体が画像に入り込むシーンでは使えないですね。そういった場合には「画像検出(detection)」を活用することになります。 2)画像検出(detection)…”その画像のどこに何があるのか”を識別 detectionと呼ばれる画像検出では、“何があるのか”に加え“どこにあるのか”も識別ができます。 例えば、先程の画像を例にとると、以下のように「コーヒー、ボトル、スマホ」という3つのwhatとwhereが識別できます。 Facebook上に写真をアップロードすると、顔の部分をタグ付けできるようになっていますが、あの技術も顔を検出する画像検出が使われている例ですね。 Amazon RekognitionにもFace Analysisの機能があったのでこちらの画像も例として載せておきます。 この画像のように、"顔がどこにあるのか?"が顔認識では取得できています。 3)画像セグメンテーション(segmentation)…”その画像領域の意味”を識別 それでは今回のメインである画像セグメンテーションについて見ていきましょう。 Semantic Segmentation と呼ばれる画像セグメンテーションでは、画像全体や画像の一部の検出ではなくピクセル1つひとつに対して、そのピクセルが示す意味をラベル付けしていきます。 画像を見たほうがわかりやすいので実際の画像を見てみましょう。 引用:http://jamie.shotton.org/work/research.html 一番左の画像では、”牛(cow)”に加え“草(grass)”も色づけされています。 これまでに紹介した画像検出では牛という物体が4体検出される以上のことはできませんでしたが、Semantic Segmentationでは画像全体がピクセルごとに意味づけされます。 この技術の応用例の1つ、自動車の自動運転があります。自動運転では以下のようにリアルタイムでセグメンテーションが行われます。 引用:http://worldwide.chat/E6gij6IS8n0.video ファッション領域で画像セグメンテーションを使ってみる。 それでは画像セグメンテーションの精度をみるために、実際に人間が着ている服装をsemantic segmentationで識別してみましょう。ここから少し技術的な話になります。 ○アルゴリズム 今回はFully Convolutional Neural Networkを使いSemantic Segmentationを行います。 引用:https://arxiv.org/abs/1411.4038 ○データセット こちらのデータセットを拝借しました。 https://sites.google.com/site/fashionparsing/dataset こちらのデータ・セットでは、左図のような通常の写真と右図のようなピクセルごとに色付けされた画像のセットが2683組あり、「背景」「Tシャツ」「カバン」「ベルト」「ブレザー」「ブラウス」「コード」「ドレス」「顔」「髪」「帽子」「ジーンズ」「レギンス」「パンツ」「スカーフ」「靴」「シャツ」「肌」「スカート」「靴下」「ストッキング」「サングラス」「セーター」という領域に分けて色付けがされています。 ○学習 今回は私たちインキュビット社にあるNvidia GPU TitanXのマシンを使ってTensorFlowで実装を行い、データのうち90%を学習に10%を検証に使いました。 Adam optimizerのモデルを使い、バッチサイズ:50、学習率:10^-5、ドロップ率:0.5をという条件で約10時間かかっています。 ○結果 セグメンテーションの精度はまぁまぁなようですが、すこし色が違う部分が有りますね。ブラウスやブレザー、ジーンズやレギンス等、細かな部分を識別しきれていないようです。人間がみても見分けづらい箇所なので、難易度は高いのでしょう。 データセットが100万組ほどあるとジーンズとレギンスといった細かい違いにも対応できるかと思います。しかし今回は2700枚以下のセットしかないので、以下のようにも少し大雑把でシンプルな分類にしてみましょう。 ・Tシャツ、かばん、ブレザー、ブラウス、コート、セーター → トップス ・顔、帽子、サングラス → 顔 ・ジーンズ、レギンス、パンツ、ショートスカート → ボトム ・靴下、ストッキング → 靴下 今度はかなり正答例と近くなりましたね。 画像セグメンテーションではこのような感じで、学習データを用意しモデルを作成していきます。 ■最後に 今回の記事では ・「画像×機械学習」の応用として、画像分類、画像検出、画像セグメンテーションを紹介しました。 ・画像セグメンテーションの例として、服装のセグメントのステップを実際のデータを用いてご紹介しました。 ファッション 以外の領域でも、画像セグメンテーションの応用例はまだまだ あります。画像×機械学習に興味があるかた、実際にビジネスに導入していきたい方、お気軽にお問い合わせください。

機械学習は絶滅危惧種を救えるか?

海に住む絶滅危惧種を保護する研究者たちの活動には、様々な困難がつきまとう。 まずは個体の数を正確に把握することが不可欠になるが、これが難しい。これまでは小型飛行機で海上を旋回しながら、目視で個体の数を数えていた。そのため莫大なコストがかかる上に、事故にあう危険もあった。 今ではドローンを遠隔から操作して、航空写真を撮影できるようになったため、こうした問題は解消しつつある。 しかしもう一つ難しい点がある。ドローンからは海上の航空写真が数万枚もあがってくる。これらを人が目視で確認して個体を数える必要があるのだ。 ちなみに以下の海上写真には絶滅危惧種である海牛が1頭いる。どこに隠れているか分かるだろうか? 正解は以下の画像で丸をつけたところ。確かによく見ると小さな黒いかたまりがわずかに見える。素人が正確に判別することは非常に難しそうだ。 こうした気の遠くなるような作業を数万枚の写真に対して行う必要があるため、なかなか調査の範囲を広げることが難しい。これが目下の課題だ。 海牛の保護に取り組む豪マードック大学のアマンダ・ホグソン博士は、こうした課題を機械学習技術によって解決しようとしている。 豪クイーンズランド大学と共同で開発した画像認識システムによって、航空写真の中から海牛の位置を自動で検知しようというのだ。 このシステムを開発するために、彼らはGoogleの画像検索や音声認識で使われている技術を活用している。Googleはこれらの技術を機械学習ライブラリ「TensorFlow」としてオープンソースで公開しているのだ。 今のところ同システムによる海牛の検知率は、人による目視の80%ほどだといい、今後さらに改善できる見込みだという。さらに海牛だけでなく、ザトウクジラや特定種のイルカといった他の海洋哺乳類での応用も期待されている。

ウーバーが機械学習による予測精度を強化、4年ぶりの大改修で

米配車サービス大手ウーバー・テクノロジーズが、配車アプリのデザイン改修を進めていると発表した。複雑化していたUIの簡素化に加え、機械学習技術を活用した各種予測機能の追加を含む大規模な改修となる。同アプリのデザイン改修は2012年以来4年ぶり。 同アプリは2011年に公式に公開されて以来、機能やサービスの追加によって UIが複雑化。従来のトップ画面には、ハイヤーの配車サービス「UberBLACK」や低価格配車サービスの「uberX」、相乗りサービス「uberPOOL」、SUV(スポーツ用多目的車)を配車する「UberSUV」といった複数のサービスが乱立していた。 今回のデザイン改修では、こうした複数のサービスを「Economy」「Premium」「Extra Seats」の3カテゴリーに集約することで、UIの簡素化を図っている。 https://www.youtube.com/watch?list=PLmVTG4mAK7nxdlbFP5LS-9peUykQKXcN8&v=I1DdoN6NLDg またユーザーによる過去の利用データと機械学習技術を組み合わせることで、使い勝手をより向上させているという。 例えば新機能「shortcuts」では、ユーザーの過去の走行パターンを解析することで、最適な目的地を自動で表示してくれる。仕事終わりの18時にアプリを開いたユーザーであれば、自宅や子供の学校、よく行くバーなどが表示され、ワンタップで目的地を選択できるといった具合だ。 またユーザー周辺の交通量や工事状況などのデータを活用し、最適なピックアップポイントを表示することもできる。参照元となる過去の交通データの数は、約20億件にも上るという。 同社のデザインディレクターのDidier Hilhorst氏は、「ユーザーにとって時間は貴重だ。彼らの時間を尊重したい」と話している。 ウーバーはこれまでにも機械学習を活用したサービスを提供してきた。例えばフードデリバリーサービスの「UberEats」では、注文時の交通量や過去の注文記録を参考に、最適な注文先を表示するなどしている。 同社で機械学習関連の責任者を務めるDanny Lange氏によると、同技術の導入によって配達にかかる時間の予測精度が飛躍的に向上したという。 「当初のUberEatsでは、配達先までの距離や自動車の速度、調理時間を考慮した上で、配達時間を正確に予測することが難しかった。しかし配達件数が1万件に達したころから、データをもとにした予測モデルを構築できるようになった。それからたったの数週間で、予測精度を従来より26%も引き上げることができた」(Lange氏)。 Lange氏は、今年9月にサンフランシスコで開催されたスタートアップ関連のイベント「Disrupt SF 2016」にて、次のように述べている。 「(機械学習技術によって)ニュートン力学から量子力学への移行に匹敵するほどの大きな革新が起きようとしている。”予測”や”可能性”といったことがより重要になる」。 またウーバーは、自動運転技術にも注力しており、今年8月には自動運転トラックの新興企業オットー社を6億8,000万米ドル(約700億円)で買収している。 人工知能関連技術を活用することで、人の手を介さない自動化の方向性を推し進めている同社。今回のデザイン改修に含まれる機械学習関連機能の追加も、その一環と言えそうだ。

抑えておきたい、AppleやGoogle等が手掛ける人工知能プロジェクト22選

人工知能(AI)はもはやSFの世界の出来事ではない。 AI自らが自律的に学習するディープラーニング(深層学習)の発展をきっかけとして、大企業からベンチャーまで様々な企業がAI技術を使ったビジネス活用に取り組み始めている。 急激に拡大するAI産業をけん引しているのが、ITジャイアントと呼ばれるGoogleやApple、Facebook、Amazon等だ。彼らは自社が保有する膨大なユーザーデータを活用しながら、人工知能関連技術の開発に取り組んでいる。 今回は世界のAI産業を俯瞰する上で不可欠な彼らによる取り組みを中心に、主なAIプロジェクトを紹介していく。 ■IBM 企業によるAIプロジェクトというと、IBMが開発した「Watson」を思い浮かべる人も多いだろう。 2011年2月にアメリカの人気クイズ番組「ジョパディ!」に出演し、当時史上最強といわれたチャンピオン解答者に勝利したことで、世間での知名度を一気に上げた。 https://www.youtube.com/watch?v=KVM6KKRa12g コンピューターでありながら人と同じように理解・学習し、人間の意思決定を支援するコグニティブ(認知型)・システムと位置づけられるWatson。IBMは「Watson」ブランドの下で様々な製品やサービスを展開しているが、大きくは開発者向けツールと既成アプリケーションの2つに分類できる。 Watson APIs IBMが提供する開発者向けのAPI(Application Programming Interface)。Watson APIの活用によって、外部の開発者が自身のアプリケーションにWatsonの技術を取り込むことができる。 APIの種類は、画像識別機能を持つ「Visual Recognition」や、言語翻訳の「Language Translation」、文字を音声に変換する「Text to Speech」など19種類(2016年6月時点)に上る。 Watson Marketplace IBMは「Watson Marketplace」にて、Watsonを利用した既成アプリケーションも提供している。ショッピング支援アプリケーションの「Watson Trend」や自然言語を処理する分析ツール「Watson Analytics」、SNSでのコメントを分析する「Analytics for Social Media」など多岐にわたる。 SystemML 「SystemML」はIBMが開発した機械学習システムで、企業データの分析を目的とした業界特化型の機械学習アルゴリズムを作成するために活用される。SystemMLを取り入れたアプリケーションによるエコシステム構築を狙うIBMは、2015年に同システムのオープンソース化に踏み切っている。  ■Google 検索エンジンで馴染みのGoogleも、AI研究に多大なリソースを投入している。同社は「Google Brain Team」と呼ばれるAIプロジェクトの社内専門チームを設立。獲得した技術を検索エンジンやAndroid対応パーソナルアシスタントサービス「Google Now」をはじめとする自社製品に応用している。さらに研究成果をオープンソースとして公開しているほか、AIに関する研究論文も複数出版している。 TensorFlow Tensor Flowは機械学習に必要な数値計算を行うライブラリ。Google...

AIビジネスの今を知る、最新トレンド10選

AI(人工知能)関連市場がますます盛り上がっています。 調査会社のIDCによると、AI関連市場の規模は、2016年の80億ドル(約9,000億円)から2020年に470億ドルに拡大するそう。 「すでに企業のあらゆる業務プロセスにAIは活用され始めている」と、同社のDavid Schubmehl氏(コグニティブシステム・コンテンツアナリティクス担当ディレクター)は話しています。 ただ「AI関連市場が盛り上がっている!」とだけいわれても、範囲が広すぎていまいちピンとこないですよね。 そこで今回は2017年以降にかけて、重要になり得るトレンド10項目をご紹介します。すでに流行っている項目も多いですが、これからさらに重要性が増すという意味で、改めて触れておきます。 今後AI導入を自社で検討する上で、今回の記事を見取り図として使っていただければ。AIビジネスについてこれから知りたい、という方向けの内容です。 1.AIチャットボット AI関連の調査会社TechEmergenceが、AI関連企業の幹部らを対象に実施した調査によると、今後5年間で最も発展するAI関連技術として、最も多く挙げられた項目が「チャットボット」(37%)でした。 自然言語を理解した上で、メッセージングサービスやメールを通して人とコミュニケーションできるチャットボット。すでにIBMやFacebookといった複数の企業が、チャットボットの開発プラットフォームを公開しており、数多くの企業が参画しています。 Facebookによると、2015年夏の時点で、11,000件以上のボットがメッセンジャー上で稼働中だとのこと。またIBMによると、2000年以降に成人になるミレニアル世代の中で、人間のスタッフよりもチャットボットとのコミュニケーションを好むと答えた割合は、65%に上ります。 2.アプリケーション開発 AIを活用したアプリケーションは、もちろんチャットボットだけではありません。すでにウェブやモバイル、企業内システムといった広い範囲でAI技術が活用されています。たとえばレコメンデーション機能やスケジューリング機能、ビッグデータをもとにした洞察の抽出といった具合です。 今後この傾向はますます強まるでしょう。Gartnerは自社レポートの中で、2018年までにグローバルの大企業上位200社のほどんどの中で、AIを使ったアプリケーションやビッグデータの活用、アナリティクスツールによるサービス・顧客エクスペリエンスの改善が主流になると予測しています。 3.IoTでの活用 モノとモノをインターネットでつないで相互に制御できるIoT。GartnerはIoTとAIの関係についてこう説明しています。 「IoT端末を含む既存の機器は、AIによってインテリジェントな能力を獲得することになる。こういった技術は住宅やオフィス、工場、医療施設などあらゆる場所で活用される」。 たとえば次世代のフィットネストラッカー機器であれば、単にデータをモニタリングするだけではありません。機械学習やアナリティクス機能によって、これまでの健康情報をもとにしたレコメンデーションも可能になります。 4.ヘルスケア AI活用による効果が最も期待されている分野の一つがヘルスケア。IDCによると、2016年に最もAI関連の投資を集めた分野の一つが病気の診断システムです。さらに今後5年間の投資額は、年間69.3%のペースで増えていくとみられています。 また似たような話でいうと、CBInsightsもAIスタートアップが最も活発な分野(2016年)としてヘルスケアを挙げていますね。 5.生物学的モデル AIとヘルスサイエンスの関係は、単なる診断システムにとどまりません。コンピューターサイエンスの研究者たちは、生体モデルをAIソフトウエアの開発に応用することで、人間のような複雑な処理を実施しようとしています。 脳の神経回路の仕組みを模したニューラルネットワークもその一つ。一例としては、マサチューセッツ工科大学(MIT)とGoogleが2016年2月に発表した研究があります。彼らが開発したのは、道端の画像を読み込ませると、その地名を正確に返すシステム。約1億枚に上る位置画像をニューラルネットワークに学習させたそうです。 今後も発展していくと思われるこの分野。レイ・カーツワイル氏のように、2030年までにはヒトの脳とコンピューターネットワークが融合したハイブリッド型のAIが誕生すると予測している研究者もいます。 6.ハードウエアへの応用 AIビジネスというとソフトウエアになりがちですが、ハードウエアももちろん重要です。自動運転車や産業用ロボット、AI搭載ドローンなどがその一例。今後5年間でAIハードウエア市場規模は、年率60%以上で成長するとIDCはみています。 7.AI関連スタートアップ AI産業の成長に伴い、スタートアップも増えています。Venture Scannerによると、AIスタートアップの数は73か国で1,500社に上るそう。またGoogleやIntel、Apple、Facebook、MicrosoftといったIT大手によるスタートアップの買収も活発化。今後もこのトレンドは続くでしょう。 8.労働への影響 AIとビジネスの話で最も注目されがちなトピックの一つが、労働への影響です。2016年6月には調査会社Forresterが、「現在のアメリカの労働人口の7%が、2025年までにロボットや機械学習といったAI技術によって置き換えられる」という具体的な調査結果を発表して話題になりました。 もちろんAIによって置き換えられるかどうかは、仕事の内容によります。サポートセンターのスタッフのように今後劇的に少なくなる職業がある一方で、データサイエンティストやオートメーションスペシャリストのようにさらに需要が増す仕事に分かれてきます。 9.AIの盛り上がりに対する反動 AI産業が盛り上がりをみせている一方で、その反動が今後押し寄せる可能性もあります。AIによって職を追われた人々がこうした技術に反感を抱き、その動きが政治に影響を及ぼすことも考えられます。 またスマートロボットやコグニティブ関連の専門職、機械学習、自動運転といったAI関連の技術には「過度な期待」が集まっている、とGartnerは指摘します。これは先進テクノロジーの発展段階を示した「ハイプ・サイクル」に基づいた予測です。 このモデルによると、「過度な期待」が集まっている時期を過ぎると、「幻滅期」と呼ばれる時期がやってきます。実際にテクノロジーを導入しても成果につながらない事例も多く出てくることで、興味が失われていく段階です。関連企業の淘汰が進むのもこの時期です。 10.予測精度の改善 すでにAIが大きな影響を及ぼしている箇所といえば、予測精度の改善です。これは予測のもとなるビッグデータがあってこそのもの。これまでビッグデータの活用に取り組んできた企業からすれば、機械学習をベースとした予測精度の改善に取り組むことは自然な流れといえるでしょう。 分かりやすい例としては、2016年のアメリカ大統領選でのAI活用があります。インドのスタートアップが開発したAIシステムは、選挙の前日の段階でドナルド・トランプの勝利を予測していたといいます。他の事前調査のほとんどがヒラリー・クリントンの優勢を伝えていたにもかかわらずです。

人工知能が変える、企業による営業プロセスの未来

「営業スタッフのほとんどは、向こう10年で人工知能に置き換えられることになる」。 2015年9月、米カリフォルニア州バークリーを拠点とするLeadGenius社の共同創業者、Anand Kulkarni氏はこう大胆に予測した。同社は人工知能技術を活用した営業支援ソフトウエアを販売するスタートアップだ。 この発言だけを切り取ると、営業活動において人間が不要になると取れるがそうではない。「なくなるのは現在の営業のやり方だ」というのがKulkarni氏の主旨だ。同氏は、人工知能技術の発展によって、営業活動のさらなる自動化や近い将来の動向予測が可能になるとみている。 さらに著名ライターのSteve Olenski氏は、このKulkarni氏の発言を引用しながら、次のように主張している。 「現状の営業プロセスは消滅の瀬戸際にある。テクノロジーによって新たなやり方を迫られることになるだろう」。 人工知能技術によって劇的に変わると予測される営業プロセス。特に膨大な営業データとそれを扱うツールの利用を最適化することで、リードや売上の増加につなげることができるという。 具体的にどのように対応するべきなのか?Olenski氏による主張を紹介する。 リーダーシップによる変革 営業プロセスの変革に向けて、まずセールスマネージャーによるリーダーシップが欠かせないという。中でもデータやツールを使って営業プロセスを最適化できる能力を持った人材へのニーズが高まると予測している。見込み客リストの作成から各メンバーによるパフォーマンスの管理に至るまで、データが果たす役割の重要性は高まっているからだ たとえばCRM(顧客管理システム)による営業成績の管理機能。現在は各スタッフによる成約数などの把握にとどまるが、今後の技術の進歩によって、各スタッフの成績を予測することも可能になるという。 アナリティクスの徹底活用 営業データの活用体制が整ったら、次はデータのアナリティクスを徹底させることだ。営業プロセスにおけるアナリティクスの重要性は、多くの企業で急速に増している。Salesforceの調査によると、営業データのアナリティクスを1年以内に強化すると答えた企業は約6割に上る。 特に注目を集めているジャンルが予測分析だ。顧客に関する膨大な属性データや企業データ、行動データを集めた上で、近い将来に起き得る現象を予測するのだ。たとえばある顧客が購買に至る可能性について、過去のやりとりやオンライン上の情報をもとに予測することも可能になる。 顧客とのコミュニケーションの自動化 営業プロセスにおける人工知能関連ツールの役割は、今後ますます増大するとみられるが、見込み客と対話して顧客化へと導く役目は、相変わらず人間が中心に進めることになるだろうと、Olenski氏は予測している。 ただしそこでもテクノロジーを活用する必要性はますます高まる。その兆候は出ている。たとえばKulkarni氏が指摘するように、ソフトウエアが顧客向けに自動で作成するメールの精度は日に日に高まっており、もはや人間が作ったメールとの区別がつかない水準にまで達している。顧客データのアナリティクスを徹底させることで、個々の顧客が抱えている課題やその解決方法をより的確に盛り込むことも可能になるだろう。 この手の技術はまだまだ発展途上だが、本格的に実用化されれば営業手法を根底から変えるだけのポテンシャルを秘めている。 ただし繰り返しになるが、当面の間は人の手が完全に不要になることはないだろう。先に紹介したメールでさえも、文章のテンプレートは人が用意する必要がある。アナリティクスが優れた営業人材を置き換える自体にまで発展することはまだなさそうだ。あくまで一部の業務を自動化するにとどまるだろう。