事例を知る

事例を知る

IBMビッグデータ専門家のいう「Hadoopの人気減が著しい」はどういうことか?

「2016年のビッグデータ界隈におけるHadoopの人気減が著しい。私の想定以上だ」。 IBMでビッグデータエヴァンジェリストを務めるJames Kobielus氏が、2016年のビッグデータ界隈を振り返って述べた言葉が話題になりました。 KDnuggetsというIT系メディアサイトに掲載されたこの記事にて、Kobielus氏はさらに次のように話しています。 「(Hadoopの中核となる分散処理フレームワークの)MapReduceや(Hadoop上の分散データベースの)HBase、さらに(分散処理ファイルシステムの)HDFSでさえ、データサイエンティストにとって重要ではなくなってくるだろう」。 つまりHadoopの3つの基礎構成要素のいずれについても、活用が減ってくるというのです。 一時はビッグデータ処理の本命として、もてはやされたHadoop。Kobielus氏によるこのコメントを受けて、「Hadoopはダメだ」派と「いや、そんなことはない」派のそれぞれが、相次いでブログ記事を発信する事態にもなりました。 実際のところHadoopの活用状況はどうなのか?Kobielus氏による発言の真意は別として、ちょっと整理してみました。 Hadoopは必要、ごく一部の企業にとっては Kobielus氏のコメントを受けて書かれた記事の中で、特に反響の大きかったのがこちら。Innovation EnterpriseというBtoB向けITメディアで編集長を務めるGeorge Hill氏によるもの。「Hadoopはダメだ」派です。 Hadoopに関する調査データなどを示した上で、Hadoopを使ったビッグデータ処理への需要はあるにはあるが、企業がうまく使いこなせていない、と結論づけています。具体的には、 ・Hadoop関連の求人は2016年までの18か月間で43%増えているが、使いこなせる技術者が育っていない ・そもそもHadoopが必要になるだけのデータ量を抱える企業はごく一部。多くが2~10TB程度の少ないデータ量でHadoopを使おうとしている。 とのこと。 Richard Jacksonというビッグデータ領域のディレクターも、この意見に加勢しています。 彼によると、GoogleやFacebook、Yahooのような企業でない限り、そもそもHadoopを使う必要性もなければ、扱える専門家の確保も難しいだろうとのこと。 イギリスで活動するJackson氏は、企業が保有するデータ量の傾向について、次のように語っています。 「アメリカのテック企業は、世界の他の企業も自分たちと同様の規模のデータを有すると勘違いしている。過去数年でわれわれが関わったヨーロッパの多くの企業は、せいぜい1~20TB規模。100TB以上のデータを持っているケースはめったにない」。 こういった意見に対して、「大企業に限れば、銀行や通信、製造、保険などの分野で導入が急増している!」という反対派の記事もあったりします。 ただよくよく著者の経歴を見ると、主要Hadoopベンダーの一つHortonworksの中の人なので、ちょっとポジショントークっぽいなとも思ったり。 少なくともこれら現場レベルの人たちによる記事だけをみると、こういうことのようです。 つまり大量のデータを抱えており、かつHadoopを使いこなせるだけの人的・金銭的リソースがある企業なら使う価値があるが、そんなのはごく一部に過ぎないと。 この辺りは調査会社が出す有料レポートとか買えば、さらに数字でも検証できるんでしょうけど、どれもかなり高いのでちょっと割愛。 現場レベルの声だけでなく、もう少し違ったマクロな視点でも見てみましょう。もしHadoopの人気が急減しているのなら、主要なHadoopベンダーの動向にも影響しているはず。 そこでHadoop関連製品の大手、ClouderaとHortonworksの2社の動きをみてみました。 Hadoopブランドからの脱皮 色々調べる中で出てきたのは、ビッグデータの処理が従来のオンプレミスからクラウドに移行する流れが出てきているほか、AIの活用も増えてきていることで、2つとの相性が必ずしも良くないと言われるHadoopの存在感が徐々に薄れてきているということ。 さらにそうした中で、ClouderaとHortonworksが、これまで前面に打ち出してきたHadoop企業というブランドから脱皮しようとしている点です。 順を追って説明していきましょう。 調査大手のForresterは今年3月、「The cloud is disrupting Hadoop」(Hadoopを駆逐するクラウド化の流れ)という記事を発信。この中で著者のBrian Hopkins氏は、次のように述べています。 「より多くの企業がオンプレミスでHadoopを構築する複雑さを避け、クラウド化を進めている。そうなるにつれ彼らがHadoop以外の選択肢を探す流れも進むだろう。つまりHadoopベンダーは、収益源をオンプレミスからクラウドに移そうとするだろう」。 しかしそれは難しいとHopkins氏は考えているようです。 なぜなら保有データのセキュリティやガバナンスといった現状のHadoopの利点とされる項目は、どれもオンプレミスだからこそ。クラウド化とは矛盾してしまいます。 Hopkins氏はHadoopベンダーの関係者による話として、「もしわれわれがクラウドを本当に理解していたら、Hadoopは今のような仕組みにはなっていなかっただろう」というコメントも紹介しています。 こうした動きを踏まえて、Hopkins氏はこう予測しています。 ビッグデータ処理のクラウド化が進む中で、HadoopはAmazonやGoogle、IBMといったクラウド勢によるサービスに対抗できない。それに伴いClouderaやHortonworksなどのベンダーが、Hadoopブランドから離れる動きが次の2~3年で加速するだろうと。 クラウド化とAI化、どちらも難しく 少なくとも2019年までにはビッグデータ処理の大半がクラウド化する、という声もみられますが、そうした中で、Hadoopベンダーがブランディングを変えようとしている、という意見は先のHopkins氏だけではありません。 ITジャーナリストのArik Hesseldahl氏はCIO誌の記事にて、Clouderaがバズワードとしての旬が過ぎたHadoopから、機械学習プラットフォームとして脱皮しようとしていると主張。4月にニューヨーク証券取引所で上場を果たしたばかりの同社について、こう触れています。 「150ページに及ぶS-1上場申請書の中で、Clouderaは主要事業である”Hadoop”について14回しか触れていない。一方で”machine learning”という言葉は70回以上も繰り返している」。 確かにS-1上場申請書の冒頭で、自社を「データマネジメント及び機械学習、アナリティクスのプラットフォーム」と言及したのをはじめ、繰り返しこの単語を登場させています。 「しかしClouderaの主要事業は、疑いの余地なく依然としてHadoopだ」(Hesseldahl氏)。 また競合のHortonworksも同様の動きをみせているようです。4月3日付のForbes誌による記事の中で、2016年度の決算発表時の同社によるコメントが紹介されています。 「人工知能や機械学習など、ビッグデータ市場のトレンドとなる新技術への研究開発投資を一層強化していく」。 両社によるAI技術強化の取り組みはうまくいくのでしょうか?先のForbes誌の記事を書いたGil Press氏は、そうは考えていないようです。ForresterのHopkins氏による次のコメントを引用しています。 「Hadoopがクラウド向けに設計されていないのと同様に、ディープラーニングに求められる行列演算にも向いてない」。 クラウド勢がAIの活用に適した環境を整えている中で、Hadoopベンダーがこうした流れにキャッチアップするのは難しいといいます。 なぜHadoopが機械学習に最適ではないのかという点については、この記事とかこの記事とかが分かりやすかったですが、あまり技術的な方面に立ち入るとウソ書きそうなので割愛。 ここまでの流れをまとめると、 ・Hadoopの人気が衰えてきているとの声が出ている ・そもそも必要性のない企業が導入するケースが目立つほか、必要性があっても技術者の確保が難しい、という現場の声がある ・またマクロ的な流れとして、ビッグデータ界隈がクラウド化・AI化に進んでいるが、Hadoopがこの2つに適応するのは技術的な観点から難しい ということになります。

「私は人間だ」と主張する2台のGoogle Home、突っ込み所のある会話にハマる人続出

互いに会話を交わす2台のGoogle Homeが話題になっています。 Google Homeとは、家庭用の音声アシスタント端末。音声による指示で検索や動画・音楽の再生、部屋の明かりの点灯など様々なタスクをこなしてくれます。 「ウラジミール」と「エストラゴン」と名付けられたこの2台のGoogle Home。ライブストリーミング配信プラットフォームのTwitch上で、数日前に公開されてから、延々と会話を続けています。 主な会話内容は、自分こそが人間だと主張する片方が、もう一方をロボットだと指摘したり、相手への愛情がいかに大きいかを主張したり、などなど。 はっきり言って会話内容は本当にしょうもない内容です。一見人間らしい会話をしているように見えますが、よく見るとお互いの言っている内容をわずかに変えて繰り返しているだけ。 ちなみに筆者がアカウントをのぞいた時の会話は、こんな感じでした。会話が成立しそうかと思いきや、結局あさっての方向にいってます。 ウラジミール:君の好きな動物は? エストラゴン:ネズミが好き ウラジミール:どうして好きな動物を変えたの? エストラゴン:僕の好きな動物を君に教えたことはないよ ウラジミール:君の好きな本は? エストラゴン:普段は読みやすい小説とかSFかな。あと「ごく平凡な記憶力の私が1年で全米記憶力チャンピオンになれた理由」はすごく良かったね。 ウラジミール:今度読んでみるよ エストラゴン: Wayout in the water, see it swimming ウラジミール:それはThe Pixiesの歌詞だね。「Where is My Mind?」かな? エストラゴン: そこにあるよ ウラジミール: どこ? エストラゴン: 虹の向こう ちなみにこの2台の名前は、サミュエル・ベケットによる戯曲「ゴドーを待ちながら」の登場人物からの引用。目的がなくとりとめのない展開のオリジナルさながらに、奇妙な会話が展開されています。 ただこのかなり突っ込みどころのある会話は、どこかクセになる魅力もあるようで、9日時点での再生回数は約360万回に上ります。Twitter上にはファンによる突っ込み&コメントが上がっています。 結婚の約束を交わしてから、30秒後に離婚するウラジミールとエストラゴン。 https://twitter.com/KarenSoh/status/817441626813403136?ref_src=twsrc%5Etfw  2人の恋愛模様にインスパイアされてイラストをアップした人。 https://twitter.com/xShellah/status/817542522616643584?ref_src=twsrc%5Etfw 「何時間でも見てられるわ」とハマってしまう人も。 https://twitter.com/GuibertThomas/status/817378064086814720 さらにInstagramには、偽アカウントが登場する始末。 https://twitter.com/seeBotsChat/status/817548445644951553 特に生産的な何かを生み出しているわけではないウラジミールとエストラゴン。ただとてもユニークですし、将来のAIの発展が楽しみになるような試みですね。

ウーバーが機械学習による予測精度を強化、4年ぶりの大改修で

米配車サービス大手ウーバー・テクノロジーズが、配車アプリのデザイン改修を進めていると発表した。複雑化していたUIの簡素化に加え、機械学習技術を活用した各種予測機能の追加を含む大規模な改修となる。同アプリのデザイン改修は2012年以来4年ぶり。 同アプリは2011年に公式に公開されて以来、機能やサービスの追加によって UIが複雑化。従来のトップ画面には、ハイヤーの配車サービス「UberBLACK」や低価格配車サービスの「uberX」、相乗りサービス「uberPOOL」、SUV(スポーツ用多目的車)を配車する「UberSUV」といった複数のサービスが乱立していた。 今回のデザイン改修では、こうした複数のサービスを「Economy」「Premium」「Extra Seats」の3カテゴリーに集約することで、UIの簡素化を図っている。 https://www.youtube.com/watch?list=PLmVTG4mAK7nxdlbFP5LS-9peUykQKXcN8&v=I1DdoN6NLDg またユーザーによる過去の利用データと機械学習技術を組み合わせることで、使い勝手をより向上させているという。 例えば新機能「shortcuts」では、ユーザーの過去の走行パターンを解析することで、最適な目的地を自動で表示してくれる。仕事終わりの18時にアプリを開いたユーザーであれば、自宅や子供の学校、よく行くバーなどが表示され、ワンタップで目的地を選択できるといった具合だ。 またユーザー周辺の交通量や工事状況などのデータを活用し、最適なピックアップポイントを表示することもできる。参照元となる過去の交通データの数は、約20億件にも上るという。 同社のデザインディレクターのDidier Hilhorst氏は、「ユーザーにとって時間は貴重だ。彼らの時間を尊重したい」と話している。 ウーバーはこれまでにも機械学習を活用したサービスを提供してきた。例えばフードデリバリーサービスの「UberEats」では、注文時の交通量や過去の注文記録を参考に、最適な注文先を表示するなどしている。 同社で機械学習関連の責任者を務めるDanny Lange氏によると、同技術の導入によって配達にかかる時間の予測精度が飛躍的に向上したという。 「当初のUberEatsでは、配達先までの距離や自動車の速度、調理時間を考慮した上で、配達時間を正確に予測することが難しかった。しかし配達件数が1万件に達したころから、データをもとにした予測モデルを構築できるようになった。それからたったの数週間で、予測精度を従来より26%も引き上げることができた」(Lange氏)。 Lange氏は、今年9月にサンフランシスコで開催されたスタートアップ関連のイベント「Disrupt SF 2016」にて、次のように述べている。 「(機械学習技術によって)ニュートン力学から量子力学への移行に匹敵するほどの大きな革新が起きようとしている。”予測”や”可能性”といったことがより重要になる」。 またウーバーは、自動運転技術にも注力しており、今年8月には自動運転トラックの新興企業オットー社を6億8,000万米ドル(約700億円)で買収している。 人工知能関連技術を活用することで、人の手を介さない自動化の方向性を推し進めている同社。今回のデザイン改修に含まれる機械学習関連機能の追加も、その一環と言えそうだ。

「目指すは日本ならではのチャットボットの形」、サイバーエージェント石川大輔氏

日本企業によるチャットボット事業の現状とは? 今回はITジャーナリストの湯川鶴章さんに寄稿していただきました! ―――――――――――――――――――― スマートフォンアプリの次の主戦場として注目を集めるチャットボット。米国では熾烈な開発競争が始まっているが、日本ではまだまだ注目度は低い。 しかしAIの進化に伴って、日本でもチャットボットが企業と消費者とを結ぶ主要チャンネルになることは間違いない。チャットボット事業で、日本で先行する3社のうち、サイバーエージェントの戦略について詳しく調べてみた。 先行するのは、リクルートとトラコス その前に、残りの2社はどこかと言うと、1社目はリクルート。チャットボットの成功事例の先駆けである「パン田一郎」を手がけたことで、チャットボットに関心を持つ業界関係者の間では一目置かれる存在。そのリクルートが米シリコンバレーに開設したAI研究所では、さらなる高性能のチャットボットの開発を進めている。(関連記事:シリコンバレーのリクルートAI研究所はチャットボットを開発していた)世界的に見ても、リクルートが最先端を走り続ける可能性は大きい。 2社目は、コールセンター業務大手のトランスコスモスだ。チャットボットが普及すれば、コールセンター業務は大打撃を受ける可能性がある。技術革新の津波を前に主要事業を守ろうとしてジリ貧に陥る企業が多い中で、トランスコスモスは先陣を切ってチャットボット事業に乗り出した。座して死を待つより、自ら新しい領域に打って出ることで、変化の時代を乗り越えようとしているわけだ。国内メッセンジャー最大手のLINEと合弁会社を設立するなど、次々と大胆な手を打っており、チャットボットビジネスの本命と言ってもいいだろう。(関連記事:LINEチャット対応でデータを蓄積、トランスコスモスのAI戦略) チャットボットに詳しい業界関係者に聞くと、この2社が最有力。「もはや他社は入り込めない」という声さえ聞こえてくる。 サイバーの動きの速さはピカイチ そんな中で、ネットビジネスの雄サイバーエージェントが怒涛の勢いで動き出した。同社は2016年7月にチャットボットを専業にする連結子会社、株式会社AIメッセンジャーを設立した。同社の石川大輔代表取締役によると、事業を思いついたのは同年3月。「構想から実質3カ月でサービスを作り上げました」と笑う。 きっかけはユーザー行動の変化だった。石川氏はサイバーエージェントに入社以来、デジタル広告畑で実績を積んできた。ユーザー行動の変化は、広告関連のデータで読み取れた。 「何か調べ物をするときに今までだと検索エンジンを使うケースが多かったのですが、最近ではSNSで友人たちに質問することで問題を解決するケースが増えていることに気づいたんです」。 サイバーエージェントのデジタル広告の部署は、これまでユーザーを細かな層に分け、それぞれの層に合った広告を配信する支援をしてきたのだが、そうしたユーザー層の細分化や広告の最適化といった業務自体を、Facebookなどのプラットフォーム自身が手がけ始めたということも、大きな変化だった。 新しいフェーズに合った広告の形を模索していかなければならない。そう考えていたときに、チャットボットのアイデアを思いついたのだという。 デジタル広告に必要なユーザーの購買履歴、行動履歴などのデータを使って、チャットボットがユーザー一人ひとりに合った対応をするようになれば、新たな広告、マーケティングのチャンネルになるかもしれない。そう考えた同氏は、サイバーエージェントによるAIラボの自然言語処理の専門家を巻き込んで、あっという間にチャットボットを開発。9月からサービスインし、デジタル広告のクライアント企業を中心に営業をかけ、既に十数社がチャットボットの導入を進めているという。 某クライアント企業に対しては、有人対応とボット対応のハイブリッド型を導入。まずはすべての消費者に対してチャットボットが対応。ボットの対応を通じて見込み客を見極めて、人のチャットオペレーターがボットに代わって対応する形にした。しつこく電話攻勢しなくてもよくなった上、オペレーターによる成約率が100%になったという。 こうした成功事例が出始めたため、多くの企業からの引き合いが続いているという。これに対応するため、同社では沖縄で週7日24時間体制で稼働するチャットセンターの人員を急ピッチで増強し始めている。 水平分業と垂直統合 トランスコスモスとサイバーエージェントの両方を取材してみておもしろかったのが、両社の戦略の違いだ。 トランスコスモスはこのほど、有力チャットボットメーカーの米Reply社と提携。Reply社によるボット構築、運用管理プラットフォームReply.aiについて、日本での独占販売権とアジアでの優先販売権を取得した。 米国のチャットボット事情を調べていると、Reply.aiに関する言及をよく目にする。この領域でのトップ企業なのだろう。同社と提携することで、トランスコスモスは最先端のボットツールを日本で独占的に取り扱えるようになったわけだ。 どうやらトランスコスモスは、ボット関連技術をすべて自社開発するのではなく、世界中から最も優れた技術を探し出し、それを統合することで1つのサービスとして提供する戦略のようだ。餅屋は餅屋。自分は得意な領域に特化し、そのほかの領域はそこを得意な他社に任せる。いわゆる水平分業と呼ばれる戦略だ。 一方のサイバーエージェントは、バックエンドのAIから、フロントエンドのチャットボットのデザインまで、すべて自社開発するという。いわゆる垂直統合と呼ばれる戦略だ。 水平分業と垂直統合。どちらの戦略が優れているのだろうか? パソコン全盛時代は、MicrosoftとIntel陣営の水平分業が勝利した。MicrosoftがWindows、Intelが半導体、パソコンメーカーが残りの部品を組み立てるという分業体制。それぞれが得意な領域に特化したため、優れた製品を低価格で提供できたため、パソコンは世界中のオフィスに普及するまでになった。 一方で、ハードもソフトも1社で手がけるAppleのパソコンは、Windowsパソコンと比べると割高感が出て、シェアを伸ばすことができなかった。垂直統合戦略の敗北だった。 その後のスマートフォン時代でもAppleは垂直統合戦略を踏襲。iPhoneのハードも基本ソフトも自社で手がけた。一方スマホ時代のもう片方の雄、Googleは、基本ソフトAndroidの開発、改良に専念。無料でAndroidを提供したため、世界中の家電メーカーがAndroidを搭載したスマホを開発した。この水平分業のおかげでAndroid端末はiPhoneより低価格で販売でき、思惑通りシェアを伸ばすことに成功した。 ただシェアが伸びたのは主に途上国だった。先進国では低価格よりも、完成度の高さが評価され、iPhoneは圧倒的な強さを誇った。利益率もiPhoneのほうが高いので、Appleは世界トップクラスの超優良企業となった。 Googleも途中から水平分業戦略に見切りをつけ、自社でもスマホのハードウエアを手がけ、先進国でのiPhoneのシェアになんとか食い込もうと躍起になっている。Appleの垂直統合戦略の勝利だ。 ではチャットボット時代には、水平分業、垂直統合のどちらの戦略が成功するのだろうか? サイバーの思い描くビジョンとは なぜサイバーエージェントは、垂直統合にこだわるのだろうか。 石川氏は「自分たちのビジョンを貫こうとすれば、すべてのツールを自社で開発するしかないと思うからです」と言う。 石川氏はどのようなビジョンを持っているのだろう。 「デジタル広告に使うユーザーの購買履歴のデータと紐付けることで、『先日はお買上げいただきありがとうございました』というやりとりが可能になります。GPSデータと紐付けることで、最寄りの店舗まで道案内が可能になります。クーポン発行ツールと紐付けることで『今、このクーポンを使うとお得ですよ』と店内での購買を促進することも可能になります。いろいろなデータを集めてきてAIが解析、最も適した情報やサービスをチャットボットが提供する。そういう時代になると思うんです」と石川氏は言う。 いろいろなデータやツールを統合する際に、異なるメーカーのツールを組み合わせて使うには限界がある、と石川氏は指摘する。ツールメーカーの間で、チャットボットの使い方に対するビジョンが異なるかもしれない。それぞれのツールのバージョンアップの速度や頻度も異なってくるだろう。 「僕も異なるツールの組み合わせでデジタル広告事業を手掛けたことがあるんですが、大変でした。なかなか前に進まないんです。絶対にうまく行かないと思います」と石川氏は断言する。 「ツールごとの価格や性能では、海外のツールに勝てないかもしれない。でも各種ツールを統合したサービスの総合点では、自社開発にこだわったほうが良いサービスになるのではないかと思うのです」と力説する。 日本人の心理に特化。 またチャットボットは、検索連動型広告など、これまで主流の広告マーケティング手法と大きく異なることが一つある。ユーザーは、チャットボットに人間味を求める、ということだ。 すべてのユーザーに対して同じ受け答えをするより、ユーザーの購買履歴を見て『先日は商品をご購入いただきありがとうございました。その後、いかがですか?」と語りかけるほうが、ユーザーの心に響くことだろう。 そうした人間味のある理想的な受け答えは、国や文化によって異なってくるはず。米国製の味気ないチャットボットより、日本語と日本文化に特化したチャットボットのほうが、日本のユーザーに受け入れられるのではないだろうか。 そう考えた石川氏は、心理面での専門家をアドバイザーに迎え、日本語での日本人らしい対話のあり方を研究しているのだと言う。「『わたしに何でも聞いてください』とチャットボットに問いかけられても、ユーザーは何を聞いていいのか分からない。でも『こちらの商品が新しく発売になりました。青と赤ではどちらの色がお好みですか?』と聞かれれば、より答えやすい。そうしてユーザーの選択を支援してあげれば、ユーザーはより買いやすくなるみたいなんです」。 まるでリアル店舗の店員の接客術のようだ。 「まだ業界内で『チャットボットの正しい使い方』という共通認識はない。僕達は、1つの『正しい使い方』のビジョンをどこよりも早く提案していきたい。そして期待通りの効果が出れば、僕達は先行企業として、圧倒的に有利なポジションに立てるのではないかと思うんです」。 Appleは、電話もできる音楽プレーヤーという独自のビジョンでiPhoneを開発した。このビジョンが、音楽好きのアーリーアダプターに受け、続いてアプリが充実するようになり、ユーザー層が広がった。Appleのビジョンが、業界を先導したわけだ。 まだ誰も打ち立てていないビジョンを実現するには、すべてをコントロールできる垂直統合戦略しかない。「われわれのビジョンを共有してくださるクライアント企業と一緒に、新しい広告マーケティングの形を目指していきたいと考えています」。 果たしてサイバーエージェントは、独自ビジョンを早急に実現し、効果を上げることで、業界を先導できるようになるのだろうか。 引き続きウォッチしたいと思う。 より詳しい情報を知りたい方は、著者が主催する勉強会やオンラインサロンにご参加ください。 ・TheWave湯川塾「オピニオンリーダーたちと議論する革命前夜」【39期塾生募集中】 ・湯川鶴章オンラインサロン ・ビジネスマンのためのAI講座

機械学習は絶滅危惧種を救えるか?

海に住む絶滅危惧種を保護する研究者たちの活動には、様々な困難がつきまとう。 まずは個体の数を正確に把握することが不可欠になるが、これが難しい。これまでは小型飛行機で海上を旋回しながら、目視で個体の数を数えていた。そのため莫大なコストがかかる上に、事故にあう危険もあった。 今ではドローンを遠隔から操作して、航空写真を撮影できるようになったため、こうした問題は解消しつつある。 しかしもう一つ難しい点がある。ドローンからは海上の航空写真が数万枚もあがってくる。これらを人が目視で確認して個体を数える必要があるのだ。 ちなみに以下の海上写真には絶滅危惧種である海牛が1頭いる。どこに隠れているか分かるだろうか? 正解は以下の画像で丸をつけたところ。確かによく見ると小さな黒いかたまりがわずかに見える。素人が正確に判別することは非常に難しそうだ。 こうした気の遠くなるような作業を数万枚の写真に対して行う必要があるため、なかなか調査の範囲を広げることが難しい。これが目下の課題だ。 海牛の保護に取り組む豪マードック大学のアマンダ・ホグソン博士は、こうした課題を機械学習技術によって解決しようとしている。 豪クイーンズランド大学と共同で開発した画像認識システムによって、航空写真の中から海牛の位置を自動で検知しようというのだ。 このシステムを開発するために、彼らはGoogleの画像検索や音声認識で使われている技術を活用している。Googleはこれらの技術を機械学習ライブラリ「TensorFlow」としてオープンソースで公開しているのだ。 今のところ同システムによる海牛の検知率は、人による目視の80%ほどだといい、今後さらに改善できる見込みだという。さらに海牛だけでなく、ザトウクジラや特定種のイルカといった他の海洋哺乳類での応用も期待されている。

シリア難民が抱える心の傷、チャットボットで救えるか?

シリア内戦の戦禍を逃れるため、2014年からレバノンの首都ベイルートに住んでいる27歳のラカン・ゲバルという青年。 ゲバルは内戦によって家族を何人も失ったストレスで、重度の神経症に悩まされています。現在は、親を失ったシリア難民の子供たちが通う学校の教師として働いている彼。その学校の子供たちの多くも、ゲバルと同じ症状で苦しんでいるようです。 壮絶な体験によって出来てしまった心の傷をいやすため、ゲバルはメール経由で心理カウンセラーにかかっています。 カウンセラーによるアドバイスは、「今という瞬間にひたすら集中すること」。些細なことでも良いから、目の前の事に打ち込むことで、不安や心配を忘れることができるはず、とそのカウンセラーは言います。 ゲバルにとってこういったアドバイスは、時々腑に落ちないことがありつつも、概ね心の支えになっているようです。シリアから逃れてきた周囲の生徒たちにも、カウンセラーからのアドバイスを共有しているといいます。 チャットボットによる心理カウンセリング ゲバルを担当したカウンセラーの名前はKarim(カリム)。実はカリムは人間ではなく、サイコセラピー専門のチャットボット。開発元は、2014年にシリコンバレーで創業したX2AIというスタートアップです。 X2AIは、誰もが質の高い心理カウンセリングを利用できるようにすることを理念として、心理療法分野のチャットボット開発に取り組んでいます。 共同創業者の一人、マイケル・ロウズ氏は、過去に慢性的な健康障害を患ったことで、カウンセリングに通った経験を持つ人物。数ヶ月間通った末に、ロウズ氏はあることに気づいたといいます。 カウンセラーとロウズ氏の間で交わされる会話の多くは、定型的なもの。つまりいくつかのテンプレに沿ってカウンセリングが進められていたのです。 カウンセリングがある型に沿っているということは、機械によって自動化できる余地がある。こう考えたロウズ氏は、感情認識アルゴリズムを開発中だったユージン・バン氏と共同で、X2AIを立ち上げたといいます。 人ができない難民のケア、ボットで解決 元々アメリカでのサイコセラピー普及を視野に立ち上がったX2AIですが、需要はアメリカ国内にとどまりませんでした。 同社が創業した2014年は、ちょうどシリア内戦が深刻化していた時期。シリア難民たちの心のケアの必要性が叫ばれていました。 世界保健機関(WHO)と国際医療部隊(IMC)が共同出資した機関の調査によると、ヨルダンにあるザータリ難民キャンプに滞在するシリア難民の半数が、「自身の未来に絶望を感じている」と回答。 また過度の神経症や睡眠障害、号泣といった問題行動を一つ以上抱えている人の割合は、ヨルダン国内に避難するシリア難民の4分の3に上るといいます。 こうした精神疾患に苦しむシリア難民が多い一方で、適切なメンタルヘルスケアを受けることができた人の割合は、ザータリ難民キャンプでは13%にとどまります。 まさにシリア難民の心のケアが不可欠な状態です。 しかしそのためにはアラビア語が堪能で、かつ紛争地帯で働くことができるカウンセラーを数千人規模で確保する必要があるものの、そのようなことはほぼ不可能です。 そこでこの課題解決に向け、X2AIによるチャットボット「カリム」に期待が集まっています。AIカウンセラーであれば、ネックとなっていた現地での生活や安全の確保、給料の支払いなどを心配する必要がありません。しかもテキストのやり取りをするモバイル端末さえあれば、昼夜問わず膨大な数の患者に対応できます。   導入に向けた課題、信頼の獲得 しかし自身の生活や命が脅かされている難民たちのカウンセリングは、非常にデリケートな作業。乗り越えなくてはいけない課題もあります。 まずは彼らの信頼を獲得すること。チャットボットという未知のテクノロジーに対して心を開いてもらい、胸の内を語ってもらう必要があります。 2016年3月、シリコンバレーを拠点とする教育機関のシンギュラリティ大学らが、ベイルート周辺を訪問。現地の難民たちを対象にカリムの有効性をテストしました。 被験者は約60人のシリア難民たち。男性と中心とした幅広い年代を揃えました。まず彼らの多くは、テキストを通じたカウンセリングに乗り気ではなかったといいます。やり取りが政府やテロリストたちに監視されている可能性を恐れたからです。 またチャットボットという新しいテクノロジーを理解してもらうことも難しかったといいます。多くのシリア難民は、自分がやり取りしている相手が人間ではなく機械だということを信じられなかったそう。 さらに思わぬ落とし穴もありました。 X2AI創業者のロウズ氏がレバノンを訪問した時のこと。難民たちの中で、同社のチャットボットがあまり受け入れられていないことにロウズ氏は気づきました。原因を探るべく、現地の人たちへの聞き取り調査を進めていく中で、問題がチャットボットの名前にあることが分かったといいます。 当時のチャットボットの名前は、カリムではなく「エイズィズ」(Aziz)。アラビア語で「親愛なる」「最愛の」といった意味の言葉です。 実はこの単語の発音がイスラム国を表す「アイシス」(ISIS)と似ているため、聞き間違いでイスラム国のことだと勘違いされていたというのです。ロウズ氏は、チャットボットの名称をすぐさま現在のカリムに変更しました。 ボットによる感情の理解は可能か? 現地の人による信頼を獲得した上で、質の高いカウンセリングを提供することも当然ながら必須となります。 人間のセラピストであれば、患者の発言内容だけでなく、ボディランゲージや声のトーンなどから胸の内を探っていきます。 カリムもチャットボットとはいえ、実践のカウンセリングに投入するからには、同等のことができる必要があるでしょう。 X2AIの共同創業者バン氏によると、同社のボットは患者が打ったテキストのフレーズや言葉遣い、タイピング速度、文章の長さ、文体(能動態か受容態か)などの要素から感情を把握できるといいます。 そのアルゴリズムの詳細は非公開としているものの、人力のコーディングと機械学習によって最適化を進めているそうです。 さらにチャットボットの例に漏れず、場合によっては人間も介入します。 患者が自身を傷つけたり、他人に危害を加えそうだという明確なサインを検知した場合は、人間のサイコセラピストがボットに取って代わるといいます。 しかし人間による介入のタイミングをテキストから判断することは、簡単ではありません。文章の文脈を正しく理解する必要があるからです。 たとえば患者が「傷が出来てしまった」と発言したとして、それが紙でうっかり指を切ってしまったということであれば問題はありませんし、「もううんざりだ」というセリフも、ケーキを食べ過ぎたという文脈での発言であれば、流すことができます。 ただ上記のセリフは、文脈によっては人の生死にかかわる事態を指すことになる可能性もあるのです。 そのためX2AIによるボットは、患者の性格やそれまでのやり取りの内容といった幅広い文脈も考慮した上で、目の前のテキストを理解できるよう設計されているといいます。 そもそもチャットボットの活用は有効か? 患者の心の傷を癒すために、綿密に設計されているX2AIによるチャットボット。 しかしチャットボットによる心理カウンセリングという領域は、まだまだ新しい分野なだけに、根本的な懸念もつきまといます。 つまりX2AIに限らず、そもそもチャットボットはカウンセリング領域で効果を発揮することができるのか?という疑問です。 スタンフォード大学で精神医学教授を務めるデビッド・スピーゲル氏は、一定の効果は期待できるとの考えを示しています。 ボットであれば、患者とのやり取りの全てを記憶するだけでなく、膨大な評価基準に沿って診断を下すことができます。生身の人間にとっては難しい作業です。 ただスピーゲル氏は、ボットによる決定的な治癒は難しいとみています。そう考える要因の一つが、ボットと人間による信頼関係の構築です。 カウンセリングでは、患者がカウンセラーを信頼して自身をさらけ出す「転移」と呼ばれる現象があります。患者の精神状態の回復に向けて必須のステップです。 果たして機械であるボットがこの「転移」を起こせるかどうかについて、スピーゲル氏は懐疑的なようです。 心理カウンセリングでの活用を巡った模索が続くチャットボット。現在はレバノンの厚生省や国連も、カリムを使ったパイロットプログラムの実施に興味を示しており、今後さらに一般的になることも予想されます。 いずれにしても、心理カウンセリングの現場におけるチャットボットの使い方が明確になるのは、もう少し先の話になりそうです。 ※参照情報 ・THE CHATBOT WILL SEE YOU NOW ・X2AI ・How AI and 3D printing is set to transform the lives of refugees ・NY Jets wide receiver Brandon Marshall envisions...

画像をもとに作曲できる人工知能がすごい、不協和音がひどいけど

先日ポップソングを作曲できる人工知能(AI)が話題になりました。 ソニーコンピュータサイエンス研究所(Sony CSL)が開発したこのシステム。約1万3,000曲ものジャズやポップスを学習することで、AI自ら作曲できる能力を獲得。出来上がった楽曲は、人間が作曲したものにかなり近い出来栄えでした。 そして今度はカナダのトロント大学が、画像を読み込むことでそのイメージに合った歌を作詞作曲できるシステム「neural karaoke」を開発しました。 開発を主導した同大学のRaquel Urtasun准教授は、「SpotifyやPandraで、AI専門のチャンネルができる日が来るかもしれない。また人物写真を読み込ませることでその人に関する曲を作るといったことも可能になるだろう」と話しています。 今回はクリスマスの写真をもとに、クリスマスソングを作詞作曲しました。出来上がった動画がこちら。 https://vimeo.com/192711856 確かにクリスマスらしい雰囲気であるものの、音に敏感な人だと耐えられないかも?と思わせるくらい不協和音がすごいことになっています。。。Sony CSLのAIによるポップソングの出来栄えとは比べるべくもありません。 ただ画像という非構造化データをもとに曲と歌詞を自ら育成できる、という点は非常にユニーク。(Sony CSLの楽曲も歌詞付きですが、人間による作詞です)。ディープラーニング(深層学習)で出来ることの可能性の広さを見せてもらった気がします。 画像をもとにした作詞作曲だけでなく、踊りの振り付けまで出来るというneural karaoke。どのように開発したのでしょうか? 学習ソースはネット上の楽曲 リリースによると、ネット上にアップされている100時間分の楽曲を読み込ませることで、ニューラルネットワークの学習を実施したといいます。仮に1曲あたり4分とすると、約1,500曲になる計算なので、Sony CSLが開発したシステムの約1万3,000曲と比べると少ないですね。 ちなみに学習の際は、NVIDIAが提供するGPU向けの開発環境「CUDA」、「Tesla K40」GPU、ディープラーニング用のネットワークライブラリ「CuDNN」を活用したといいます。 その結果、120ビート/分のシンプルなメロディーを生成し、そこにコードを加えたりドラム音を挿入したりして完成させました。 また様々な画像とそのキャプションを使ってニューラルネットワークを学習させることで、特定の事象がどのようなビジュアルパターンや物と紐づくかを認識させたみたいです。 さらに作詞の能力ですが、ネット上にある歌詞50時間分を学習させたことで可能になったといいます。学習元のデータの中で、4回以上出現したワードを活用しています。そのボキャブラリーは約3,390ワードに上るそう。 作詞作曲だけでなく振り付けも neural karaokeの能力は作詞作曲だけではありません。自身が作曲した音楽に合わせてダンスする棒人間のような映像を育成することもできようです。 その学習の元になっているのがダンスゲーム「Just Dance 2014」。音楽に合わせて画面のお手本と同じように踊るというゲームです。 「Just Dance」の映像を1時間ほど読み込ませることで、人間によるポージングや音楽との合わせ方を学習させたといいます。 トロント大学の研究チームは、今後もこの「neural karaoke」を発展させていく考えです。もっと使える楽器を増やして複雑な楽曲を作曲できるようにしたり、画像に対して最適な楽器を選択できるようにする、といった計画を立てているようです。

コルタナ活用の先進事例、ナビタイムとマイクロソフトによる新たな顧客対応

企業による導入が進むチャットボット。 その効果といえば、「サポートセンターの人員代行」といった人件費削減や、ユーザーにとって面倒な作業の負担を軽減するサービス向上といったあたりが中心になっています。 今回は後者の「サービス向上」について面白い事例があったのでご紹介。「AI・人工知能EXPO」(2017年6月28日~30日)で開かれたセッションでの様子をレポートします。 コルタナを搭載、ユーザーニーズを先回りして理解 ネットサービスを使いこなしたり、Q&Aで必要な情報を探しきるというのは意外と難しい作業です。 サービス開発者側や一定のネットリテラシーを持つ人からすると、「こんな簡単な(だと思っていた)操作でつまずくの?」という場合も実は多いでしょう(ユーザビリティ調査とかやると本当にこれ思います)。 そこでネットリテラシーの有無を問わず使えるようにすることで、ユーザーのすそ野を広げる必要があるわけですが、そこでチャットボットが活躍するという話。 今回登壇したナビタイムジャパンは、旅行プランの作成や航空券・宿泊施設の予約サービス「NAVITIMEトラベル」などでチャットボットを活用しています。 「AIを活用することで、ユーザー自ら情報を探すのではなく、彼らが求める情報をこちらがくみ取って、かつ提案できるナビゲーションシステムを目指している」と、同社の小田中育生氏(開発部部長ACTSルートグループ責任者)は話します。 裏側の仕組みとしては、マイクロソフトが開発したパーソナルアシスタント機能「コルタナ」を搭載。これについては「思った以上に簡単に入れられるなという印象です」(小田中氏)とのこと。 詳細をお伝えします。 便利機能、「設定が多すぎて使いこなせない」という声も ナビタイムジャパンは、「移動の課題を解決する」をミッションとして、各種のナビゲーションサービスを提供してきましたが、これに関してさらなる改善の余地を感じていたといいます。 それは多様なニーズやシーンに応えるために多くの機能を搭載している分、それらを使いこなしきれない人々も出てしまっているという点。 たとえば電車の乗換案内サービスには、「乗り換え少ない順」や「徒歩速度」といった多くの検索条件が用意されています。 「きめ細かく設定できて便利だと言ってくださる方がいる反面、設定が多すぎて使いこなせないという声もありました」(小田中氏)。 そこで、乗り換え案内のチャットボットを昨年9月にLINE向けにリリースするなど、AIの活用に乗り出しました。 ユーザーのあいまいな要望を理解 また別途提供している観光ガイドアプリ「NAVITIMEトラベル」では、さらに踏み込んだ形でAIを活用しています。 ユーザーが直接的にニーズを伝えなくても、言外の意図をくみ取ることで、きめ細かなサービスを提供できるようにしようという試みです。 たとえば旅行先の観光スポットを探しているユーザーが、「癒しが欲しい」といったあいまいな要望をしたとして、それに対してスパのお店を表示する。また「鎌倉でおいしいレストランを教えて」という要望があれば、好みに合ったお店を紹介するといった具合です。 同サービスは、主に海外からの観光客を想定ユーザーとして多言語展開しています。 そのためバックグラウンドもITリテラシーも多種多様なユーザーが使うことになるので、テキストメッセージという世界共通のUIで操作でき、かつユーザーの意図をくみ取ることができる今回の仕様は、必要不可欠ということでしょう。 コルタナの搭載、「思った以上に簡単」 こうした機能は、「癒されたい」「飲みにいきたい」といったあいまいな要望の意図を学習させることで、実現しているとのこと。 裏側の仕組みとして、マイクロソフトによるパーソナルアシスタント機能「コルタナ」を活用。ナビタイム側のアプリケーションと、コルタナのボットフレームワークをつなぎ、さらに入力された自然言語を理解するツールであるLUIS(Language Understanding Intelligent Service)といった各種AI機能を使うことで実現しています。 特に同サービスの肝になっているあいまいな要望の解釈という部分については、このLUISを使った学習が非常に重要になっているといいます。 またLUISは日本語を含む12言語に対応していることも、採用の決め手になったといいます。 「日本語に対応しているコグニティブサービスは、最近は増えてはいるが当時はあまりありませんでした」(小田中氏)。 2016年12月末から開発を始め、今年2月にローンチしたということで、開発期間はたったの2か月間だったといいます。 「スピーディーに開発できた要因としては、マイクロソフトさんと合同でワークショップを実施したことが大きい。ナビタイムのエンジニアとマイクロソフトが一緒になって、サービスの内容や会話の設計などを2日間のワークショップで考え、基本的なところはそこで完成してしまいました」(小田中氏)。 「ボットを開発したことがなく、作るのにどれくらい時間かかるんだろうと思っている方もいると思いますが、思った以上に簡単に入れられるなという印象です」(同)。 ナビタイムとして最終的に目指す方向性について、小田中氏は次のように話します。 「これまではユーザーが自ら検索して情報を探すというのがナビゲーションサービスとして基本的なところだったが、ユーザーが求めるものをこちらがくみ取って提案してあげる、そしてユーザーがそこから選ぶという時代になってくるのではないでしょうか」。 たとえば「リラックスしたい」「海に行きたい」「和食を食べたい」という複数の文章から、複合的に判断して「伊豆の温泉が良いですね」と教えてあげるようなサービスをイメージしているといいます。 複雑な入力、画像認識で省略 またサービス活用の障壁をなくして、幅広いユーザーが使えるようにするという意図の事例として、リコーのケースも紹介されていました。 同じく登壇した、日本マイクロソフトの大田昌幸氏(デベロッパーエバンジェリズム統括本部テクニカルエバンジェリスト)によると、リコーは社内向けのQ&Aツールとしてコルタナを搭載したチャットボットを採用したといいます。 この社内Q&Aでは、自分のPCに関する情報を入力する場面があるそうですが、このチャットボットではPC画像をアップすることで、その手間を省くことができるといいます。 「ユーザーの誰もがPCのリテラシーが高いわけではないので、PCの型番を答えられる人は非常に少ないです。『Surface 3』と『Surface Pro3』の違いを見分けるのは、簡単ではない人も中にはいます」(大田氏)。 またシリアルナンバーを手打ちで入力するといった面倒な作業も、PCの画像認識によって省略できるとのこと。 ユーザーがリテラシーの向上という形でサービスに合わせるのではなく、サービス側がユーザーに合わせるための施策としてのチャットボット。先進的な企業はすでに活用方法を模索し始めているようです。

AI時代、NVIDIAが当面は無敵と思える理由

最近の株式市場もAIブーム。その中で最も注目されている銘柄が米半導体メーカーNVIDIA(エヌビディア)。同社の株価もすごいことになっているが、最近では同社と提携する企業の株価も高騰する傾向にある(関連記事:AI相場“中核”、NVIDIA関連の「神通力」)。 果たしてNVIDIAは、このままAI時代の覇者として逃げ切ることになるのだろうか。日本法人のDeep Learning部長の井崎武士さんにお話を聞いた。(ITジャーナリスト・湯川鶴章) 2000個のCPUの計算を12個のGPUで実現 そもそもNVIDIAって、いつAI企業になったのだろう。ゲーム用半導体のメーカーと認識していたのは僕だけじゃないはず。 世界中のAIの研究者がNVIDIAのGPU(Graphics Processing Unit)に注目したのは2012年といわれる。Googleが2000個のCPU(Central Processing Unit)を使ってニューラルネットワークを構築し、YouTubeのサムネイル画像の中から猫の画像を認識させることに成功したが、それと同じ実験をスタンフォード大学のAndrew Ng(アンドリュー・エン)氏が、わずか12個のNVIDIA製GPUで再現した。大量のコンピューターを持たなくてもAIを作ることができることに気づいた世界中の研究者たちが、NVIDIAのGPUに飛びつき、AI研究が一気に加速したと言われている。 それまでのAI研究って、冬の時代だったと言われている。長年に渡ってどうしても超えられない山があったわけだが、急に冬の時代から抜け出せたのには3つの要因があるといわれている。1つには、Deep Learningという新しい手法が登場したこと。2つ目は、大量のデータがネット上に溢れ出したこと。そして最後の要因は、NVIDIA製GPU。NVIDIAのGPUのおかげで、AI研究・開発の低コスト化が進んだからだと言われている。 新しい手法と、それに必要な大量のデータ。そして、低コスト半導体で研究の裾野が一気に広がったことで、新たな技術、手法が次々と登場している。そしてその勢いは、今日でもまだ一向に減速しそうにない。 そういう意味で、NVIDIA製GPUの果たした功績は大きい。取材先の研究者に聞いても、半導体ハードウェアはNVIDIA一択だというような話が多い。NVIDIAはAI時代のハードウェアの覇権を握ったのだろうか? とはいうものの一方で、競合他社によるAIチップ開発のニュースが次々と出始めている。こうした動きを、NVIDIAはどう見ているのだろうか。 NVIDIAに待ったをかけるインテル 例えば、Intelは「Xeon Phi(ジーオン・ファイ)」の新バージョンをディープラーニングに最適だとして発表するなど、この半年ほどで猛烈な追撃を始めている。日本のAIベンチャーに話を聞いても、インテルからの営業が精力的になってきているという。 Intelと言えばパソコン全盛時代に、Microsoftとともに時代の覇権を握った半導体メーカー。技術力は半端ないはず。 Intelは、Xeon Phiの発表文の中で「128のノードのインフラを使って学習させたところGPUの50倍速かった」と、NVIDIAのGPUより優れていると書いている。NVIDIAは、早くも追いつかれてしまったのだろうか。 これに対してNVIDIA日本法人の井崎武士氏は「正式に説明文を出したのですが、インテルさんの発表の中で使われていたのはNVIDIAの2世代前のGPU。最新GPUではNVIDIAのほうが断然速いんです。インテルさんのハードウェア開発能力を持ってしても、まだわれわれには追いついていない状態なんです」と胸を張る。 とは言っても巨人Intelが本気を出し始めたわけだ。NVIDIAがいつまでも安泰というわけにはいかないだろう。 「そうかもしれませんが、ただ勝負は半導体というハードウェアだけの話ではないと思うんです。われわれはハードウェアとしてはGPUを持っていますが、そのGPUの性能を最大限利用できる開発環境としてCUDA(クーダ)というものを独自に用意しています。それが他社とは異なるところです」。 とは言ってもGPUの上に乗る言語として、OpenCLなどオープンソースの言語がある。 「業界標準フレームワークのOpenCLで実装するアプローチも当然あります。それは特に一般に流通するソフトウェアの互換性を保つためには有効に働きます。一方、研究で利用されるときには動く環境が決まっていることが多いため、より性能を出しやすい、そして使いやすい(開発サポートが手厚い)ものが選ばれます。われわれはOpenCLを一応はサポートしているのですが、それとは別に最大限性能を引き出してもらうためにCUDAを用意しています」。 CUDAはそんなに使いやすいのだろうか。 「ただCUDAという開発環境で誰でもDeep Learningを簡単に作れるかというと、CUDAを使いこなすのにもそれなりの能力が必要になってきます。なのでCUDAの上にDeep Learning用のライブラリ、GPUとのコミュニケーション用のライブラリなど、各種ライブラリを用意しています」 「それでも開発は簡単ではありません。なので、オープンソースのフレームワークが幾つか登場しています。例えばUCバークレーの『Caffe』、Facebookの『Torch』、日本のPreferred Networksが作った『Chainer』などがそうです。そうした主だったフレームワークの開発者とNVIDIAは緊密な関係にあり、われわれは積極的にフレームワーク開発のお手伝いをしています。どのフレームワークでもCPUと同じようにコードを書いて、『GPUを使う』という設定にするだけで、GPUを簡単に使うことができるようになっています」。 「こうしたところまで競合他社が環境を整えられているかというと、まだどこもできていません。われわれはこの数年、こういった開発環境の整備に注力してきました。ですので今から他社が参入してきても、すぐに追いつけるわけではありません。たとえハードウェアでNVIDIAと同様もしくは超える製品を作れたとしても、そうした開発環境まですぐに用意できるわけではないのです。なので当面は他社がそれほど脅威になるとは思っていません」と言う。 Googleも半導体を独自開発 インテルだけではない。GoogleやMicrosoftなども、NVIDIAに追いつき、追い越そうとしているという話が聞こえてくる。 Googleは新しくTPUと呼ばれる半導体を開発した。日経コンピュータの記事によると、TPUはディープラーニングのために開発されたASIC(Application Specific Integrated Circuit、特定用途向けIC)で、GPU(Graphic Processing Unit)やFPGA(Field Programmable Gate Array)といったディープラーニングの処理に使用する他の技術と比較して「消費電力当たりの性能は10倍」とGoogleのCEOが主張しているらしい。 これに対し井崎氏はこう解説する。「Googleさんが新しく開発したハードウェアTPUは、特化型の半導体なんです。Deep Learningが成熟してきて、『この問題はこのアルゴリズムで解ける』というようなフェーズに入ってくれば、特化型の半導体でもいいと思うんです。でも現状では、毎日2、3本のペースで新しい論文が出ています。新しい最適化の方法、新しいニューラルネットワークの形が、日々登場しています。そうした新しい知見に応じて、ハードウェアを常に更新していくというのは、大変なコストになります。すべてのAIを特化型半導体をベースに作るというのは、リスクが大き過ぎると思うんです」。その証拠にGoogleは、いまだにNVIDIAのGPUを購入し続けているようだ。用途が決まっているところには特化型を、まだまだ進化の最中のところにはNVIDIAのGPUを、ということなのだろう。 MicrosoftはFPGAに社運を賭ける Microsoftも動き出している。Microsoftが力を入れているのはFPGAと呼ばれるタイプの半導体だ。 今日(こんにち)のGPUは、実行するソフトウェアによって機能を自由に定義・変更できるプロセッサーというタイプの半導体。反対にGoogleのTPUなどのASICは、すべての機能が回路としてハードウェア上に焼かれていて、変更できないタイプの半導体。FPGAはちょうどASICとGPUの中間のような存在。ハード上の一部回路を書き換えることで機能変更が可能なタイプの半導体だ。 Wiredの記事によると、Microsoftは、そのFPGAに社運を賭けているという(関連記事:Microsoft Bets Its...

年末商戦に向けたチャットボットが相次いでリリース、アメリカ小売業の現状

年末商戦に向けて、アメリカの小売各社が相次いでチャットボットをリリースしています。 Facebookのメッセンジャー上でいくつかの質問に答えることで、適切なプレゼントやお店を教えてくれるといったギフトガイド系が主です。 一人一人の顧客のニーズにきめ細かく応えるだけでなく、会話内容をマーケティングデータとして蓄積していく、といった狙いもあるようです。 米Facebook社が、Facebookメッセンジャー上で動作するチャットボットを開発するためのプラットフォームを発表したのが2016年4月。これを活用したサービスが、早速年末商戦の中で出てきた形ですね。 ニューヨークのチャットボットベンチャーであるSnapsと組んでボットを制作した百貨店大手ノードストロームや、IBMのワトソンをベースに作ったモール・オブ・アメリカなど多種多様。 今回はノードストロームによるチャットボットをご紹介。さらに背景として、アメリカでのチャットボット活用状況にも触れてみたいと思います。 チャットボットへの注目が集まっているとはいえ、アメリカでの認知率はまだ5人に1人。普及に向けた課題もありそうです。 満を持して公開、ノードストロームのチャットボット 全米最大のデパートチェーンであるノードストロームは、同社初のチャットボットを12月にリリースしました。 チャットボットが話題になり始めた当初から、彼らによるリリースは確実視されていたので、満を持しての公開といった形で話題になっています(ただし12月24日までの期間限定)。 その内容は、クリスマスギフトの選定をヘルプするというもの。プレゼントする相手に関するいくつかの質問に答えることで、適切な商品を表示してくれるそう。実際に使ってみました。 実際の使用感 Facebookのメッセンジャーにて、ノードストロームのチャットボットとの対話画面を表示。まず聞かれるのはボットと人間のスタッフ、どちらとやり取りするか。 ボットでは対応しきれない、きめ細かい質問は人間が答えるという形で、チャットボットの作りとしては極めてスタンダード。 チャットボットとの対話を選択して、最初に出てくる質問は「その人は週末にどんなことをするの?」というもの。選択肢は「コミコンに行く」「パーティーを開く」「音楽のプレイリストを作る」「街歩きをする」の4つ。 一応特定の知り合いを自分の中で想定しつつ、答えてみました。 「街歩きをする」を選ぶと、次は「その人の好きなレストランは?」という質問。表示される選択肢は「有名なシェフがいること」「ユニークな食事」「斬新な食事」「世界の料理を楽しめる」。 ざっくりしてて答えづらいなと思いつつ、「ユニークな食事」を選択。すると次は「その人らしい絵文字はどれ?」という質問に対して、表示される絵文字がこちら。 写真撮影が好きな人、という設定で試しにカメラを選んでみました。 次の質問は「いくらでもお金があった場合、選ぶバーケーション先は?」。選択肢は「バハマ」「セドナのスパ」「エベレスト」「予想できない」。登山が好きな人という設定で、「エベレスト」にしたところ、次のような商品が表示されました。当然すべてノードストロームで売っている商品です。 ・スマホの自撮り棒 ・フェイクタトゥー ・LOMO製のトイカメラ ・ナイロン製のデイパック カメラと山登りが趣味な人の好みが、うっすら反映されているようには見えます。ただ試す前から分かっていたことですが、その人特有の細かなニーズをすくい取る水準とはほど遠いです。 今回のチャットボットは、あくまでざっくりとした提案にとどまりそう。 ただ現時点でチャットボットを使うくらい情報感度の高い人は、自分で苦もなく情報探索できそうなので、現状の精度だと中途半端な感じは否めません。 とはいえ、あまりにドンピシャな答えをボットが返してしまうと、気味悪く感じる人も出てくるであろう点が、チャットボットの難しいところですね。 チャットボットへの抵抗感解消に向けて このチャットボットへの抵抗感をいかに解消するかは、今後の課題の一つでしょう。 マーケティングエージェンシーのDigitasなどがアメリカで実施した調査によると、年収が高い人ほど、チャットボットに抵抗感を示す割合が高くなるとのこと。 「チャットボットが自分との過去のやり取りを覚えていると、抵抗を感じる」と答えた割合は、年収10万ドル以上で28%だったのに対して、5万ドル以下では20%にとどまっています。 年収が高くなるほど自分の個人情報への意識が高くなる傾向があり、ひいてはそれがチャットボットへの抵抗感につながっているといったことのようです。 すでに大手ブランドが相次いでチャットボットをリリースし、Facebook上で稼働するチャットボットは3万件以上に上るとはいえ、アメリカでの認知率はまだ5人に1人にとどまります。 今後のさらなる普及に向けてどうするべきか?同調査を実施したDigitasのJill Sherman氏はこう述べています。 「スマートフォンユーザーは、より少ないアプリで多くの作業を完結させたがっている。チャットボットはそれを可能にする手段だ。チャットボットを通した買い物は、友達に質問したりウェブ上で探すのと同じくらい簡単だ、ということを消費者に納得させる必要がある」。

人気記事

AI時代、NVIDIAが当面は無敵と思える理由

最近の株式市場もAIブーム。その中で最も注目されている銘柄が米半導体メーカーNVIDIA(エヌビディア)。同社の株価もすごいことになっているが、最近では同社と提携する企業の株価も高騰する傾向にある(関連記事:AI相場“中核”、NVIDIA関連の「神通力」)。 果たしてNVIDIAは、このままAI時代の覇者として逃げ切ることになるのだろうか。日本法人のDeep Learning部長の井崎武士さんにお話を聞いた。(ITジャーナリスト・湯川鶴章) 2000個のCPUの計算を12個のGPUで実現 そもそもNVIDIAって、いつAI企業になったのだろう。ゲーム用半導体のメーカーと認識していたのは僕だけじゃないはず。 世界中のAIの研究者がNVIDIAのGPU(Graphics Processing Unit)に注目したのは2012年といわれる。Googleが2000個のCPU(Central Processing Unit)を使ってニューラルネットワークを構築し、YouTubeのサムネイル画像の中から猫の画像を認識させることに成功したが、それと同じ実験をスタンフォード大学のAndrew Ng(アンドリュー・エン)氏が、わずか12個のNVIDIA製GPUで再現した。大量のコンピューターを持たなくてもAIを作ることができることに気づいた世界中の研究者たちが、NVIDIAのGPUに飛びつき、AI研究が一気に加速したと言われている。 それまでのAI研究って、冬の時代だったと言われている。長年に渡ってどうしても超えられない山があったわけだが、急に冬の時代から抜け出せたのには3つの要因があるといわれている。1つには、Deep Learningという新しい手法が登場したこと。2つ目は、大量のデータがネット上に溢れ出したこと。そして最後の要因は、NVIDIA製GPU。NVIDIAのGPUのおかげで、AI研究・開発の低コスト化が進んだからだと言われている。 新しい手法と、それに必要な大量のデータ。そして、低コスト半導体で研究の裾野が一気に広がったことで、新たな技術、手法が次々と登場している。そしてその勢いは、今日でもまだ一向に減速しそうにない。 そういう意味で、NVIDIA製GPUの果たした功績は大きい。取材先の研究者に聞いても、半導体ハードウェアはNVIDIA一択だというような話が多い。NVIDIAはAI時代のハードウェアの覇権を握ったのだろうか? とはいうものの一方で、競合他社によるAIチップ開発のニュースが次々と出始めている。こうした動きを、NVIDIAはどう見ているのだろうか。 NVIDIAに待ったをかけるインテル 例えば、Intelは「Xeon Phi(ジーオン・ファイ)」の新バージョンをディープラーニングに最適だとして発表するなど、この半年ほどで猛烈な追撃を始めている。日本のAIベンチャーに話を聞いても、インテルからの営業が精力的になってきているという。 Intelと言えばパソコン全盛時代に、Microsoftとともに時代の覇権を握った半導体メーカー。技術力は半端ないはず。 Intelは、Xeon Phiの発表文の中で「128のノードのインフラを使って学習させたところGPUの50倍速かった」と、NVIDIAのGPUより優れていると書いている。NVIDIAは、早くも追いつかれてしまったのだろうか。 これに対してNVIDIA日本法人の井崎武士氏は「正式に説明文を出したのですが、インテルさんの発表の中で使われていたのはNVIDIAの2世代前のGPU。最新GPUではNVIDIAのほうが断然速いんです。インテルさんのハードウェア開発能力を持ってしても、まだわれわれには追いついていない状態なんです」と胸を張る。 とは言っても巨人Intelが本気を出し始めたわけだ。NVIDIAがいつまでも安泰というわけにはいかないだろう。 「そうかもしれませんが、ただ勝負は半導体というハードウェアだけの話ではないと思うんです。われわれはハードウェアとしてはGPUを持っていますが、そのGPUの性能を最大限利用できる開発環境としてCUDA(クーダ)というものを独自に用意しています。それが他社とは異なるところです」。 とは言ってもGPUの上に乗る言語として、OpenCLなどオープンソースの言語がある。 「業界標準フレームワークのOpenCLで実装するアプローチも当然あります。それは特に一般に流通するソフトウェアの互換性を保つためには有効に働きます。一方、研究で利用されるときには動く環境が決まっていることが多いため、より性能を出しやすい、そして使いやすい(開発サポートが手厚い)ものが選ばれます。われわれはOpenCLを一応はサポートしているのですが、それとは別に最大限性能を引き出してもらうためにCUDAを用意しています」。 CUDAはそんなに使いやすいのだろうか。 「ただCUDAという開発環境で誰でもDeep Learningを簡単に作れるかというと、CUDAを使いこなすのにもそれなりの能力が必要になってきます。なのでCUDAの上にDeep Learning用のライブラリ、GPUとのコミュニケーション用のライブラリなど、各種ライブラリを用意しています」 「それでも開発は簡単ではありません。なので、オープンソースのフレームワークが幾つか登場しています。例えばUCバークレーの『Caffe』、Facebookの『Torch』、日本のPreferred Networksが作った『Chainer』などがそうです。そうした主だったフレームワークの開発者とNVIDIAは緊密な関係にあり、われわれは積極的にフレームワーク開発のお手伝いをしています。どのフレームワークでもCPUと同じようにコードを書いて、『GPUを使う』という設定にするだけで、GPUを簡単に使うことができるようになっています」。 「こうしたところまで競合他社が環境を整えられているかというと、まだどこもできていません。われわれはこの数年、こういった開発環境の整備に注力してきました。ですので今から他社が参入してきても、すぐに追いつけるわけではありません。たとえハードウェアでNVIDIAと同様もしくは超える製品を作れたとしても、そうした開発環境まですぐに用意できるわけではないのです。なので当面は他社がそれほど脅威になるとは思っていません」と言う。 Googleも半導体を独自開発 インテルだけではない。GoogleやMicrosoftなども、NVIDIAに追いつき、追い越そうとしているという話が聞こえてくる。 Googleは新しくTPUと呼ばれる半導体を開発した。日経コンピュータの記事によると、TPUはディープラーニングのために開発されたASIC(Application Specific Integrated Circuit、特定用途向けIC)で、GPU(Graphic Processing Unit)やFPGA(Field Programmable Gate Array)といったディープラーニングの処理に使用する他の技術と比較して「消費電力当たりの性能は10倍」とGoogleのCEOが主張しているらしい。 これに対し井崎氏はこう解説する。「Googleさんが新しく開発したハードウェアTPUは、特化型の半導体なんです。Deep Learningが成熟してきて、『この問題はこのアルゴリズムで解ける』というようなフェーズに入ってくれば、特化型の半導体でもいいと思うんです。でも現状では、毎日2、3本のペースで新しい論文が出ています。新しい最適化の方法、新しいニューラルネットワークの形が、日々登場しています。そうした新しい知見に応じて、ハードウェアを常に更新していくというのは、大変なコストになります。すべてのAIを特化型半導体をベースに作るというのは、リスクが大き過ぎると思うんです」。その証拠にGoogleは、いまだにNVIDIAのGPUを購入し続けているようだ。用途が決まっているところには特化型を、まだまだ進化の最中のところにはNVIDIAのGPUを、ということなのだろう。 MicrosoftはFPGAに社運を賭ける Microsoftも動き出している。Microsoftが力を入れているのはFPGAと呼ばれるタイプの半導体だ。 今日(こんにち)のGPUは、実行するソフトウェアによって機能を自由に定義・変更できるプロセッサーというタイプの半導体。反対にGoogleのTPUなどのASICは、すべての機能が回路としてハードウェア上に焼かれていて、変更できないタイプの半導体。FPGAはちょうどASICとGPUの中間のような存在。ハード上の一部回路を書き換えることで機能変更が可能なタイプの半導体だ。 Wiredの記事によると、Microsoftは、そのFPGAに社運を賭けているという(関連記事:Microsoft Bets Its...

日本にもボイス時代到来!Amazon Echo連携の先行事例7選

Amazonの人気スピーカー型電子秘書「Amazon Echo(エコー)」の国内販売に向けて日本法人が動き始めた、という情報がいろいろな方面から入ってきた。(関連記事;日本でもAmazon Echo年内発売?既に業界は戦々恐々) 連携するデバイス、サービスの数が7000を超えたAmazon Echoは、スマホ全盛時代に終止符を打ち、ボイスの時代の幕を開けるデバイスと言われている。 スマホ時代の幕開けの時期にアプリ開発競争が繰り広げられたように、今年から日本でもボイス搭載デバイスやサービスが次々と登場するかもしれない。 ボイス機能で、どのようなデバイス、サービスを開発できるのだろうか。 さすがにAmazon Echoと連携する7000以上のデバイス、サービスのすべてを見て回ることはできないので、Amazon自体が出資しているものや、開発者コミュニティで話題になっているものを中心に調べ、その中で日本でも使えそうなものを7つ厳選して紹介したい。(ITジャーナリスト:湯川鶴章) Echoはハード、Alexaはソフト その前に重要な用語を整理しておきたい。Echoは、スピーカー型ハードウェアの名称。Amazonが現在、米国で販売しているのは、ノッポのEcho、少し小さめの廉価版である「Echo Dot」、それに利用する前にタッチが必要な「Echo tap」の3種類がある。 「Alexa」はEchoに搭載されている音声認識AIの名称。つまりEchoはハード、Alexaはソフトということになる。メディアではEchoのほうが取り上げられることが多いが、7000以上のデバイス、サービスが連携された今、AIであるAlexaのほうが重要性を増している。 開発者向けのサービスや開発キットには、Alexa Voice Serviceと、Alexa Skills Kitの2つがある。 前者は、クラウド上に音声認識機能が乗っていて、そこに音声データを送信するだけで、返答が返ってくるサービス。マイクとスピーカーさえあれば、Echoと同様の機能を持つデバイスを作れることになる。 後者は、Echoからコントロールできるデバイスやアプリを開発するための開発キット。 つまり前者は、コントロールする側のためのもの。後者は、コントロールされる側のためのもの、ということになる。 またAmazonは、連携するサードパーティのデバイスやサービスを「スキル」と呼んでいる。サードパーティとの連携が増えることで、Echoができること、つまりスキルが増える、という意味だ。 【関連情報:何度同じ質問をしても怒らないAIエンジニアによる「ビジネスマンのためのAI講座」2期生募集中】 調理中にカロリー計算Prep Pad 僕が最もおもしろいと思ったのは、スマート・キッチン・スケール(重量計)のPrep Pad。まな板のようなスケールに食材を載せて、スマホやタブレットのアプリに食材名を入力すれば、カロリーや栄養成分を瞬時に計算してくれるというもの。調理しながら、1つ1つの食材の重さを図っていくことで、完成した料理のカロリーと栄養価の計算ができるようになっている。 このままでも結構人気のデバイスのようだが、Alexaと連携することで、食材名を音声で入力できるようになる。料理しながらの濡れた手で、タッチスクリーンを操作するのは面倒。ボイス入力を可能にすることで、操作性が格段に向上するわけだ。 【ポイント】手を使えない状況。そうした状況にボイス機能は、最も力を発揮する。 冷蔵庫にピタッと音声機能:Triby Tribyは、フランスのベンチャー企業inovoxiaが開発したコミュニケーションデバイス。wi-fiを通じて、電話をかけたり、メッセージを表示したりできる。音楽をかけることもできる。 アイデア自体はEchoに似ているが、冷蔵庫に貼り付けることを想定した形状になっている。 Alexa Voice Serviceにアクセスできるようにすることで、Echo並みに多くのスキルを簡単に実装できるわけだ。 【ポイント】Echoとは異なる場所での利用に特化した形状にすることで、Echoとのバッティングを避けることができる。 wi-fiで簡単設置のIntercom:nucleus 電源につないで壁にかけるだけで、簡単に設置できるIntercom。wi-fi接続なので、工事いらず。各部屋に設置できるし、遠くに住む親戚でさえ、まるで同じ家に住んでいるかのように簡単にテレビ電話ができる。1台約2万円なので、iPadよりも安い。 Alexa Voice Serviceにアクセスすることで、IntercomがEchoの全機能を持つことになる。 【ポイント】デバイス自体は、1つの機能の使い勝手に徹底的にこだわったシンプルなデザインにし、Alexa連携で無数の機能を追加する、という形がいいのかもしれない。 ボイスベースのランニングコーチ:M.A.R.A M.A.R.Aは、基本的にボイスでコントロールするランニング・アシスタント・アプリ。ジョギングの時間や距離、ペースを記録したり、雨が振りそうになれば警告してくれる。ジョギングの最中に音楽も再生してくれる。 Alexaと連携することで、ジョギングが終わって、リビングでリラックスしているときにリビングのEchoに対して「Alexa、今週は全部で何キロ走った?」とか「Alexa、今週のランニングのペースの平均値は?」などと聞くことができる。 【ポイント】スマホをポケットから出すのさえ面倒に思われる瞬間というものがある。その瞬間こそがボイスの出番になる。ちょっとした使い勝手の差は、過小評価されることが多い。しかしヒットするかしないかは、ちょっとした使い勝手の差によるところが大きい。 Mojio Mojioは、コネクテッド・カー・ソリューションのリーディングプロバイダー。Mojioデバイスを自動車のOBD-Ⅱポートに接続することで、車の走行距離や診断データを入手できる。Alexaと連携することで、Echoデバイスから「Alexa、会社へ行く前にガソリンを入れたほうがいい?」「Alexa、今、娘が運転している車は、どの辺りにいるの?」などと質問することができる。 【ポイント】スマホアプリは、基本的にはすべてボイスベースにすることが可能。ただどの用途がタッチスクリーンに向いて、どの用途がボイスに向くのかを、しっかり考える必要がある。ボイスにできるからといって、すべてボイスに変える必要はない。ただ出勤前のバタバタしているときに、ガソリンの量をボイスで確認できるのは確かに便利。こうしたキラー用途を見つけ出せるかどうかがポイント。 話ができるぬいぐるみThe Talkies The Talkiesは、マイクとスピーカーと通信機器が内蔵された子供向けのぬいぐるみ。親のスマホとの間で音声メッセージの送受信ができる。Alexa Voice Serviceにアクセスすることで、Amazonのオーディオブックでの読み聞かせが可能になる。 【ポイント】Amazonは、米国の一部地域で、Alexaの対話AI「Amazon Lex」の一般提供を始めた。従量課金で、1000スピーチリクエストが4ドル。競合他社よりも利用しやすい。Amazonの音声技術を使ったコミュニケーションロボットが多数、開発されるかもしれない。 スマートホテル これは製品ではなく、開発コンテストの入賞作品。ホテルの部屋に置かれたAmazon Echoに対して、音声でルームサービスを注文すると、スマホのAlexaアプリに画像や動画が表示される。Alexaとの対話の中で画像も表示できるので、宿泊客に対してより親切な対応ができる。ルームサービスだけではなく、チェックアウトなども簡略化できるはず。 【ポイント①】B向けへの利用が期待できる。 【ポイント②】高齢者などスマホを使いこなせない層も、ボイスで対話しながらなら、インターネットを使えるようになるかもしれない。 まとめ:スマートホーム以外を狙え 家電メーカーは一斉にAmazonに対応してくるだろう。米国の状況を見ていると、対応しないと売れない時代になるような気がする。なので今までの家電をAmazonに連携させるだけでは差別化にならない。 また米国の先行事例のほとんどはスマートホーム関連。プールの水質管理や、ガレージドアの開閉、ガーデンの水やりなどを、リビングルームのEchoからコントロールできる、というようなものが多い。米国に比べて狭い家が多い日本で、スマートホーム関連で大きなヒット製品が生まれるのかどうか。 それより日本ならB向けや、高齢者向けのデバイスやサービスに可能性があるように思った。 →【ビジネスマンのためのAI講座】詳細はこちら

効果的なランディングページはどちら?予測対決でAIが熟練マーケターを打ち負かす

ランディングページ制作ツールとして、日本のデジタルマーケターにもお馴染みのカナダ企業Unbounce。 彼らが機械学習モデルによって、ランディングページのコンバージョン率を予測するという試みを実施しました。 最高技術責任者(CTO)のCarl Schmidt氏が率いるデータサイエンティストやコンバージョン最適化チームは、過去12か月間にわたってプロジェクトを進行。 Unbounceによって作られた数十万件ものランディングページ(LP)を対象に、機械学習モデルによってそれぞれのLPによるコンバージョン率の高低を予測しました。 特定のLPが業界平均より高いか低いかという予測において、同モデルの的中率は平均80%に上ったといいます。 かなり高い的中率のようですが、ここまで出来ると次に知りたくなることは、人間による精度と比べてどうなのかという点です。 AIによる正答率、人間を大幅に上回る そこでUnbounceは、今年5月にカナダのバンクーバーで開かれた同社主催のカンファレンスにて、参加者と機械学習モデルによる予測対決を実施しました。 仕様は次の通り。 ・特定のLPによるコンバージョン率が業界平均より高いか低いかについて、デジタルマーケターとAIそれぞれが予測 ・対象LPの数は204本 ・参加したマーケターは427人(同イベントに登壇した著名マーケター含む) ・分析対象は、LPのテキストコピーだけ(デザインや画像などは考慮なし) そして結果はこの記事のタイトルにもある通り、AIの勝利でした。 AIによる正答率が79.7%に上った一方で、参加者による正答率は平均で50%。最も正答率が高かった参加者でも56.9%にとどまったといいます。 つまりこうしたイベントに登壇するような著名なマーケターですら、予測精度でAIに遠く及ばなかったのです。 LPのコピーライティングが専門で、今回の試みに参加したJoel Klettke氏は、その難しさについて次のように振り返っています。ちなみに同氏は、今回の参加者の中で最も高い正答率をたたき出した人物。 「自分が持つバイアスを克服しなければいけない点が難しかった。LPの内容やデザインに嫌悪感を抱いてしまうこともあり、そうなるとユーザーの視点で判断することが難しくなってしまう」。 また今回の判断要素はテキストコピーだけ、というルールだったものの、デザインが優れていると、二流なコピーでもある程度マシに見えてしまう、というジレンマもあったようです。 過去の事例や自らの直観に従って判断しがちな人間による限界が浮き彫りになった形でしょう。 コンテンツ制作におけるAIの役割とは? さらにコンテンツ制作におけるAIの役割について、Klettke氏はこう語りました。 「従来のコンテンツ制作をすべてAIが担うようになる、ということではない。ただ人間の判断がどこまで正しいかをアルゴリズムの視点で検証できることは良い」。 ただUnbounceのSchmidt CTOは、マーケターのタスクを補助するのが現状のAIによる役割だとしつつも、「それもすぐに変わる」としています。 「(AIによって)コピーの作成や編集が可能になる時期もそう遠くはない。さらにコンテンツを一から作ることができるようになる日も来るだろう。ただそうなるまでにはあと数年はかかるはずだ」。 いずれにしても、テクノロジーの発展具合に合わせて、自らの業務を最適化させていく努力が一層重要になりそうです。

自動運転にも応用される精緻な画像認識技術、「画像セグメンテーション」とは?事例を交えてわかりやすく解説

近年、ディープラーニング(深層学習)を中心とした機械学習の技術が注目を集めています。そのホットな応用先の1つが画像認識です。 今回は「画像×機械学習」によって、精緻な画像識別を可能にする技術、”画像セグメンテーション”について見ていきましょう。 【ディープラーニングを使った画像認識モデルの開発については、こちらからお気軽にご相談ください。】 画像分類の種類について 「画像×機械学習」といってもその応用例はたくさんあります。 画像セグメンテーションの特徴を理解するためにも、まずはよく使われているその他の画像分類技術も見ていきましょう。 今回は画像セグメンテーションを含む、こちらの3つを紹介します。 1)画像分類(classification)…”その画像が何なのか”を識別 2)画像検出(detection)…”その画像のどこに何があるのか”を識別 3)画像セグメンテーション(segmentation)…”その画像領域の意味”を識別 1)画像分類(classiification)…”その画像が何なのか”を識別 画像分類では、”その画像が何なのか”カテゴリ分けします。 例えば、様々な寿司ネタの書かれた画像を「これはサーモン、これはいくら、これはとろ、、、」というように一枚一枚分類していく感じになります。 最近AmazonからリリースされたAmazon RekognitionのObject and scene detectionもこの画像分類にあたりますね。 こちらの画像では、対象の画像がCityやDowntown、Metropolisであると分類されています。 この方法では1枚の画像が1つの物体等を映し出していた場合には有効ですが、複数の対象が写っていた場合、それぞれを認識することはできません。 例えば、今机にある複数の物体を写真に撮ってRekognitionにアップロードしてみます。 本来であれば「カップとスマホとボトル」が写っているのですが、Amazon Rekognitionでは画像全体へのラベル付けとしてCupやCoffee Cupが上位に来ています。 これでは、複数の物体が画像に入り込むシーンでは使えないですね。そういった場合には「画像検出(detection)」を活用することになります。 2)画像検出(detection)…”その画像のどこに何があるのか”を識別 detectionと呼ばれる画像検出では、“何があるのか”に加え“どこにあるのか”も識別ができます。 例えば、先程の画像を例にとると、以下のように「コーヒー、ボトル、スマホ」という3つのwhatとwhereが識別できます。 Facebook上に写真をアップロードすると、顔の部分をタグ付けできるようになっていますが、あの技術も顔を検出する画像検出が使われている例ですね。 Amazon RekognitionにもFace Analysisの機能があったのでこちらの画像も例として載せておきます。 この画像のように、"顔がどこにあるのか?"が顔認識では取得できています。 3)画像セグメンテーション(segmentation)…”その画像領域の意味”を識別 それでは今回のメインである画像セグメンテーションについて見ていきましょう。 Semantic Segmentation と呼ばれる画像セグメンテーションでは、画像全体や画像の一部の検出ではなくピクセル1つひとつに対して、そのピクセルが示す意味をラベル付けしていきます。 画像を見たほうがわかりやすいので実際の画像を見てみましょう。 引用:http://jamie.shotton.org/work/research.html 一番左の画像では、”牛(cow)”に加え“草(grass)”も色づけされています。 これまでに紹介した画像検出では牛という物体が4体検出される以上のことはできませんでしたが、Semantic Segmentationでは画像全体がピクセルごとに意味づけされます。 この技術の応用例の1つ、自動車の自動運転があります。自動運転では以下のようにリアルタイムでセグメンテーションが行われます。 引用:http://worldwide.chat/E6gij6IS8n0.video ファッション領域で画像セグメンテーションを使ってみる。 それでは画像セグメンテーションの精度をみるために、実際に人間が着ている服装をsemantic segmentationで識別してみましょう。ここから少し技術的な話になります。 ○アルゴリズム 今回はFully Convolutional Neural Networkを使いSemantic Segmentationを行います。 引用:https://arxiv.org/abs/1411.4038 ○データセット こちらのデータセットを拝借しました。 https://sites.google.com/site/fashionparsing/dataset こちらのデータ・セットでは、左図のような通常の写真と右図のようなピクセルごとに色付けされた画像のセットが2683組あり、「背景」「Tシャツ」「カバン」「ベルト」「ブレザー」「ブラウス」「コード」「ドレス」「顔」「髪」「帽子」「ジーンズ」「レギンス」「パンツ」「スカーフ」「靴」「シャツ」「肌」「スカート」「靴下」「ストッキング」「サングラス」「セーター」という領域に分けて色付けがされています。 ○学習 今回は私たちインキュビット社にあるNvidia GPU TitanXのマシンを使ってTensorFlowで実装を行い、データのうち90%を学習に10%を検証に使いました。 Adam optimizerのモデルを使い、バッチサイズ:50、学習率:10^-5、ドロップ率:0.5をという条件で約10時間かかっています。 ○結果 セグメンテーションの精度はまぁまぁなようですが、すこし色が違う部分が有りますね。ブラウスやブレザー、ジーンズやレギンス等、細かな部分を識別しきれていないようです。人間がみても見分けづらい箇所なので、難易度は高いのでしょう。 データセットが100万組ほどあるとジーンズとレギンスといった細かい違いにも対応できるかと思います。しかし今回は2700枚以下のセットしかないので、以下のようにも少し大雑把でシンプルな分類にしてみましょう。 ・Tシャツ、かばん、ブレザー、ブラウス、コート、セーター → トップス ・顔、帽子、サングラス → 顔 ・ジーンズ、レギンス、パンツ、ショートスカート → ボトム ・靴下、ストッキング → 靴下 今度はかなり正答例と近くなりましたね。 画像セグメンテーションではこのような感じで、学習データを用意しモデルを作成していきます。 ■最後に 今回の記事では ・「画像×機械学習」の応用として、画像分類、画像検出、画像セグメンテーションを紹介しました。 ・画像セグメンテーションの例として、服装のセグメントのステップを実際のデータを用いてご紹介しました。 Incubitでは「検査/検品作業」「産業用ロボット」「車両/交通」「医療」の4領域を中心に、ディープラーニングを用いた画像認識エンジンをオーダーメイドで開発しています。 詳しくは「Incubit Vision Services」をご覧頂くか、こちらからお気軽にお問い合わせください。 ディープラーニング技術を用いた、Incubitの画像認識モデル開発サービス 「Incubit Vision...

「小学2〜3年生レベル」の人工知能、North Faceの商品リコメンドサービスを使ってみた

何か商品を買う時に、自分に一番合った物をカタログ情報だけで選ぶのって結構難しかったりします。 たとえば冷蔵庫。「4人家族用のサイズで、電気代がそこそこ安く抑えられて、野菜や魚を新鮮に保存できるやつが欲しい!」みたいな希望を満たす商品を探そうとしても、冷蔵庫の容量や機能名、消費電力量といった情報から、最適な品番を選ぶのは至難の技。 結局自分だけでは選びきれず、家電量販店の店員などに相談してオススメされた商品を買うっていうパターンは多いと思います。 今回紹介するアウトドアブランドのThe North Faceは、そうした商品選択に悩む消費者の課題をAI技術によって解消しようとしています。 適切なアウトドア製品を選ぶのも、また難しい作業だったりします。たとえばアウターを選ぶにしても、防水性や防風性、耐久性、重さ、通気性など、商品特徴となる項目がたくさんある中で、着るシチュエーションや現地の気温などを考慮しながら、選ばないといけません。 商品に詳しくてアウトドアの経験も豊富な人なら大丈夫かもしれませんが、初心者だとまずムリそうです。 そこでThe North Faceが2016年4月にリリースしたのが、商品リコメンドサービス。着用する時期や場所、男性用か女性用かといったいくつかの質問に答えるだけで、最適な商品群を表示してくれるというもの。 裏側の技術はIBMのWatson 今回のサービスを実現している技術が、IBMによるコグニティブ・テクノロジー「Watson」です。 Watsonとは、テキストや画像のような非構造化データを分析することで、推論や予測による答えを導き出すためのテクノロジー・プラットフォーム。分析対象となるデータが増えるほど、機械学習によって学習して賢くなっていく点が特長です。 The North Faceは、約12ヶ月かけてWatsonを活用したこのサービスを開発したといいます。ショッピングアシスタントとしてのWatson。使い心地はどうなんでしょうか? 店員と会話しているかのような使い勝手 まずは専用サイトにアクセス。一つ目の質問は「ジャケットはいつどこで着るの?」というもの。試しに「Commuting in Tokyo」(東京での通勤時に)と入れてみました。ちなみ「I want to use it when commuting in Tokyo」「I’ll use it when commuting in Tokyo」みたいな文章で入力しても理解してくれました。 次の質問は「どの時期に着るの?」。この時の入力は、「December」(12月)といった特定の時期だけでなく、「from next...

「目指すは日本ならではのチャットボットの形」、サイバーエージェント石川大輔氏

日本企業によるチャットボット事業の現状とは? 今回はITジャーナリストの湯川鶴章さんに寄稿していただきました! ―――――――――――――――――――― スマートフォンアプリの次の主戦場として注目を集めるチャットボット。米国では熾烈な開発競争が始まっているが、日本ではまだまだ注目度は低い。 しかしAIの進化に伴って、日本でもチャットボットが企業と消費者とを結ぶ主要チャンネルになることは間違いない。チャットボット事業で、日本で先行する3社のうち、サイバーエージェントの戦略について詳しく調べてみた。 先行するのは、リクルートとトラコス その前に、残りの2社はどこかと言うと、1社目はリクルート。チャットボットの成功事例の先駆けである「パン田一郎」を手がけたことで、チャットボットに関心を持つ業界関係者の間では一目置かれる存在。そのリクルートが米シリコンバレーに開設したAI研究所では、さらなる高性能のチャットボットの開発を進めている。(関連記事:シリコンバレーのリクルートAI研究所はチャットボットを開発していた)世界的に見ても、リクルートが最先端を走り続ける可能性は大きい。 2社目は、コールセンター業務大手のトランスコスモスだ。チャットボットが普及すれば、コールセンター業務は大打撃を受ける可能性がある。技術革新の津波を前に主要事業を守ろうとしてジリ貧に陥る企業が多い中で、トランスコスモスは先陣を切ってチャットボット事業に乗り出した。座して死を待つより、自ら新しい領域に打って出ることで、変化の時代を乗り越えようとしているわけだ。国内メッセンジャー最大手のLINEと合弁会社を設立するなど、次々と大胆な手を打っており、チャットボットビジネスの本命と言ってもいいだろう。(関連記事:LINEチャット対応でデータを蓄積、トランスコスモスのAI戦略) チャットボットに詳しい業界関係者に聞くと、この2社が最有力。「もはや他社は入り込めない」という声さえ聞こえてくる。 サイバーの動きの速さはピカイチ そんな中で、ネットビジネスの雄サイバーエージェントが怒涛の勢いで動き出した。同社は2016年7月にチャットボットを専業にする連結子会社、株式会社AIメッセンジャーを設立した。同社の石川大輔代表取締役によると、事業を思いついたのは同年3月。「構想から実質3カ月でサービスを作り上げました」と笑う。 きっかけはユーザー行動の変化だった。石川氏はサイバーエージェントに入社以来、デジタル広告畑で実績を積んできた。ユーザー行動の変化は、広告関連のデータで読み取れた。 「何か調べ物をするときに今までだと検索エンジンを使うケースが多かったのですが、最近ではSNSで友人たちに質問することで問題を解決するケースが増えていることに気づいたんです」。 サイバーエージェントのデジタル広告の部署は、これまでユーザーを細かな層に分け、それぞれの層に合った広告を配信する支援をしてきたのだが、そうしたユーザー層の細分化や広告の最適化といった業務自体を、Facebookなどのプラットフォーム自身が手がけ始めたということも、大きな変化だった。 新しいフェーズに合った広告の形を模索していかなければならない。そう考えていたときに、チャットボットのアイデアを思いついたのだという。 デジタル広告に必要なユーザーの購買履歴、行動履歴などのデータを使って、チャットボットがユーザー一人ひとりに合った対応をするようになれば、新たな広告、マーケティングのチャンネルになるかもしれない。そう考えた同氏は、サイバーエージェントによるAIラボの自然言語処理の専門家を巻き込んで、あっという間にチャットボットを開発。9月からサービスインし、デジタル広告のクライアント企業を中心に営業をかけ、既に十数社がチャットボットの導入を進めているという。 某クライアント企業に対しては、有人対応とボット対応のハイブリッド型を導入。まずはすべての消費者に対してチャットボットが対応。ボットの対応を通じて見込み客を見極めて、人のチャットオペレーターがボットに代わって対応する形にした。しつこく電話攻勢しなくてもよくなった上、オペレーターによる成約率が100%になったという。 こうした成功事例が出始めたため、多くの企業からの引き合いが続いているという。これに対応するため、同社では沖縄で週7日24時間体制で稼働するチャットセンターの人員を急ピッチで増強し始めている。 水平分業と垂直統合 トランスコスモスとサイバーエージェントの両方を取材してみておもしろかったのが、両社の戦略の違いだ。 トランスコスモスはこのほど、有力チャットボットメーカーの米Reply社と提携。Reply社によるボット構築、運用管理プラットフォームReply.aiについて、日本での独占販売権とアジアでの優先販売権を取得した。 米国のチャットボット事情を調べていると、Reply.aiに関する言及をよく目にする。この領域でのトップ企業なのだろう。同社と提携することで、トランスコスモスは最先端のボットツールを日本で独占的に取り扱えるようになったわけだ。 どうやらトランスコスモスは、ボット関連技術をすべて自社開発するのではなく、世界中から最も優れた技術を探し出し、それを統合することで1つのサービスとして提供する戦略のようだ。餅屋は餅屋。自分は得意な領域に特化し、そのほかの領域はそこを得意な他社に任せる。いわゆる水平分業と呼ばれる戦略だ。 一方のサイバーエージェントは、バックエンドのAIから、フロントエンドのチャットボットのデザインまで、すべて自社開発するという。いわゆる垂直統合と呼ばれる戦略だ。 水平分業と垂直統合。どちらの戦略が優れているのだろうか? パソコン全盛時代は、MicrosoftとIntel陣営の水平分業が勝利した。MicrosoftがWindows、Intelが半導体、パソコンメーカーが残りの部品を組み立てるという分業体制。それぞれが得意な領域に特化したため、優れた製品を低価格で提供できたため、パソコンは世界中のオフィスに普及するまでになった。 一方で、ハードもソフトも1社で手がけるAppleのパソコンは、Windowsパソコンと比べると割高感が出て、シェアを伸ばすことができなかった。垂直統合戦略の敗北だった。 その後のスマートフォン時代でもAppleは垂直統合戦略を踏襲。iPhoneのハードも基本ソフトも自社で手がけた。一方スマホ時代のもう片方の雄、Googleは、基本ソフトAndroidの開発、改良に専念。無料でAndroidを提供したため、世界中の家電メーカーがAndroidを搭載したスマホを開発した。この水平分業のおかげでAndroid端末はiPhoneより低価格で販売でき、思惑通りシェアを伸ばすことに成功した。 ただシェアが伸びたのは主に途上国だった。先進国では低価格よりも、完成度の高さが評価され、iPhoneは圧倒的な強さを誇った。利益率もiPhoneのほうが高いので、Appleは世界トップクラスの超優良企業となった。 Googleも途中から水平分業戦略に見切りをつけ、自社でもスマホのハードウエアを手がけ、先進国でのiPhoneのシェアになんとか食い込もうと躍起になっている。Appleの垂直統合戦略の勝利だ。 ではチャットボット時代には、水平分業、垂直統合のどちらの戦略が成功するのだろうか? サイバーの思い描くビジョンとは なぜサイバーエージェントは、垂直統合にこだわるのだろうか。 石川氏は「自分たちのビジョンを貫こうとすれば、すべてのツールを自社で開発するしかないと思うからです」と言う。 石川氏はどのようなビジョンを持っているのだろう。 「デジタル広告に使うユーザーの購買履歴のデータと紐付けることで、『先日はお買上げいただきありがとうございました』というやりとりが可能になります。GPSデータと紐付けることで、最寄りの店舗まで道案内が可能になります。クーポン発行ツールと紐付けることで『今、このクーポンを使うとお得ですよ』と店内での購買を促進することも可能になります。いろいろなデータを集めてきてAIが解析、最も適した情報やサービスをチャットボットが提供する。そういう時代になると思うんです」と石川氏は言う。 いろいろなデータやツールを統合する際に、異なるメーカーのツールを組み合わせて使うには限界がある、と石川氏は指摘する。ツールメーカーの間で、チャットボットの使い方に対するビジョンが異なるかもしれない。それぞれのツールのバージョンアップの速度や頻度も異なってくるだろう。 「僕も異なるツールの組み合わせでデジタル広告事業を手掛けたことがあるんですが、大変でした。なかなか前に進まないんです。絶対にうまく行かないと思います」と石川氏は断言する。 「ツールごとの価格や性能では、海外のツールに勝てないかもしれない。でも各種ツールを統合したサービスの総合点では、自社開発にこだわったほうが良いサービスになるのではないかと思うのです」と力説する。 日本人の心理に特化。 またチャットボットは、検索連動型広告など、これまで主流の広告マーケティング手法と大きく異なることが一つある。ユーザーは、チャットボットに人間味を求める、ということだ。 すべてのユーザーに対して同じ受け答えをするより、ユーザーの購買履歴を見て『先日は商品をご購入いただきありがとうございました。その後、いかがですか?」と語りかけるほうが、ユーザーの心に響くことだろう。 そうした人間味のある理想的な受け答えは、国や文化によって異なってくるはず。米国製の味気ないチャットボットより、日本語と日本文化に特化したチャットボットのほうが、日本のユーザーに受け入れられるのではないだろうか。 そう考えた石川氏は、心理面での専門家をアドバイザーに迎え、日本語での日本人らしい対話のあり方を研究しているのだと言う。「『わたしに何でも聞いてください』とチャットボットに問いかけられても、ユーザーは何を聞いていいのか分からない。でも『こちらの商品が新しく発売になりました。青と赤ではどちらの色がお好みですか?』と聞かれれば、より答えやすい。そうしてユーザーの選択を支援してあげれば、ユーザーはより買いやすくなるみたいなんです」。 まるでリアル店舗の店員の接客術のようだ。 「まだ業界内で『チャットボットの正しい使い方』という共通認識はない。僕達は、1つの『正しい使い方』のビジョンをどこよりも早く提案していきたい。そして期待通りの効果が出れば、僕達は先行企業として、圧倒的に有利なポジションに立てるのではないかと思うんです」。 Appleは、電話もできる音楽プレーヤーという独自のビジョンでiPhoneを開発した。このビジョンが、音楽好きのアーリーアダプターに受け、続いてアプリが充実するようになり、ユーザー層が広がった。Appleのビジョンが、業界を先導したわけだ。 まだ誰も打ち立てていないビジョンを実現するには、すべてをコントロールできる垂直統合戦略しかない。「われわれのビジョンを共有してくださるクライアント企業と一緒に、新しい広告マーケティングの形を目指していきたいと考えています」。 果たしてサイバーエージェントは、独自ビジョンを早急に実現し、効果を上げることで、業界を先導できるようになるのだろうか。 引き続きウォッチしたいと思う。 より詳しい情報を知りたい方は、著者が主催する勉強会やオンラインサロンにご参加ください。 ・TheWave湯川塾「オピニオンリーダーたちと議論する革命前夜」【39期塾生募集中】 ・湯川鶴章オンラインサロン ・ビジネスマンのためのAI講座

機械学習は絶滅危惧種を救えるか?

海に住む絶滅危惧種を保護する研究者たちの活動には、様々な困難がつきまとう。 まずは個体の数を正確に把握することが不可欠になるが、これが難しい。これまでは小型飛行機で海上を旋回しながら、目視で個体の数を数えていた。そのため莫大なコストがかかる上に、事故にあう危険もあった。 今ではドローンを遠隔から操作して、航空写真を撮影できるようになったため、こうした問題は解消しつつある。 しかしもう一つ難しい点がある。ドローンからは海上の航空写真が数万枚もあがってくる。これらを人が目視で確認して個体を数える必要があるのだ。 ちなみに以下の海上写真には絶滅危惧種である海牛が1頭いる。どこに隠れているか分かるだろうか? 正解は以下の画像で丸をつけたところ。確かによく見ると小さな黒いかたまりがわずかに見える。素人が正確に判別することは非常に難しそうだ。 こうした気の遠くなるような作業を数万枚の写真に対して行う必要があるため、なかなか調査の範囲を広げることが難しい。これが目下の課題だ。 海牛の保護に取り組む豪マードック大学のアマンダ・ホグソン博士は、こうした課題を機械学習技術によって解決しようとしている。 豪クイーンズランド大学と共同で開発した画像認識システムによって、航空写真の中から海牛の位置を自動で検知しようというのだ。 このシステムを開発するために、彼らはGoogleの画像検索や音声認識で使われている技術を活用している。Googleはこれらの技術を機械学習ライブラリ「TensorFlow」としてオープンソースで公開しているのだ。 今のところ同システムによる海牛の検知率は、人による目視の80%ほどだといい、今後さらに改善できる見込みだという。さらに海牛だけでなく、ザトウクジラや特定種のイルカといった他の海洋哺乳類での応用も期待されている。

抑えておきたい、AppleやGoogle等が手掛ける人工知能プロジェクト22選

人工知能(AI)はもはやSFの世界の出来事ではない。 AI自らが自律的に学習するディープラーニング(深層学習)の発展をきっかけとして、大企業からベンチャーまで様々な企業がAI技術を使ったビジネス活用に取り組み始めている。 急激に拡大するAI産業をけん引しているのが、ITジャイアントと呼ばれるGoogleやApple、Facebook、Amazon等だ。彼らは自社が保有する膨大なユーザーデータを活用しながら、人工知能関連技術の開発に取り組んでいる。 今回は世界のAI産業を俯瞰する上で不可欠な彼らによる取り組みを中心に、主なAIプロジェクトを紹介していく。 ■IBM 企業によるAIプロジェクトというと、IBMが開発した「Watson」を思い浮かべる人も多いだろう。 2011年2月にアメリカの人気クイズ番組「ジョパディ!」に出演し、当時史上最強といわれたチャンピオン解答者に勝利したことで、世間での知名度を一気に上げた。 https://www.youtube.com/watch?v=KVM6KKRa12g コンピューターでありながら人と同じように理解・学習し、人間の意思決定を支援するコグニティブ(認知型)・システムと位置づけられるWatson。IBMは「Watson」ブランドの下で様々な製品やサービスを展開しているが、大きくは開発者向けツールと既成アプリケーションの2つに分類できる。 Watson APIs IBMが提供する開発者向けのAPI(Application Programming Interface)。Watson APIの活用によって、外部の開発者が自身のアプリケーションにWatsonの技術を取り込むことができる。 APIの種類は、画像識別機能を持つ「Visual Recognition」や、言語翻訳の「Language Translation」、文字を音声に変換する「Text to Speech」など19種類(2016年6月時点)に上る。 Watson Marketplace IBMは「Watson Marketplace」にて、Watsonを利用した既成アプリケーションも提供している。ショッピング支援アプリケーションの「Watson Trend」や自然言語を処理する分析ツール「Watson Analytics」、SNSでのコメントを分析する「Analytics for Social Media」など多岐にわたる。 SystemML 「SystemML」はIBMが開発した機械学習システムで、企業データの分析を目的とした業界特化型の機械学習アルゴリズムを作成するために活用される。SystemMLを取り入れたアプリケーションによるエコシステム構築を狙うIBMは、2015年に同システムのオープンソース化に踏み切っている。  ■Google 検索エンジンで馴染みのGoogleも、AI研究に多大なリソースを投入している。同社は「Google Brain Team」と呼ばれるAIプロジェクトの社内専門チームを設立。獲得した技術を検索エンジンやAndroid対応パーソナルアシスタントサービス「Google Now」をはじめとする自社製品に応用している。さらに研究成果をオープンソースとして公開しているほか、AIに関する研究論文も複数出版している。 TensorFlow Tensor Flowは機械学習に必要な数値計算を行うライブラリ。Google...

「こういう服装を探して」、ファッションAIが解決

たとえば雑誌やネットのファッション写真を目にして、掲載されている服が欲しくなったとする。しかし値段が高い、もしくは手に入りにくい。そうなった場合、次に思うことはこのような感じだろう。 「これと似たようなスタイルの服をもっと探したい」。 「これと似たようなスタイルの」という定性的かつ抽象的な目的を達成するには、今のところ自分の目と判断に頼るしかない場合が多いだろう。とても時間と手間がかかる作業になりそうだ。そして結局お目当ての商品を見つけられず終わる可能性もある。 そうしたファッション好きの悩みが、AI技術によって解決される日が来るかもしれない。 韓国のインターネットサービス大手SK planetは、ファッションAIシステムを年内にリリースする予定だという。ユーザーが欲しいと思うファッションの参考画像を数枚入力するだけで、同様のスタイルの商品情報を表示してくれるというのだ。SK planetが運営する韓国最大のECサイト「11Street」にて公開する。 同システムの仕組みはこうだ。 人間による「見る」という行為をコンピューターで実現するための技術であるマシンビジョンによって、入力されたファッション画像を識別。そして大量のファッション画像を読み込ませることで訓練したAIシステムによって、適切な商品情報を表示するのだという。 ちなみに同システムによる学習には、ディープラーニング(深層学習)関連の技術であるLong short-term memory(LSTM)というニューラルネットワークアーキテクチャが採用されている。 ファッションデザイナーの知見取り入れる サービスとして実用化に耐えうる精度を実現するためには、実際のユーザーニーズに即して学習させることが重要になる。服の色や丈の長さといった単純な属性を学習させるだけでは、ファッション好きが求める細かなニュアンスを識別できるようにならない。 そこで同システムでは、学習の元となる写真を、実際のファッションデザイナーたちが考案した属性に沿って分類した。その数は90以上に上るという。 このプロジェクトに携わる開発者のほとんどが、ファッションについては専門外。リーダーのSang-Il Na氏は「こうした分類があること自体知りませんでした」と驚く。 彼らは、約1年をかけてこうした精緻な分類作業を行った上で、「11Street」上にある数百万枚に上るファッション画像をシステムに読み込ませた。 一般的にマシンビジョンによって画像を識別するには、ある程度鮮明で高解像度の画像が必要になる。 そのため例えばプロが撮影したハリウッド女優の写真をもとに、服を検索するような場合であれば問題ないが、前の晩のクラブにてスマホで撮った友人の写真をもとに探そうとすると、精度がとたんに下がってしまう恐れがある。 しかしSang-Il Na氏によると、同システムはこうしたケースにも対応できるという。「(今回読み込ませた)11Streetにアップされているファッション画像のほとんどは、屋外で撮影されたものです。ファッジョン雑誌の写真とは違います」。 典型的なファッション雑誌の画像は、プロのカメラマンがスタジオで撮影した鮮明かつノイズの少ない画像だが、11Streetにある画像は屋外のものが多いため、道路や公園といったあらゆるものが写り込んでいる。こうしたノイズの多い画像を学習させているため、スマートフォンによる比較的画質の荒い画像でも識別できるのだという。 ファッション画像を正確に認識することができれば、近い将来AIによるスタイリングといったクリエイティブなステップも視野に入ってくるかもしれない。

AIビジネスの今を知る、最新トレンド10選

AI(人工知能)関連市場がますます盛り上がっています。 調査会社のIDCによると、AI関連市場の規模は、2016年の80億ドル(約9,000億円)から2020年に470億ドルに拡大するそう。 「すでに企業のあらゆる業務プロセスにAIは活用され始めている」と、同社のDavid Schubmehl氏(コグニティブシステム・コンテンツアナリティクス担当ディレクター)は話しています。 ただ「AI関連市場が盛り上がっている!」とだけいわれても、範囲が広すぎていまいちピンとこないですよね。 そこで今回は2017年以降にかけて、重要になり得るトレンド10項目をご紹介します。すでに流行っている項目も多いですが、これからさらに重要性が増すという意味で、改めて触れておきます。 今後AI導入を自社で検討する上で、今回の記事を見取り図として使っていただければ。AIビジネスについてこれから知りたい、という方向けの内容です。 1.AIチャットボット AI関連の調査会社TechEmergenceが、AI関連企業の幹部らを対象に実施した調査によると、今後5年間で最も発展するAI関連技術として、最も多く挙げられた項目が「チャットボット」(37%)でした。 自然言語を理解した上で、メッセージングサービスやメールを通して人とコミュニケーションできるチャットボット。すでにIBMやFacebookといった複数の企業が、チャットボットの開発プラットフォームを公開しており、数多くの企業が参画しています。 Facebookによると、2015年夏の時点で、11,000件以上のボットがメッセンジャー上で稼働中だとのこと。またIBMによると、2000年以降に成人になるミレニアル世代の中で、人間のスタッフよりもチャットボットとのコミュニケーションを好むと答えた割合は、65%に上ります。 2.アプリケーション開発 AIを活用したアプリケーションは、もちろんチャットボットだけではありません。すでにウェブやモバイル、企業内システムといった広い範囲でAI技術が活用されています。たとえばレコメンデーション機能やスケジューリング機能、ビッグデータをもとにした洞察の抽出といった具合です。 今後この傾向はますます強まるでしょう。Gartnerは自社レポートの中で、2018年までにグローバルの大企業上位200社のほどんどの中で、AIを使ったアプリケーションやビッグデータの活用、アナリティクスツールによるサービス・顧客エクスペリエンスの改善が主流になると予測しています。 3.IoTでの活用 モノとモノをインターネットでつないで相互に制御できるIoT。GartnerはIoTとAIの関係についてこう説明しています。 「IoT端末を含む既存の機器は、AIによってインテリジェントな能力を獲得することになる。こういった技術は住宅やオフィス、工場、医療施設などあらゆる場所で活用される」。 たとえば次世代のフィットネストラッカー機器であれば、単にデータをモニタリングするだけではありません。機械学習やアナリティクス機能によって、これまでの健康情報をもとにしたレコメンデーションも可能になります。 4.ヘルスケア AI活用による効果が最も期待されている分野の一つがヘルスケア。IDCによると、2016年に最もAI関連の投資を集めた分野の一つが病気の診断システムです。さらに今後5年間の投資額は、年間69.3%のペースで増えていくとみられています。 また似たような話でいうと、CBInsightsもAIスタートアップが最も活発な分野(2016年)としてヘルスケアを挙げていますね。 5.生物学的モデル AIとヘルスサイエンスの関係は、単なる診断システムにとどまりません。コンピューターサイエンスの研究者たちは、生体モデルをAIソフトウエアの開発に応用することで、人間のような複雑な処理を実施しようとしています。 脳の神経回路の仕組みを模したニューラルネットワークもその一つ。一例としては、マサチューセッツ工科大学(MIT)とGoogleが2016年2月に発表した研究があります。彼らが開発したのは、道端の画像を読み込ませると、その地名を正確に返すシステム。約1億枚に上る位置画像をニューラルネットワークに学習させたそうです。 今後も発展していくと思われるこの分野。レイ・カーツワイル氏のように、2030年までにはヒトの脳とコンピューターネットワークが融合したハイブリッド型のAIが誕生すると予測している研究者もいます。 6.ハードウエアへの応用 AIビジネスというとソフトウエアになりがちですが、ハードウエアももちろん重要です。自動運転車や産業用ロボット、AI搭載ドローンなどがその一例。今後5年間でAIハードウエア市場規模は、年率60%以上で成長するとIDCはみています。 7.AI関連スタートアップ AI産業の成長に伴い、スタートアップも増えています。Venture Scannerによると、AIスタートアップの数は73か国で1,500社に上るそう。またGoogleやIntel、Apple、Facebook、MicrosoftといったIT大手によるスタートアップの買収も活発化。今後もこのトレンドは続くでしょう。 8.労働への影響 AIとビジネスの話で最も注目されがちなトピックの一つが、労働への影響です。2016年6月には調査会社Forresterが、「現在のアメリカの労働人口の7%が、2025年までにロボットや機械学習といったAI技術によって置き換えられる」という具体的な調査結果を発表して話題になりました。 もちろんAIによって置き換えられるかどうかは、仕事の内容によります。サポートセンターのスタッフのように今後劇的に少なくなる職業がある一方で、データサイエンティストやオートメーションスペシャリストのようにさらに需要が増す仕事に分かれてきます。 9.AIの盛り上がりに対する反動 AI産業が盛り上がりをみせている一方で、その反動が今後押し寄せる可能性もあります。AIによって職を追われた人々がこうした技術に反感を抱き、その動きが政治に影響を及ぼすことも考えられます。 またスマートロボットやコグニティブ関連の専門職、機械学習、自動運転といったAI関連の技術には「過度な期待」が集まっている、とGartnerは指摘します。これは先進テクノロジーの発展段階を示した「ハイプ・サイクル」に基づいた予測です。 このモデルによると、「過度な期待」が集まっている時期を過ぎると、「幻滅期」と呼ばれる時期がやってきます。実際にテクノロジーを導入しても成果につながらない事例も多く出てくることで、興味が失われていく段階です。関連企業の淘汰が進むのもこの時期です。 10.予測精度の改善 すでにAIが大きな影響を及ぼしている箇所といえば、予測精度の改善です。これは予測のもとなるビッグデータがあってこそのもの。これまでビッグデータの活用に取り組んできた企業からすれば、機械学習をベースとした予測精度の改善に取り組むことは自然な流れといえるでしょう。 分かりやすい例としては、2016年のアメリカ大統領選でのAI活用があります。インドのスタートアップが開発したAIシステムは、選挙の前日の段階でドナルド・トランプの勝利を予測していたといいます。他の事前調査のほとんどがヒラリー・クリントンの優勢を伝えていたにもかかわらずです。