Return to Video

自ら学習するコンピュータの素晴らしくも物恐ろしい可能性

  • 0:01 - 0:05
    これまではコンピューターに
    何かさせようと思ったら
  • 0:05 - 0:06
    プログラムを書く
    必要がありました
  • 0:06 - 0:10
    プログラミングはやったことが
    ないかもしれませんが
  • 0:10 - 0:13
    やりたいことを
    実現するために
  • 0:13 - 0:17
    コンピューターが
    行うべきことを
  • 0:17 - 0:19
    事細かに指定してやる
    必要があります
  • 0:19 - 0:23
    だから実現したいことの
    具体的なやり方を知らずに
  • 0:23 - 0:25
    プログラムを書くというのは
    難しい話です
  • 0:25 - 0:28
    それがこの写真の人物
    アーサー・サミュエルが直面した問題でした
  • 0:28 - 0:32
    1956年のこと 彼はチェッカーで
    自分に勝てるプログラムを
  • 0:32 - 0:35
    作りたいと思いました
  • 0:35 - 0:37
    しかしどうしたら
    自分より上手く
  • 0:37 - 0:40
    チェッカーを指す手順を
    詳細に記述することができるでしょう?
  • 0:40 - 0:42
    彼は良い方法を
    思いつきました
  • 0:42 - 0:46
    コンピュータ自身を相手に
    何千回も
  • 0:46 - 0:48
    チェッカーの対局をさせて
    自分で学ばせるんです
  • 0:48 - 0:52
    これはうまくいきました
    そのプログラムは実際
  • 0:52 - 0:56
    1962年に コネチカット州チャンピオンを
    破ることができました
  • 0:56 - 0:59
    だからアーサー・サミュエルは
    機械学習の父とも言え
  • 0:59 - 1:00
    私自身 彼に
    多くを負っています
  • 1:00 - 1:03
    というのも私は機械学習の応用を
    生業としているからです
  • 1:03 - 1:04
    私が代表を務めていた
  • 1:04 - 1:08
    Keggleには20万人以上の
    機械学習専門家が属しています
  • 1:08 - 1:10
    Keggleでは
  • 1:10 - 1:14
    かつて解かれたことのない課題を使って
    競技会を開催していて
  • 1:14 - 1:17
    何百回となく
    成功を収めています
  • 1:17 - 1:20
    そのような立場から
    機械学習には かつて何ができ
  • 1:20 - 1:24
    今何ができて
    将来何ができるようになるか
  • 1:24 - 1:26
    多くのことを
    学ぶことができました
  • 1:26 - 1:31
    機械学習が商業的に大きな成功を収めた
    最初の例は Googleかもしれません
  • 1:31 - 1:34
    Googleは
    機械学習を使った
  • 1:34 - 1:36
    アルゴリズムによって
  • 1:36 - 1:38
    情報を見つけられることを
    示しました
  • 1:38 - 1:42
    それ以来 機械学習の商業的な成功事例が
    たくさん生まれています
  • 1:42 - 1:44
    AmazonやNetflixのような企業は
  • 1:44 - 1:48
    機械学習を使って
    ユーザーが買いたいであろう商品や
  • 1:48 - 1:50
    見たいであろう映画を
    提示していて
  • 1:50 - 1:52
    その精度は
    時に不気味なくらいです
  • 1:52 - 1:54
    LinkedInやFacebookは
  • 1:54 - 1:56
    知り合いかもしれない人を示唆し
    なぜ分かったのか
  • 1:56 - 1:58
    当人には
    見当も付きませんが
  • 1:58 - 2:01
    これも機械学習の力を
    使っているのです
  • 2:01 - 2:04
    手順が事細かに
    プログラミングされているのではなく
  • 2:04 - 2:07
    どうすべきかをデータから学習する
    アルゴリズムが使われています
  • 2:07 - 2:10
    IBMのワトソンが
    ジェパディの世界チャンピオン
  • 2:10 - 2:14
    2人を破ったのも
    そのような方法によってで
  • 2:14 - 2:17
    ご覧のような複雑な問いに
    答えることができました
  • 2:17 - 2:20
    [2003年にこの町の国立博物館から古代の
    “ニムルドの獅子” が (その他多くの品とともに) 消えた]
  • 2:20 - 2:23
    自動運転車が実現可能になったのも
    機械学習のお陰です
  • 2:23 - 2:26
    たとえば木と歩行者を
    見分けるといったことが
  • 2:26 - 2:28
    できる必要があります
  • 2:28 - 2:31
    そのようなことの具体的な手順が
    どうすれば書けるのか
  • 2:31 - 2:34
    分かりませんが
    機械学習で可能になったのです
  • 2:34 - 2:37
    事実この車は
    事故を起こすこともなく
  • 2:37 - 2:40
    普通の公道を
    何百万キロも走行しています
  • 2:40 - 2:44
    コンピューターは
    単に学べるだけでなく
  • 2:44 - 2:46
    どうしたらできるのか
  • 2:46 - 2:49
    分からないようなことも
    学ぶことができ
  • 2:49 - 2:52
    人間よりも上手くなることも
    あり得るのです
  • 2:52 - 2:56
    機械学習で最も目覚ましい
    事例の1つは
  • 2:56 - 2:58
    私がKeggleで主催した
    プロジェクトで
  • 2:58 - 3:02
    ジェフリー・ヒントン率いる
  • 3:02 - 3:03
    トロント大のチームが
  • 3:03 - 3:06
    薬を発見する競技に
    優勝した時です
  • 3:06 - 3:09
    これがすごいのは
    医薬大手のメルク社や
  • 3:09 - 3:13
    この分野の専門家チームの
    開発したアルゴリズムを破った彼らのチームに
  • 3:13 - 3:18
    化学や生物学やライフサイエンスを
    ちゃんと学んだ経験のある人が誰もいなかったことで
  • 3:18 - 3:20
    しかも たった2週間で
    やってのけたのです
  • 3:20 - 3:22
    どうして可能だったのか?
  • 3:22 - 3:25
    ディープ・ラーニングと呼ばれる
    アルゴリズムを使ったのです
  • 3:25 - 3:28
    ことの重大さは 数週間後に
    ニューヨークタイムズ紙の
  • 3:28 - 3:31
    一面で取り上げられたことでも
    分かると思います
  • 3:31 - 3:34
    画面の左に出ているのが
    ジェフリー・ヒントンです
  • 3:34 - 3:38
    ディープ・ラーニングというのは
    人の脳の仕組みを参考にしたアルゴリズムで
  • 3:38 - 3:40
    何が可能かについて
  • 3:40 - 3:44
    理論的には限界がありません
  • 3:44 - 3:47
    より多くのデータと
    処理時間を使うほど
  • 3:47 - 3:48
    より良い結果が得られます
  • 3:48 - 3:51
    ニューヨークタイムズは
    その記事でもう1つ
  • 3:51 - 3:53
    ディープ・ラーニングのすごい事例を
    取り上げています
  • 3:53 - 3:56
    それをこれからお見せしましょう
  • 3:56 - 4:01
    コンピューターが人の話を聞いて
    理解できることを示すものです
  • 4:01 - 4:03
    (ビデオ) このプロセスの
    最後に加えたいステップは
  • 4:03 - 4:06
    実際に中国語で
  • 4:06 - 4:11
    話させるということです
  • 4:11 - 4:14
    ここで鍵になるのは
  • 4:14 - 4:19
    中国語話者から得た
    膨大な情報を使って
  • 4:19 - 4:21
    中国語のテキストを
    音声に変える
  • 4:21 - 4:26
    音声合成システムを作り
  • 4:26 - 4:30
    1時間ほどの
    私自身の声のデータを使って
  • 4:30 - 4:32
    そのシステムを調整し
  • 4:32 - 4:36
    まるで私が話しているかのようにする
    ということです
  • 4:36 - 4:39
    まだ完璧なものではありません
  • 4:39 - 4:42
    たくさんミスをします
  • 4:42 - 4:44
    (音声合成された中国語訳)
  • 4:44 - 4:47
    (拍手)
  • 4:49 - 4:53
    この領域で為されるべきことは
    まだたくさんあります
  • 4:53 - 4:57
    (音声合成された中国語訳)
  • 4:57 - 5:00
    (拍手)
  • 5:01 - 5:05
    これは中国で行われた
    カンファレンスでのものですが
  • 5:05 - 5:07
    学会で拍手が
    沸き起こるというのは
  • 5:07 - 5:09
    あまりないことです
  • 5:09 - 5:13
    もっともTEDxは
    もっと自由な雰囲気がありますが
  • 5:13 - 5:15
    ご覧いただいたものはみんな
    ディープ・ラーニングで実現されました
  • 5:15 - 5:17
    (拍手) どうも
  • 5:17 - 5:19
    英語の文字起こしも
    ディープ・ラーニングだし
  • 5:19 - 5:23
    右上の中国語に翻訳されたテキストも
    ディープ・ラーニングによるもので
  • 5:23 - 5:26
    音声の合成にも
    ディープ・ラーニングが使われています
  • 5:26 - 5:29
    ディープ・ラーニングは
    このようにすごいものです
  • 5:29 - 5:32
    単一のアルゴリズムで
    ほとんど何でもできるように見えます
  • 5:32 - 5:35
    この1年前にディープ・ラーニングが
    「見る」こともできると知りました
  • 5:35 - 5:40
    ドイツ道路標識認識ベンチマーク
    という奇妙な競技会で
  • 5:40 - 5:44
    このような道路標識をディープ・ラーニングで
    識別できることが示されました
  • 5:44 - 5:46
    他のアルゴリズムよりも
  • 5:46 - 5:47
    上手く識別できた
    というだけでなく
  • 5:47 - 5:50
    このスコアボードにある通り
    2位の人間より
  • 5:50 - 5:52
    2倍高い精度で
    識別できたんです
  • 5:52 - 5:54
    2011年には
    コンピューターが人よりも
  • 5:54 - 5:57
    良く見ることができる事例が
    生まれたわけです
  • 5:57 - 5:59
    それ以来いろんなことが
    起きています
  • 5:59 - 6:03
    2012年にGoogleが発表したんですが
    ディープ・ラーニング・アルゴリズムが
  • 6:03 - 6:04
    YouTubeビデオを見て
  • 6:04 - 6:08
    1万6千台のコンピュータで
    1ヶ月 データ処理した結果
  • 6:08 - 6:12
    コンピューターが「人」や
    「猫」といった概念を
  • 6:12 - 6:14
    自分で学んだということです
  • 6:14 - 6:16
    これは人が学習する方法に
    近いものです
  • 6:16 - 6:19
    人は見たものを
    教えられて学ぶよりは
  • 6:19 - 6:22
    むしろそれが何なのか
    自分で学んでいくものです
  • 6:22 - 6:26
    2012年にはまた
    先ほど名前の出たジェフリー・ヒントンが
  • 6:26 - 6:29
    有名なImageNet競技会で
    優勝しましたが
  • 6:29 - 6:33
    これは150万の画像を
    何の写真か
  • 6:33 - 6:34
    判別するというものです
  • 6:34 - 6:38
    2014年の時点で
    画像認識の誤り率は
  • 6:38 - 6:39
    6%までになっています
  • 6:39 - 6:41
    これも人間より高い精度です
  • 6:41 - 6:45
    機械はこの面で非常に良い仕事を
    するようになっており
  • 6:45 - 6:47
    商業的にも
    利用されています
  • 6:47 - 6:50
    たとえばGoogleは
    去年フランス国内のすべての番地を
  • 6:50 - 6:55
    2時間で地図に登録したと
    発表しました
  • 6:55 - 6:58
    その方法は
    ストリートビューの画像を
  • 6:58 - 7:03
    ディープ・ラーニング・アルゴリズムに食わせて
    所番地を識別させるというものです
  • 7:03 - 7:05
    かつてなら どれほど時間を
    要したか分かりません
  • 7:05 - 7:08
    何十人掛かりで
    何年もかかったでしょう
  • 7:08 - 7:10
    こちらは中国の
    Baiduによるもので
  • 7:10 - 7:14
    中国版のGoogle
    のようなサービスです
  • 7:14 - 7:17
    左上の画像は
  • 7:17 - 7:20
    私がBaiduのディープ・ラーニング・システムに
    アップロードしたものです
  • 7:20 - 7:24
    下に並んでいるのは
    システムがその画像を理解して
  • 7:24 - 7:26
    似た画像を集めた結果です
  • 7:26 - 7:29
    類似画像は
    似たような背景や
  • 7:29 - 7:31
    似た顔の向きを持ち
  • 7:31 - 7:33
    同じく舌を出してる
    ものまであります
  • 7:33 - 7:36
    ウェブページの文章によって
    見つけたものではありません
  • 7:36 - 7:37
    アップしたのは
    画像だけです
  • 7:37 - 7:41
    今やコンピュータは
    見た物を理解して
  • 7:41 - 7:43
    何億という画像の
    データベースから
  • 7:43 - 7:46
    リアルタイムで検索できるまでに
    なっているのです
  • 7:46 - 7:50
    コンピュータに「見る」ことができるというのは
    どんな意味を持つのか?
  • 7:50 - 7:52
    しかしできるのは
    見ることだけではありません
  • 7:52 - 7:54
    ディープ・ラーニングには
    それ以上のことができます
  • 7:54 - 7:57
    このような複雑で
    ニュアンスに富んだ文章を
  • 7:57 - 7:59
    ディープ・ラーニング・アルゴリズムは
    理解できます
  • 7:59 - 8:01
    ご覧いただいているのは
  • 8:01 - 8:03
    スタンフォード大のシステムですが
    一番上の点が赤色になっていて
  • 8:03 - 8:07
    文が全体としてネガティブな感情を
    表していることを示しています
  • 8:07 - 8:11
    ディープ・ラーニングは今や
    文章が何について何を言っているのかを
  • 8:11 - 8:16
    人間に近い精度で
    理解できるようになっているのです
  • 8:16 - 8:19
    ディープ・ラーニングは
    中国語を読むのにも使われ
  • 8:19 - 8:22
    中国語のネイティブ話者並の
    精度があります
  • 8:22 - 8:24
    これを開発したのは
    スイスのチームですが
  • 8:24 - 8:27
    その中に中国語の分かる人は
    いなかったそうです
  • 8:27 - 8:29
    ディープ・ラーニングは
    これに関して
  • 8:29 - 8:32
    ネイティブの人間にも劣らない
  • 8:32 - 8:37
    最も優れたシステムなのです
  • 8:37 - 8:40
    これは私の会社で
    構築したシステムで
  • 8:40 - 8:42
    すべてを組み合わせたものです
  • 8:42 - 8:44
    これらの画像には
    テキストが紐付けされてはおらず
  • 8:44 - 8:47
    ユーザーが文をタイプすると
  • 8:47 - 8:50
    リアルタイムで画像を理解し
  • 8:50 - 8:51
    何の画像かを判別して
  • 8:51 - 8:54
    書き込まれた文に近い画像を
    見つけます
  • 8:54 - 8:57
    だから私の書いた文と
    これらの画像を
  • 8:57 - 8:59
    同時に理解しているわけです
  • 8:59 - 9:02
    Googleのサイトで
    似たものを見たことがあるでしょう
  • 9:02 - 9:05
    何かタイプすると
    画像が表示されますが
  • 9:05 - 9:08
    そこで実際に行われているのは
    テキストによるウェブページの検索です
  • 9:08 - 9:11
    画像を理解するというのとは
    ずいぶん違うことです
  • 9:11 - 9:14
    このようなことが
    できるようになったのは
  • 9:14 - 9:17
    ほんのここ数ヶ月のことです
  • 9:17 - 9:21
    コンピューターには「見る」だけでなく
    「読む」こともでき
  • 9:21 - 9:25
    「聞く」ことによって理解できることも
    お見せしました
  • 9:25 - 9:28
    そうすると「書く」ことだってできると言っても
    驚かないかもしれません
  • 9:28 - 9:33
    これは私が昨日 ディープ・ラーニング・
    アルゴリズムで生成したテキストです
  • 9:33 - 9:37
    こちらはスタンフォード大のアルゴリズムで
    生成されたテキストです
  • 9:37 - 9:39
    それぞれの画像を
    説明する文が
  • 9:39 - 9:43
    ディープ・ラーニング・アルゴリズムによって
    生成されています
  • 9:43 - 9:48
    アルゴリズムは「ギターを弾いている黒いシャツの男」を
    前に見たことはありません
  • 9:48 - 9:50
    「男」を見たことはあり
    「黒い」ものを見たことはあり
  • 9:50 - 9:51
    「ギター」を見たことはありますが
  • 9:51 - 9:56
    このキャプションは画像に対して
    新しく独自に作り出されたものです
  • 9:56 - 9:59
    書くことに関してはコンピューターは
    まだ人間に及びませんが 近づいています
  • 9:59 - 10:03
    テストでは4回に1回は
    コンピューターの生成した文の方が好ましい —
  • 10:03 - 10:05
    という結果になっています
  • 10:05 - 10:07
    このシステムはできて
    まだ2週間しかたっていないので
  • 10:07 - 10:09
    このまま行くと
    たぶん来年中には
  • 10:09 - 10:12
    コンピューターアルゴリズムの成績が
  • 10:12 - 10:13
    人間を上回るのではと思います
  • 10:13 - 10:16
    だからコンピューターは
    書くこともできるのです
  • 10:16 - 10:20
    これらをまとめたら
    非常に興味深い可能性が開けます
  • 10:20 - 10:21
    たとえば医療です
  • 10:21 - 10:24
    あるボストンのチームは
    コンピューターによって
  • 10:24 - 10:27
    医師が がんの診断を
    する上で役に立つ
  • 10:27 - 10:31
    何十という腫瘍の特徴を発見したと
    発表しました
  • 10:32 - 10:35
    同様にスタンフォードのグループは
  • 10:35 - 10:38
    組織の拡大画像を見て
  • 10:38 - 10:41
    がん患者の生存率を
  • 10:41 - 10:43
    人間の病理医よりも
    正確に予想する
  • 10:43 - 10:48
    機械学習システムを
    開発しました
  • 10:48 - 10:51
    どちらのケースも
    予測が人間より正確というだけでなく
  • 10:51 - 10:53
    新たな科学的洞察を
    もたらしています
  • 10:53 - 10:55
    放射線医学のケースでは
  • 10:55 - 10:58
    人間に理解できる
    新しい臨床的な指標です
  • 10:58 - 11:00
    病理学のケースでは
  • 11:00 - 11:04
    診断において
    がん細胞だけでなく
  • 11:04 - 11:08
    がんの周囲の細胞も
    重要であることを
  • 11:08 - 11:09
    発見しました
  • 11:09 - 11:15
    これは病理医が
    何十年も教わってきたのとは逆です
  • 11:15 - 11:18
    どちらのケースでも
    システムは
  • 11:18 - 11:22
    医学の専門家と機械学習の専門家の
    組み合わせによって開発されましたが
  • 11:22 - 11:24
    去年我々はこの面をも
    乗り越えました
  • 11:24 - 11:28
    これは顕微鏡で見た
    人の組織から
  • 11:28 - 11:30
    がんの領域を
    識別する例です
  • 11:30 - 11:35
    このシステムは
    人間の病理医と同じか
  • 11:35 - 11:38
    それ以上の精度で
    がん領域を識別できますが
  • 11:38 - 11:41
    医療の知識や経験のない
    チームによって
  • 11:41 - 11:44
    ディープ・ラーニングを使って
    開発されました
  • 11:45 - 11:47
    同様に これは
    ニューロンの区分けです
  • 11:47 - 11:51
    今ではニューロンを人間と
    同じ正確さで区分けできますが
  • 11:51 - 11:54
    このシステムは医学を
    学んだことのない人々が
  • 11:54 - 11:57
    ディープ・ラーニングを使って
    開発しました
  • 11:57 - 12:00
    医学を学んだことのない人間が
    医療の会社を始めるのも
  • 12:00 - 12:04
    もはや変なことではないと思え
  • 12:04 - 12:06
    実際に会社を作ることにしました
  • 12:06 - 12:08
    そうするのは
    怖くもありましたが
  • 12:08 - 12:11
    データ分析技術だけでも
    有益な医療サービスは
  • 12:11 - 12:16
    提供可能であると
    理論は示しているように見えます
  • 12:16 - 12:19
    ありがたいことに
    大変好意的な反応を受け取っており
  • 12:19 - 12:21
    メディアばかりでなく
  • 12:21 - 12:23
    医学界の人々も
    支持してくれています
  • 12:23 - 12:27
    私たちは医療の
    中間部分を受け持って
  • 12:27 - 12:30
    そこを可能な限り
    データ分析で置き換え
  • 12:30 - 12:33
    医師には彼らが最も適した部分をやってもらう
    というのが基本方針です
  • 12:33 - 12:35
    例をお見せしたいと思います
  • 12:35 - 12:40
    新しい医療診断テストの生成には
    現在15分ほどかかります
  • 12:40 - 12:42
    それをリアルタイムで
    ご覧に入れますが
  • 12:42 - 12:45
    一部をはしょって
    3分に縮めてやります
  • 12:45 - 12:48
    医療診断テストを作って
    お見せするよりは
  • 12:48 - 12:52
    車の画像を診断するテストを
    お見せしようと思います
  • 12:52 - 12:54
    その方が分かりやすいので
  • 12:54 - 12:57
    150万の車の画像から
    始めます
  • 12:57 - 13:00
    まず写真を
    撮った角度によって
  • 13:00 - 13:03
    分類したいと思います
  • 13:03 - 13:07
    画像にラベルはまったく付いておらず
    一から始めます
  • 13:07 - 13:08
    ディープ・ラーニング・アルゴリズムを使って
  • 13:08 - 13:12
    写っている構造領域を
    自動的に識別することができます
  • 13:12 - 13:16
    これの良いところは
    人とコンピューターで協力して作業できるところです
  • 13:16 - 13:18
    ご覧のように
  • 13:18 - 13:21
    人が関心のある領域を
    コンピューターに教え
  • 13:21 - 13:25
    コンピューターがそれに基づいて
    アルゴリズムを改良します
  • 13:25 - 13:30
    このディープ・ラーニング・システムは
    1万6千次元空間になっていて
  • 13:30 - 13:33
    その空間の中で
    軸を回転させて
  • 13:33 - 13:35
    新たな構造領域を
    見つけようとします
  • 13:35 - 13:37
    それが成功したら
  • 13:37 - 13:41
    人間が関心のある領域を
    指摘します
  • 13:41 - 13:43
    コンピューターがうまく
    領域を見つけられました
  • 13:43 - 13:46
    たとえば角度です
  • 13:46 - 13:47
    このプロセスを経ることで
  • 13:47 - 13:50
    どのような構造を
    探しているのか
  • 13:50 - 13:52
    徐々に伝えていきます
  • 13:52 - 13:54
    これが病気の診断であれば
  • 13:54 - 13:57
    病理医が病的状態にある領域を
    識別するとか
  • 13:57 - 14:02
    放射線医が問題のある可能性のある小結節を示す
    といったことを想像できるでしょう
  • 14:02 - 14:05
    時にアルゴリズムには
    難しいこともあります
  • 14:05 - 14:07
    今の場合
    コンピューターが混乱して
  • 14:07 - 14:09
    前部と後部が
    ごちゃまぜになっています
  • 14:09 - 14:11
    そのため少し注意して
  • 14:11 - 14:15
    手で前部を後部から
    選り分けてやらなければなりません
  • 14:15 - 14:20
    そうやって
    こんなグループに関心があるのだと
  • 14:20 - 14:22
    コンピューターに
    伝えるのです
  • 14:22 - 14:24
    こうやって続けていき
    少しはしょりますが
  • 14:24 - 14:26
    機械学習アルゴリズムを
    改善させるために
  • 14:26 - 14:28
    数百の事例を使って
  • 14:28 - 14:30
    訓練してやります
  • 14:30 - 14:34
    画像の一部が
    薄れていますが
  • 14:34 - 14:38
    これはどう理解すれば良いか
    既に認識されたものです
  • 14:38 - 14:41
    それから似たイメージという概念を
    使ってやることで
  • 14:41 - 14:43
    コンピューターが
    車の前部だけを
  • 14:43 - 14:47
    見つけられるように
    なりました
  • 14:47 - 14:50
    そうなったら
    人間がコンピューターに
  • 14:50 - 14:52
    その点で上手くできていることを
    教えてやります
  • 14:54 - 14:56
    もちろんこの期に及んでも
  • 14:56 - 15:00
    ある種のグループを分離するのが
    難しいことがあります
  • 15:00 - 15:03
    今の場合 コンピューターに
    しばらく回転をさせても
  • 15:03 - 15:07
    依然として
    左側と右側の画像が
  • 15:07 - 15:08
    混在しています
  • 15:08 - 15:10
    コンピューターにもう
    少しヒントをやり
  • 15:10 - 15:13
    右側と左側を可能な限り
    分離できる射影を
  • 15:13 - 15:16
    ディープ・ラーニング・
    アルゴリズムを使って
  • 15:16 - 15:18
    見つけられるようにします
  • 15:18 - 15:21
    そのヒントを与えることで —
    上手くいきました
  • 15:21 - 15:24
    右側と左側を
    見分ける方法を
  • 15:24 - 15:26
    どうにか見つけられました
  • 15:26 - 15:29
    基本的な考え方を
    分かっていただけたと思います
  • 15:29 - 15:37
    これは人間がコンピューターに
    置き換えられるという話ではなく —
  • 15:37 - 15:40
    人とコンピューターが
    協力するということです
  • 15:40 - 15:43
    やろうとしているのは
    これまでは5、6人のチームで
  • 15:43 - 15:45
    何年もかかっていた
    ようなことを
  • 15:45 - 15:48
    1人で15分ほどで
    できるようにする
  • 15:48 - 15:50
    ということです
  • 15:50 - 15:54
    このプロセスには
    4、5回の反復が必要です
  • 15:54 - 15:56
    150万の画像を
    62%の精度で
  • 15:56 - 15:59
    分類できるようになりました
  • 15:59 - 16:01
    そうなったら
  • 16:01 - 16:03
    大きなセクションを選んで
  • 16:03 - 16:06
    誤りがないか
    素早くチェックできます
  • 16:06 - 16:10
    誤りがあった場合は
    コンピューターに教えてやります
  • 16:10 - 16:13
    それぞれのグループについて
    そういうことを行うことで
  • 16:13 - 16:15
    150万の画像を
    80%の精度で
  • 16:15 - 16:18
    分類できるようになりました
  • 16:18 - 16:20
    そうしたら
  • 16:20 - 16:23
    正しく分類されなかった
    少数のケースについて
  • 16:23 - 16:26
    その理由を考えます
  • 16:26 - 16:28
    このアプローチを
    15分やることで
  • 16:28 - 16:32
    97%の精度で
    分類できるようになりました
  • 16:32 - 16:37
    このようなテクニックは
    世界の重要な問題を解決してくれるでしょう
  • 16:37 - 16:40
    世界的な医師不足です
  • 16:40 - 16:43
    世界経済フォーラムは
    発展途上国において
  • 16:43 - 16:46
    医師が今の10倍から20倍必要で
  • 16:46 - 16:48
    それだけの医師を育てるには
  • 16:48 - 16:51
    300年かかると言っています
  • 16:51 - 16:54
    ディープ・ラーニングを使って
    医療の効率を上げることで
  • 16:54 - 16:56
    対処するというのは
    どうでしょう?
  • 16:56 - 16:59
    このような機会に
    私はワクワクしていますが
  • 16:59 - 17:01
    同時に懸念している
    こともあります
  • 17:01 - 17:04
    地図で青になっている国は
  • 17:04 - 17:08
    雇用の80%以上が
    サービス業のところです
  • 17:08 - 17:10
    サービスとは何か?
  • 17:10 - 17:11
    このようなものです
  • 17:11 - 17:16
    これらのことは コンピューターが
    できるようになりつつあることでもあります
  • 17:16 - 17:19
    先進国の雇用の80%は
    コンピューターができるようになったことで
  • 17:19 - 17:22
    成り立っているのです
  • 17:22 - 17:23
    これは何を
    意味するのでしょう?
  • 17:23 - 17:26
    「他の仕事で置き換えられるから
    問題ないよ
  • 17:26 - 17:29
    たとえば
    データサイエンティストの仕事とか」
  • 17:29 - 17:30
    と思うかもしれませんが
  • 17:30 - 17:33
    このようなものをデータサイエンティストが構築するのに
    そう時間はかかりません
  • 17:33 - 17:36
    たとえば今回取り上げた4つのアルゴリズムは
    1人の人間によって作られたものです
  • 17:36 - 17:38
    こういうことは
    以前にも起き
  • 17:38 - 17:42
    新しいものが現れては
    古い職が新しい職で
  • 17:42 - 17:44
    置き換えられてきた
    と言うなら
  • 17:44 - 17:46
    その新しい職は
    どのようなものになるのでしょう?
  • 17:46 - 17:48
    とても難しい問題です
  • 17:48 - 17:51
    なぜなら人間の能力は
    徐々にしか向上しませんが
  • 17:51 - 17:54
    ディープ・ラーニング・
    システムの能力は
  • 17:54 - 17:57
    指数関数的に
    向上しているからです
  • 17:57 - 17:58
    私達がいるのは
    追い抜かれる一歩手前です
  • 17:58 - 18:01
    今は周りを見渡して
  • 18:01 - 18:03
    「コンピューターはまだ馬鹿だ」
    と思っていても
  • 18:03 - 18:07
    5年もしたら
    このグラフの天井を突き破ってしまうでしょう
  • 18:07 - 18:11
    私たちは今この能力について
    考える必要があるのです
  • 18:11 - 18:13
    前にも似たことは
    経験しています
  • 18:13 - 18:14
    産業革命です
  • 18:14 - 18:17
    エンジンの出現による
    能力の急激な変化がありました
  • 18:18 - 18:21
    しかししばらくすると
    物事はまた落ち着きました
  • 18:21 - 18:23
    社会的な変動はありましたが
  • 18:23 - 18:26
    あらゆる場面でエンジンが
    使われるようになると
  • 18:26 - 18:28
    状況は安定したのです
  • 18:28 - 18:30
    機械学習の革命は
  • 18:30 - 18:33
    産業革命とは
    全然違うものになるでしょう
  • 18:33 - 18:36
    機械学習の革命は
    留まることがないからです
  • 18:36 - 18:39
    より優れたコンピューターが
    知的活動を受け持ち
  • 18:39 - 18:43
    それによって 知的活動にさらに優れた
    コンピューターが作れるようになり
  • 18:43 - 18:45
    世界がかつて
    経験したことのないような
  • 18:45 - 18:47
    変化を起こすことに
    なるでしょう
  • 18:47 - 18:51
    何が起こりうるかについての
    以前の知見は 当てはまらないのです
  • 18:51 - 18:53
    この影響は既に現れています
  • 18:53 - 18:56
    過去25年で
    資本生産性は増大しましたが
  • 18:56 - 19:01
    労働生産性は平坦で
    むしろ少し下がっています
  • 19:01 - 19:04
    だから この議論を
    今始めて欲しいのです
  • 19:04 - 19:07
    私がこの状況を
    説明しても
  • 19:07 - 19:09
    なかなか真剣に
    取り合ってもらえません
  • 19:09 - 19:10
    「コンピューターには
    本当に思考することはできない」
  • 19:10 - 19:13
    「感情がない」
    「詩を理解しない」
  • 19:13 - 19:16
    「我々は腦の働きを本当に理解してはいない」
    などなど
  • 19:16 - 19:17
    だったら何でしょう?
  • 19:17 - 19:19
    人間がお金をもらい
    時間を費やして
  • 19:19 - 19:22
    やっていたことが
    機械にも可能になっているんです
  • 19:22 - 19:24
    この新たな現実を踏まえて
  • 19:24 - 19:28
    社会構造や経済構造を
    どう調整したら良いか
  • 19:28 - 19:30
    考え始めるべき時です
  • 19:30 - 19:31
    ありがとうございました
  • 19:31 - 19:32
    (拍手)
Title:
自ら学習するコンピュータの素晴らしくも物恐ろしい可能性
Speaker:
ジェレミー・ハワード
Description:

コンピューターに学び方を教えた時何が起きるのでしょう? 科学技術者であるジェレミー・ハワードが急速に発展しているディープ・ラーニングの分野で起きている驚くべきことを紹介してくれます。コンピューターが中国語を学び、写真に写っている物を認識し、医療診断をする。(あるディープ・ラーニング・プログラムは何時間ものYouTubeビデオを見た後、「猫」の概念を自ら学び取りました。) この分野の最新動向を押さえておくことにしましょう。それは私達の身の回りのコンピューターの振る舞いを変えることになるでしょうから・・・あなたが思っているよりも早く。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
19:45

Japanese subtitles

Revisions