0:00:01.010,0:00:02.310 アーサー・C・クラーク 0:00:02.310,0:00:05.505 1950年代の著名なSF作家は言いました 0:00:05.505,0:00:09.527 「我々は 短期的には技術を過大評価し 0:00:09.527,0:00:12.327 長期的には技術を過小評価する」 0:00:12.327,0:00:14.744 このことが よく表れているのが 0:00:14.744,0:00:19.326 人工知能やロボットで 仕事がなくなると[br]私たちが心配していることです 0:00:19.326,0:00:21.993 つまり 短期的な視点で[br]技術を過大評価しているのです 0:00:21.993,0:00:27.371 でも 私が心配なのは[br]長期的に必要になる技術を得られるか 0:00:27.371,0:00:33.085 人口構成の変化により 労働力が不足し 0:00:33.085,0:00:38.460 私たちの社会は 将来 ロボットの[br]鉄の肩にすがらざるを得なくなります 0:00:38.460,0:00:41.286 だから 私はロボット不足になることが[br]怖いのです 0:00:41.286,0:00:45.925 長い間 技術の進歩で[br]仕事がなくなると心配されてきました 0:00:45.925,0:00:49.877 1957年 スペンサー・トレイシーと[br]キャサリン・ヘプバーンの映画の― 0:00:49.877,0:00:51.325 結末をご存知でしょう 0:00:51.325,0:00:55.411 スペンサー・トレイシーは[br]資料調査業務にコンピュータを導入します 0:00:55.411,0:00:57.311 1957年当時の[br]大型コンピューターです 0:00:57.311,0:01:00.788 その会社では 司書は会社の幹部の[br]知りたいことを調べていました 0:01:00.788,0:01:04.625 「サンタクロースのトナカイの名前は?」[br]と聞かれれば 0:01:04.625,0:01:05.810 その答えを調べます 0:01:05.810,0:01:08.243 このコンピュータは[br]その仕事を助けるはずでした 0:01:08.243,0:01:12.326 もちろん 1957年当時の[br]コンピュータはさほど役に立ちません 0:01:12.326,0:01:15.476 司書は 自分たちの仕事が[br]なくなると心配しましたが 0:01:15.476,0:01:17.125 でも 現実は違いました 0:01:17.125,0:01:22.380 この種の職の雇用は[br]1957年以降 ずっと増え続けました 0:01:22.380,0:01:25.494 インターネットが普及し 0:01:25.494,0:01:28.027 ウェブサイトや検索エンジンが普及して初めて 0:01:28.027,0:01:30.676 資料調査という業務が減りました 0:01:30.676,0:01:34.883 また 1957年当時には 誰もが[br]現在の技術を過小評価していたと思います 0:01:34.883,0:01:39.643 現実には 今は皆がこうして[br]ポケットに入れて技術を持ち運べ 0:01:39.643,0:01:45.360 「サンタクロースのトナカイの名前は?」と[br]言えば すぐに答えが返ってきて 0:01:45.360,0:01:47.111 何でも知ることができるのにです 0:01:47.111,0:01:52.710 ちなみに その間 司書の賃金は[br]アメリカのどの仕事よりも 0:01:52.710,0:01:55.709 早く上がりました 0:01:55.709,0:01:59.277 司書が コンピュータの[br]パートナーになったからです 0:01:59.277,0:02:02.160 コンピュータがツールとなったことで[br]使えるツールが増えて 0:02:02.160,0:02:04.452 当時の司書の仕事は[br]より効果的になりました 0:02:04.452,0:02:06.244 同じことが オフィスでも起こります 0:02:06.244,0:02:08.542 かつては 表計算がされていました 0:02:08.542,0:02:10.876 つまり 紙の表計算用紙を使って 0:02:10.876,0:02:13.026 手で計算をしていました 0:02:13.026,0:02:15.393 でも ここで面白いことが起こります 0:02:15.393,0:02:17.683 1980年頃のパソコン革命で 0:02:17.683,0:02:22.425 表計算ソフトは[br]事務員のために改良されました 0:02:22.425,0:02:24.077 事務員に取って代わるのではなく 0:02:24.077,0:02:28.743 事務員は プログラムができる人として[br]尊重されたのです 0:02:28.743,0:02:31.871 つまり 事務員は 表計算のプログラマーになり 0:02:31.871,0:02:33.962 その能力は向上しました 0:02:33.962,0:02:36.541 つまらない計算作業をしなくてもよくなり 0:02:36.541,0:02:39.476 それ以上のことができるようになったのです 0:02:39.476,0:02:42.734 今日では 様々な場面で[br]ロボットを見かける様になりました 0:02:42.734,0:02:45.043 左の写真は[br]iRobot社のパックボットです 0:02:45.043,0:02:48.475 イラクやアフガニスタンで[br]走行中に爆弾に遭遇しても 0:02:48.475,0:02:52.624 兵士は 防御スーツを着て[br]外に出て 棒でつついて処理しなくてよい 0:02:52.624,0:02:54.943 2002年頃まではそうしていたけれど 0:02:54.943,0:02:56.351 今は ロボットを送り込みます 0:02:56.351,0:02:58.494 つまり 危険な仕事はロボットがしてくれます 0:02:58.494,0:03:03.012 右の写真は タグ(TUG)と言い[br]ピッツバーグのAethon社のものです 0:03:03.012,0:03:05.309 タグは アメリカ中の[br]何百もの病院に導入され 0:03:05.309,0:03:08.049 汚れたシーツを洗濯場まで 0:03:08.049,0:03:09.925 食べ終わった食器をキッチンまで運び 0:03:09.925,0:03:12.010 そして 薬局から薬を持ってきます 0:03:12.010,0:03:14.955 タグがいれば[br]看護師や看護助手たちは 0:03:14.955,0:03:18.620 機械的に物を運搬するような[br]単純労働から解放され 0:03:18.620,0:03:20.693 患者さんとの時間を多くとれるようになります 0:03:20.693,0:03:25.392 事実 ロボットは いろんな形で[br]私たちの生活に浸透しています 0:03:25.392,0:03:30.660 でも それが工場用ロボットとなると[br]まだ怖がられていると思います 0:03:30.660,0:03:34.767 そばに置くには危険な存在ですから 0:03:34.767,0:03:39.592 プログラムするにも[br]4次元や6次元で考える必要があり 0:03:39.592,0:03:42.742 普通の人が 一緒に作業することはできません 0:03:42.742,0:03:45.361 この技術は 間違った方向に進んでいると思います 0:03:45.361,0:03:48.994 技術から 労働者を[br]締め出しています 0:03:48.994,0:03:52.093 だから 私たちが[br]本当に目を向けなければいけないのは 0:03:52.093,0:03:54.195 普通の労働者が一緒に作業できる技術です 0:03:54.195,0:03:57.875 そうした例として[br]今日は バクスター(Baxter)を紹介します 0:03:57.875,0:04:02.120 このバクスターは[br]工業環境において― 0:04:02.120,0:04:06.410 普通の人たちが共に作業できるロボットの[br]第一世代と考えています 0:04:06.410,0:04:07.943 さぁ バクスターの登場です 0:04:07.943,0:04:10.759 Rethink Robotics社の[br]クリス・ハーバートも一緒です 0:04:10.759,0:04:12.295 そこに コンベヤーがあります 0:04:12.295,0:04:15.146 照明がきつすぎなければいいのですが― 0:04:15.146,0:04:19.192 ほら 見てください[br]コンベヤーから物を持ち上げました 0:04:19.192,0:04:22.042 こちらに運んで来て 置きます 0:04:22.042,0:04:25.341 そして 元の位置に戻って[br]次の物に手を伸ばします 0:04:25.341,0:04:29.189 面白いのは バクスターは[br]基礎的な常識も身に付けていること 0:04:29.189,0:04:31.410 さて バクスターの目を見てください 0:04:31.410,0:04:32.910 スクリーン上に目があって 0:04:32.910,0:04:35.659 ロボットが動こうとする方向を見ています 0:04:35.659,0:04:37.527 だから ロボットを使っている人は 0:04:37.527,0:04:41.093 ロボットが次にどう動くのか把握でき[br]驚かされることもありません 0:04:41.093,0:04:43.910 今 クリスは ロボットの手から[br]物を取り上げました 0:04:43.910,0:04:46.142 バクスターは[br]物を置く動作をすることなく 0:04:46.142,0:04:48.494 戻りました[br]また物を取る必要があると分かっている 0:04:48.494,0:04:51.661 バクスターは ちょっとした常識を使い[br]物を取りに行くわけです 0:04:51.661,0:04:53.454 バクスターとは触れ合っても安全です 0:04:53.454,0:04:56.219 今の産業用ロボットと[br]こんなこと できませんよね 0:04:56.219,0:04:58.411 でも バクスターなら大丈夫 0:04:58.411,0:05:02.309 バクスターは力を感じて[br]クリスがそこにいると理解し 0:05:02.309,0:05:05.161 彼を押しのけて[br]傷つけるようなことはしないのです 0:05:05.161,0:05:08.456 バクスターで 一番面白いと思うのは [br]ユーザー・インターフェース 0:05:08.456,0:05:11.802 クリスが バクスターの反対側の手をつかみます 0:05:11.802,0:05:17.216 腕をつかまれると[br]バクスターは 無力・重力補償モードになり 0:05:17.216,0:05:19.292 スクリーンにグラフィックスが表示されます 0:05:19.292,0:05:23.826 スクリーンの左側にあるアイコンが[br]右腕の状態を示しています 0:05:23.826,0:05:26.620 クリスは バクスターの手に何か握らせ[br]こちらに持って来て 0:05:26.620,0:05:31.642 ボタンを押して[br]手から物を離させます 0:05:31.642,0:05:36.210 ロボットはこう理解するわけです[br]「ここで物を下させたいんだな」 0:05:36.210,0:05:37.910 そして小さなアイコンが表示されます 0:05:37.910,0:05:43.821 クリスが移動して[br]ロボットの指で握らせると 0:05:43.821,0:05:47.743 ロボットはこう理解します[br]「僕に物を拾い上げてほしいんだな」 0:05:47.743,0:05:49.542 すると 緑色のアイコンが現れます 0:05:49.542,0:05:54.537 今度は どこから物を拾い上げるべきか[br]範囲の設定をします 0:05:54.537,0:05:59.327 こうして動かすことで[br]ロボットは そこが探す領域だと認識します 0:05:59.327,0:06:01.203 画面で操作をする必要ありません 0:06:01.203,0:06:04.360 そして クリスは一旦離れて[br]その動作を訓練します 0:06:04.360,0:06:06.076 話を続けましょう 0:06:06.076,0:06:08.288 こうして訓練を続ける間 0:06:08.288,0:06:10.459 工場では これがどうなるのか[br]お話しましょう 0:06:10.459,0:06:11.943 このロボットは 毎日出荷され 0:06:11.943,0:06:13.493 全国の工場に納められています 0:06:13.493,0:06:14.675 こちらは ミルドレッド 0:06:14.675,0:06:16.241 コネチカットの工場で働いています 0:06:16.241,0:06:18.620 20年以上 生産ラインで働いてきました 0:06:18.620,0:06:21.963 初めて産業ロボットを見て[br]ものの一時間で 0:06:21.963,0:06:25.023 彼女は工場での作業をいくつか[br]プログラムしました 0:06:25.023,0:06:27.454 彼女は ロボットが好きだと確信しました 0:06:27.454,0:06:32.124 ロボットは単純な反復作業をしています[br]以前は彼女がしないといけなかったことを 0:06:32.124,0:06:33.962 今は ロボットにさせています 0:06:33.962,0:06:36.526 私たちが初めて[br]工場で働いている人たちに 0:06:36.526,0:06:39.360 どうすれば ロボットとより良く働けるか[br]聞きに行ったとき 0:06:39.360,0:06:40.926 こんな質問もしました 0:06:40.926,0:06:43.371 「自分の子どもにも工場で働かせたいか?」 0:06:43.371,0:06:47.743 皆の答えはこうでした[br]「いや 子どもにはもっとよい仕事をしてほしい」 0:06:47.743,0:06:51.120 とどのつまり ミルドレッドは典型的な― 0:06:51.120,0:06:52.975 今日のアメリカの工場労働者なのです 0:06:52.975,0:06:55.160 工場労働者の高齢化はどんどん進み 0:06:55.160,0:06:57.725 若い人たちが工場労働に就くことも[br]あまりありません 0:06:57.725,0:07:01.041 だから 工場での作業は[br]そこで働く人にとって重荷になっていく一方で 0:07:01.041,0:07:04.134 彼らに 協力するツールを与える必要があります 0:07:04.134,0:07:05.944 彼ら自身が解決策の一部となり 0:07:05.944,0:07:10.795 彼らが継続して働け[br]アメリカでモノ作りが続けられるように 0:07:10.795,0:07:14.860 私たちは ミルドレッドのような労働者を[br]「ライン作業者」から 0:07:14.860,0:07:17.777 「ロボット訓練者」にしたいのです 0:07:17.777,0:07:18.922 労働者は技量を上げます 0:07:18.922,0:07:23.509 ちょうど 1980年代に事務員たちが[br]できる仕事の技量を上げたように 0:07:23.509,0:07:27.593 私たちが提供したいのは[br]何年も勉強しなければ使えないツールではなく 0:07:27.593,0:07:31.037 数分もあれば どうやって操作するか[br]学べるようなツールです 0:07:31.037,0:07:35.826 今 意志に左右されるが避けられない[br]二つの大きな力があります 0:07:35.826,0:07:38.203 気候変動と人口動態です 0:07:38.203,0:07:40.870 人口動態は 本当に私たちの世界を変えます 0:07:40.870,0:07:44.832 これは 労働人口の割合です 0:07:44.832,0:07:46.795 過去40年で 少し下がってきていますが 0:07:46.795,0:07:50.675 これからの40年では 劇的に変わります[br]中国でさえです 0:07:50.675,0:07:56.002 労働人口の割合は[br]劇的に下がり 0:07:56.002,0:08:01.092 定年した人たちの割合は[br]本当に急速に上がります 0:08:01.092,0:08:05.429 ベビーブーム世代が定年を迎えるからです 0:08:05.429,0:08:08.977 つまり 社会保障にあてるお金が減る一方 0:08:08.977,0:08:11.610 より多くの人が社会保障を必要とするわけです 0:08:11.610,0:08:15.661 でも それ以上に[br]年を取れば 力も弱くなって 0:08:15.661,0:08:17.910 かつては できていた作業も[br]できなくなります 0:08:17.910,0:08:21.623 介護士の年齢についての統計を見ると 0:08:21.623,0:08:26.093 介護士たちの年齢層も[br]どんどん上がって行くのが分かります 0:08:26.093,0:08:28.092 今まさに 統計的に起こっていることです 0:08:28.092,0:08:34.030 定年退職を迎えた人たちが[br]さらに年を取り 増えていく一方で 0:08:34.030,0:08:36.057 世話をする人たちは減っていきます 0:08:36.057,0:08:38.676 私たちは ロボットの助けが[br]本当に必要になります 0:08:38.676,0:08:41.911 ロボットを 付き添ってくれる仲間とは[br]考えていません 0:08:41.911,0:08:45.192 ロボットは[br]私たちが年を取ってするのが 0:08:45.192,0:08:46.861 難しくなったことをしてくれるもの 0:08:46.861,0:08:49.726 車から食料品を出して[br]階段を上り 台所へ運ぶようなことです 0:08:49.726,0:08:52.121 もっと年を取れば 0:08:52.121,0:08:55.209 人に会いに 車を運転することもです 0:08:55.209,0:09:01.576 ロボット工学があれば[br]年を取っても 尊厳を維持できるかもしれない 0:09:01.576,0:09:05.125 ロボットによる解決策を[br]コントロールしさえすれば良いのです 0:09:05.125,0:09:08.510 頼れる人は減る一方ですが[br]人に頼る必要はありません 0:09:08.510,0:09:15.402 私はこう信じています[br]私たちは 日々の生活でバクスターのようなロボットと 0:09:15.402,0:09:17.703 より多くの時間を過ごし 0:09:17.703,0:09:24.397 行動を共にするようになる[br]そして― 0:09:24.397,0:09:26.877 ほら バクスター[br]よくやったね 0:09:26.877,0:09:31.121 そして今後40年の間に[br]私たちは ロボットに頼るようになるでしょう 0:09:31.121,0:09:33.287 毎日の生活の一部として 0:09:33.287,0:09:34.581 ありがとうございました 0:09:34.581,0:09:37.576 (拍手)