0:00:01.373,0:00:03.117 これは私だけなのか 0:00:03.141,0:00:05.473 それとも皆さんもでしょうかー 0:00:05.497,0:00:08.031 民主主義に[br]少々失望しているのは? 0:00:08.986,0:00:11.322 (拍手) 0:00:12.141,0:00:14.382 ちょっとデータを見てみましょう 0:00:14.934,0:00:17.107 世界各地の 0:00:17.131,0:00:19.417 過去30年における 0:00:19.417,0:00:22.698 大統領選挙の平均投票率は 0:00:22.722,0:00:25.514 たったの67%です 0:00:26.289,0:00:28.302 ヨーロッパでは 0:00:28.326,0:00:32.754 欧州議会議員選挙に着目すると 0:00:32.778,0:00:34.849 その平均投票率は 0:00:34.873,0:00:37.227 たった42%です 0:00:38.125,0:00:39.794 ニューヨークで 0:00:39.818,0:00:44.499 直近の市長選の投票者数を見ると 0:00:44.523,0:00:48.590 投票に行ったのは24%に過ぎません 0:00:49.063,0:00:52.092 つまり『フレンズ』のメンバーで言うなら 0:00:52.092,0:00:55.790 投票に行くのは ジョーイと[br]せいぜいフィービーというところなのです 0:00:55.790,0:00:57.174 (笑) 0:00:57.434,0:01:01.860 だからと言って責められません[br]皆 政治家には うんざりなんです 0:01:01.884,0:01:05.771 友だちや家族との やり取りの[br]データが他人に使われて 0:01:05.795,0:01:08.313 政治宣伝の標的にされることにも 0:01:08.313,0:01:10.471 うんざりしています 0:01:10.499,0:01:13.171 でも 実はこれは[br]今に始まったことではありません 0:01:13.171,0:01:16.766 今でこそ「いいね」した情報を元に[br]その人に合わせた政治宣伝がされていますが 0:01:16.766,0:01:20.003 以前は郵便番号や性別 年齢で[br]同じことがされていました 0:01:20.003,0:01:23.461 対象に応じて政治宣伝するという発想は 0:01:23.461,0:01:25.490 政治と同じくらい古いものなのです 0:01:25.490,0:01:27.878 なぜそんな考えが[br]生まれるのかといえば 0:01:27.878,0:01:31.660 民主主義には元々[br]脆弱性があるからです 0:01:31.660,0:01:34.202 これは代表制を図示したものです 0:01:34.202,0:01:38.243 原則として 民主主義は[br]人民が権力を行使できるようにするものですが 0:01:38.243,0:01:41.975 実際には私たちは[br]自らの代表者にその権力を移譲し 0:01:41.975,0:01:44.574 代表者が私たちのために[br]権力を行使します 0:01:44.574,0:01:46.386 その代表者こそが[br]ボトルネックであり 0:01:46.410,0:01:47.807 弱点なのです 0:01:47.807,0:01:51.654 民主主義を攻撃するなら[br]攻めどころは そこでしょう 0:01:51.654,0:01:55.193 民主主義を掌握するには[br]その代表者を掌握するか 0:01:55.197,0:01:57.985 代表者の選任法を掌握するかの[br]いずれかなのです 0:01:57.985,0:01:59.621 ここで持ち上がる大きな疑問が 0:01:59.621,0:02:01.879 これは「歴史の終わり」なのか[br]ということです 0:02:01.879,0:02:05.422 これが最善のことなのか 0:02:05.878,0:02:09.625 それとも実は これに取って代わるものが[br]あるのでしょうか? 0:02:10.060,0:02:12.574 これに代わるものを[br]考えている人もいます 0:02:12.574,0:02:16.407 その1つが直接民主主義です 0:02:16.750,0:02:19.619 この考えでは[br]政治家を完全に通り越して 0:02:19.619,0:02:24.305 様々な問題や法案について[br]人々が直接投票します 0:02:24.305,0:02:25.881 でも これは単純すぎます 0:02:25.881,0:02:28.946 決めないといけないことが[br]多すぎるからです 0:02:28.970,0:02:31.752 例えば第114回の米国議会では 0:02:31.776,0:02:37.100 下院は6千件以上の法案を審議し 0:02:37.100,0:02:39.936 上院は3千件以上の法案を審議 0:02:39.936,0:02:42.828 両院が可決した法案は3百件以上です[br][毎週3件相当] 0:02:42.828,0:02:44.291 これだけの決定を 0:02:44.315,0:02:46.692 各人が毎週するとなると[br]多すぎるでしょう 0:02:46.692,0:02:49.159 しかも ほとんど知らない分野のことです 0:02:49.159,0:02:51.980 ですから実際に[br]直接民主主義で置き換えるには 0:02:51.980,0:02:55.826 人の認知処理能力が大きな課題となります 0:02:56.205,0:03:00.640 また 「リキッド・デモクラシー」[br]流動体民主主義という考えもあります 0:03:00.664,0:03:06.048 自らの政治的決定を誰かに委ね[br]その人がまた誰かに委任するという風に 0:03:06.048,0:03:08.919 委任関係を重ねていくことで 0:03:08.919,0:03:11.941 最終的には 少数の人が[br]自分の委任者や 0:03:11.941,0:03:15.664 委任者の委任者を代理して[br]決定を下すというものです 0:03:16.326,0:03:20.449 でも この考えにおいても[br]認知処理能力の問題は解決しないし 0:03:20.449,0:03:24.776 正直なところ 代表者を立てるという考えと[br]大差がありません 0:03:24.795,0:03:28.057 そこで今日は[br]私はちょっと挑発的に 0:03:28.057,0:03:30.577 こんな問いを[br]投げかけたいと思います 0:03:30.601,0:03:37.067 政治家を介するのを[br]やめようとする代わりに 0:03:37.067,0:03:40.167 政治家を自動化したらどうでしょう? 0:03:45.871,0:03:48.797 自動化という考え自体は[br]新しくありません 0:03:48.821,0:03:50.901 3百年以上前に 0:03:50.925,0:03:54.493 フランスの織工が[br]織機を自動化したのが始まりです 0:03:54.820,0:03:59.124 その産業戦争を制したのは[br]ジョゼフ・マリー・ジャカールでした 0:03:59.124,0:04:01.195 彼はフランスの機織りで商人であり 0:04:01.195,0:04:03.419 織機を蒸気機関と合体させ 0:04:03.443,0:04:05.633 自動織機を作り出しました 0:04:05.657,0:04:08.600 その自動織機で[br]自在な織り方が可能になり 0:04:08.600,0:04:12.479 人手で織れる布よりも[br]より複雑でより洗練されたものを 0:04:12.479,0:04:14.861 作れるようになりました 0:04:15.193,0:04:18.015 また その産業戦争に勝つことで 0:04:18.015,0:04:21.633 自動化の設計図となるものも作ったのです 0:04:22.135,0:04:25.155 ここ3百年の間[br]物事を自動化する方法は 0:04:25.155,0:04:26.831 ずっと同じでした 0:04:27.006,0:04:29.419 まずはニーズを特定し 0:04:29.419,0:04:32.647 そのニーズを満たすツールを作ります 0:04:32.647,0:04:34.787 先ほどのケースでは織機です 0:04:34.811,0:04:37.272 そして 人がそのツールを[br]どうやって使うか観察し 0:04:37.272,0:04:39.201 その人の仕事を自動化するのです 0:04:39.202,0:04:42.303 こうして機械織機を経て 0:04:42.327,0:04:44.223 自動織機にまでなりました 0:04:44.247,0:04:46.367 ここまで千年かかりましたが 0:04:46.391,0:04:48.822 同じやり方を使い[br]今は たった百年で 0:04:48.822,0:04:52.067 車の運転を自動化するに至りました 0:04:53.286,0:04:55.738 ここで肝心なのは 今回の自動化が 0:04:55.762,0:04:57.891 徹底しているということです 0:04:57.915,0:05:01.236 こちらは 東芝から来た同僚が[br]提供してくれたビデオで 0:05:01.260,0:05:04.443 半導体ディスクドライブを[br]生産する工場の様子です 0:05:04.443,0:05:06.681 工場全体が1つのロボットになっており 0:05:06.681,0:05:08.940 工場内には人がいません 0:05:08.953,0:05:11.254 ほどなく ロボットは工場を離れ 0:05:11.278,0:05:13.300 私たちの世界の一部になり 0:05:13.324,0:05:15.159 労働力の一部になるでしょう 0:05:15.183,0:05:16.956 私が本業でやっているのは 0:05:16.980,0:05:20.972 国全体の種々のデータを統合するツールを[br]作り出すことで 0:05:20.996,0:05:24.462 将来 そういうマシンを[br]管理することが求められたときに 0:05:24.486,0:05:28.173 必要となる基盤を準備しています 0:05:29.195,0:05:32.101 でも ここで[br]国全体のデータを統合するツールについて 0:05:32.125,0:05:34.399 お話しするつもりはありません 0:05:34.423,0:05:37.215 今日お話ししたいのは[br]別の構想についてです 0:05:37.215,0:05:41.974 民主主義における人工知能の活用法を[br]考えるのに役立つかもしれないことです 0:05:41.998,0:05:46.731 私が作っている あのツールは[br]最終決定をするためのものです 0:05:46.755,0:05:52.556 公共投資の決定など[br]ある種の客観性を持つ決定です 0:05:52.885,0:05:55.516 でも 決定には[br]立法にかかわるものもあります 0:05:55.540,0:05:59.327 立法のための決定は[br]様々な視点を持った人たちの間で 0:05:59.351,0:06:01.051 コミュニケーションを図り 0:06:01.075,0:06:03.652 皆が参加し討論し 0:06:03.652,0:06:05.780 検討することが必要です 0:06:06.241,0:06:09.045 長い間 私たちは[br]民主主義を良くするには 0:06:09.069,0:06:12.529 コミュニケーションがもっと必要だと[br]考えてきました 0:06:12.553,0:06:16.262 だから民主主義の流れで[br]進歩した技術というのは 0:06:16.286,0:06:18.798 新聞であれ[br]ソーシャルメディアであれ 0:06:18.798,0:06:22.070 私たちのコミュニケーションを[br]増やそうとするものでした 0:06:22.070,0:06:23.699 でも すでに経験したとおり 0:06:23.699,0:06:26.191 それでは問題は解決しないと[br]分かっています 0:06:26.191,0:06:28.171 これはコミュニケーションの問題ではなく 0:06:28.171,0:06:30.489 認知処理能力の問題だからです 0:06:30.513,0:06:32.879 問題が認知処理能力にあるなら 0:06:32.903,0:06:35.414 コミュニケーションを増やしても 0:06:35.414,0:06:38.242 解決にはなりません 0:06:38.242,0:06:40.049 代わりに必要なのは 0:06:40.049,0:06:44.129 私たちに さばききれない[br]コミュニケーションの処理を 0:06:44.129,0:06:46.731 手助けしてくれる技術です 0:06:46.755,0:06:48.348 小さなアバターか 0:06:48.348,0:06:49.897 ソフトウェア・エージェントか 0:06:49.897,0:06:52.229 デジタル版ジミニー・クリケット[br]みたいなものでー 0:06:52.229,0:06:52.981 (笑) 0:06:53.005,0:06:57.147 自分の代わりに答えてくれるものを[br]考えるのです 0:06:57.759,0:06:59.546 そんな技術があれば 0:06:59.570,0:07:02.048 今あるコミュニケーションの[br]重荷から少し解放され 0:07:02.072,0:07:06.489 より良い決定や 大局的な決定が[br]できるようになるかもしれません 0:07:06.860,0:07:10.579 ソフトウェアエージェントの考えも[br]新しいものではありません 0:07:10.603,0:07:13.122 今でも しょっちゅう使っています 0:07:13.136,0:07:14.857 ソフトウェアエージェントを使い 0:07:14.857,0:07:18.746 目的地への運転経路を選んだり 0:07:19.070,0:07:21.491 どんな音楽を聴くか選んだり 0:07:21.758,0:07:25.249 次に読む本の候補を絞ったりしています 0:07:25.994,0:07:28.568 そんな21世紀に[br]至極もっともな構想があります 0:07:28.582,0:07:32.569 ジャカールの時代に[br]蒸気機関と織機を組み合わせたのと 0:07:32.569,0:07:36.840 同じくらいに[br]もっともなものです 0:07:37.538,0:07:42.464 直接民主主義を ソフトウェアエージェントと[br]組み合わせるのです 0:07:42.849,0:07:44.970 こんな世界を想像してみてください 0:07:44.994,0:07:49.838 自分や ほかの何百万もの人の[br]代表者を立てる代わりに 0:07:49.838,0:07:52.964 自分に固有の政治的見解を備えた 0:07:52.964,0:07:55.968 自分だけの代表者を[br]立てることができるのです 0:07:55.968,0:07:59.100 それはリバタリアンとリベラルの[br]奇妙な組み合わせで 0:07:59.100,0:08:01.406 ある問題にはちょっと保守的で 0:08:01.406,0:08:03.734 別の問題では大いに進歩主義的かも[br]しれません 0:08:03.734,0:08:07.115 現在の政治家はいわばパッケージで[br]多くの妥協をしなければなりません 0:08:07.115,0:08:10.703 でも 代表は人間でなければ[br]という考えを捨てさえすれば 0:08:10.703,0:08:15.169 自分だけの代表を[br]立てられるかもしれません 0:08:15.169,0:08:17.401 もしソフトウェアエージェントが[br]代表であれば 0:08:17.401,0:08:21.505 市民と同じ数の議員で[br]議会を構成することができます 0:08:21.529,0:08:24.361 それらの議員は[br]すべての法案に目を通し 0:08:24.361,0:08:27.158 すべてに投票をすることができます 0:08:27.822,0:08:30.778 これは検討に値する[br]至極もっともな構想でしょう 0:08:30.802,0:08:33.188 でも この時代にあって 0:08:33.188,0:08:35.777 こんな考えは怖く感じるかもしれません 0:08:36.391,0:08:38.645 実際 未来からロボットがやってきて 0:08:38.645,0:08:41.648 私たちの政府運営を手助けするとしたら 0:08:41.648,0:08:43.663 恐ろしいことに聞こえます 0:08:44.223,0:08:46.074 でも これはもう経験しています 0:08:46.074,0:08:47.171 (笑) 0:08:47.195,0:08:49.870 事実 彼はすごく良い人でしたよね 0:08:51.677,0:08:58.111 さて この構想は[br]どんな形で実現できるでしょうか? 0:08:58.135,0:09:00.036 とてもシンプルなシステムです 0:09:00.060,0:09:03.518 システムにログインして[br]自分のアバターを作り 0:09:03.542,0:09:05.998 アバターの訓練を始めます 0:09:06.022,0:09:08.704 アバターに自分の読書傾向を教え 0:09:08.728,0:09:10.589 ソーシャルメディアの情報を与え 0:09:10.613,0:09:13.021 心理テストを受けるなどして 0:09:13.045,0:09:15.317 その他のデータも与えます 0:09:15.341,0:09:18.309 これが良いのは[br]だまし討ちがないことです 0:09:18.333,0:09:21.672 友だちや家族との [br]やり取りのデータが 0:09:21.696,0:09:24.847 政治システムに[br]使われたりはしません 0:09:24.871,0:09:27.025 皆さんがデータを提供するのは 0:09:27.025,0:09:31.134 自分の代理として政治的決定をするよう[br]設計されたシステムなのです 0:09:31.134,0:09:35.028 皆さんは そのデータを用意し[br]訓練アルゴリズムを選びます 0:09:35.028,0:09:37.071 この部分は開かれた[br]市場になっており 0:09:37.071,0:09:41.021 提供データから その人の[br]投票行動を推定するアルゴリズムは 0:09:41.021,0:09:43.853 誰でも作ることができます 0:09:43.853,0:09:47.728 システム自体オープンで 特定の人が[br]アルゴリズムをコントロールすることもありません 0:09:47.728,0:09:49.248 人気のあるアルゴリズムもあれば 0:09:49.248,0:09:50.835 人気がないものも出てきます 0:09:50.835,0:09:52.726 最終的に システムを監査して 0:09:52.726,0:09:54.851 自分のアバターがどう動くか確認でき 0:09:54.851,0:09:56.797 それで良ければ[br]任せきりにするもよし 0:09:56.797,0:09:58.573 もう少し自分で制御したいと思えば 0:09:58.573,0:10:00.215 何か判断するときは必ず 0:10:00.215,0:10:02.147 自分に問い合わせるよう[br]指定でき 0:10:02.147,0:10:04.669 どこかその中間にしても[br]構いません 0:10:04.696,0:10:07.525 民主主義があまり活用されていないのは 0:10:07.525,0:10:11.323 ユーザインターフェイスが[br]まずいせいも あるかもしれません 0:10:11.323,0:10:13.690 民主主義のユーザインターフェイスを[br]改善すれば 0:10:13.714,0:10:16.471 もっと使われるように[br]なるかもしれません 0:10:16.471,0:10:19.959 もちろん たくさんの疑問がおありでしょう 0:10:20.473,0:10:22.634 どうやってアバターを訓練するのか? 0:10:22.658,0:10:24.552 データの安全性は? 0:10:24.576,0:10:27.824 どうやってシステムを普及させ[br]検証可能にするのか? 0:10:27.848,0:10:29.910 インターネットすら使えない[br]80歳の祖母は 0:10:29.946,0:10:31.906 どうなるのか? 0:10:32.262,0:10:34.483 そういう疑問はすべて[br]聞いてきました 0:10:34.507,0:10:39.067 こんな構想を考えるときには[br]悲観主義者に注意しないといけません 0:10:39.091,0:10:43.410 どんな解決策にも[br]文句のある人たちですから 0:10:43.434,0:10:45.259 (笑) 0:10:45.283,0:10:48.323 皆さんには もっと高い視座で[br]考えていただきたいのです 0:10:48.347,0:10:51.973 先ほど示した疑問というのは[br]細かいことです 0:10:51.997,0:10:55.422 全部 これが機能しない理由についてですから 0:10:55.422,0:10:57.483 高い視座というのは 0:10:57.507,0:10:59.314 もしこれが機能したら 0:10:59.338,0:11:01.897 ほかに何ができるか[br]考えるということです 0:11:01.897,0:11:05.359 例えば 誰が法律を書くかです 0:11:05.854,0:11:10.077 最初は 今あるアバターで 0:11:10.101,0:11:13.598 今いる議員や政治家が書いた法律について 0:11:13.622,0:11:15.391 投票をします 0:11:15.391,0:11:17.895 でも これがうまく行ったら 0:11:17.902,0:11:24.871 ある程度の賛同が得られそうな[br]法律を書くアルゴリズムを作って 0:11:24.895,0:11:26.807 このプロセスを逆にもできます 0:11:26.807,0:11:30.213 こんな考えは馬鹿げていて[br]適切ではないと思われるかもしれませんが 0:11:30.237,0:11:35.921 直接民主主義とソフトウェアエージェントが[br]政治参加の可能な形態である世界で 0:11:35.921,0:11:39.307 はじめて可能になる案だということは[br]否定できないでしょう 0:11:40.596,0:11:43.499 では この革命を[br]どうやって始めましょう? 0:11:44.238,0:11:47.548 ピケを張ったり[br]抗議行動をしたり 0:11:47.572,0:11:51.762 今の政治家をロボットに置き換えるよう[br]要求したりするのではありません 0:11:51.786,0:11:53.335 それでは うまく行きません 0:11:53.359,0:11:54.971 もっとシンプルに 0:11:54.995,0:11:56.154 もっとゆっくり 0:11:56.178,0:11:57.732 もっと控えめにやります 0:11:57.732,0:11:59.839 この仕組みを持つ[br]簡単なシステムを 0:11:59.839,0:12:04.083 大学院や図書館 非営利組織に[br]導入するところから革命を始めます 0:12:04.107,0:12:06.761 先ほどの小さな疑問や[br]小さな問題のすべてについて 0:12:06.785,0:12:08.006 解決していきます 0:12:08.030,0:12:11.905 この構想を実行可能にし[br]信頼できるものにするために 0:12:11.905,0:12:14.466 いずれ解決しなければ[br]ならないことですから 0:12:14.466,0:12:18.675 百人、千人、1万人が[br]政治に関わらないような問題で 0:12:18.675,0:12:21.653 投票するシステムを作ることで 0:12:21.653,0:12:23.785 この構想への信頼が高まり 0:12:23.785,0:12:25.444 世界が変わっていくでしょう 0:12:25.444,0:12:28.243 そして 今はこれくらいの小さな私の娘世代が 0:12:28.267,0:12:29.794 大人になって 0:12:30.580,0:12:32.949 私の年になるころには 0:12:32.973,0:12:37.409 今はクレイジーなこの構想も[br]もしかしたら 0:12:37.433,0:12:41.977 娘たちにはクレイジーでは[br]なくなっているかもしれません 0:12:41.977,0:12:43.647 そのときには 0:12:43.647,0:12:46.420 私たちの歴史は終わりを迎えますが 0:12:46.444,0:12:49.615 彼らの歴史が幕を開けているでしょう 0:12:49.646,0:12:51.069 ありがとうございました 0:12:51.069,0:12:54.215 (拍手)