1 00:00:00,887 --> 00:00:03,283 私はアーティストであり エンジニアです 2 00:00:03,307 --> 00:00:09,081 近ごろ 私たちの知覚にテクノロジーが どのように介在するかについて 3 00:00:09,105 --> 00:00:11,146 よく考えています 4 00:00:11,653 --> 00:00:16,293 それは全く目に付かないように 巧妙に行われています 5 00:00:17,260 --> 00:00:20,906 テクノロジーは現実世界の 実体験であるかのように装って 6 00:00:20,930 --> 00:00:24,741 私たちの現実に対する認識を 形作るように作られています 7 00:00:25,430 --> 00:00:30,116 その結果 そのようなテクノロジーの存在を 私たちはまったく意識しなくなり 8 00:00:30,140 --> 00:00:32,325 気づきさえしなくなっています 9 00:00:33,360 --> 00:00:35,848 私がいつもかけているメガネを 例にとってみましょう 10 00:00:35,872 --> 00:00:39,896 メガネは 私が身の回りを 日常的に経験する方法の一部となっています 11 00:00:40,352 --> 00:00:41,842 メガネによって 常に 12 00:00:41,866 --> 00:00:45,951 現実が切り取られていても ほとんど気にも留めません 13 00:00:46,447 --> 00:00:50,463 私の言うテクノロジーも同じように 機能するようデザインされています 14 00:00:50,487 --> 00:00:52,925 私たちが見たり考えたりすることに 変化を与えながらも 15 00:00:52,949 --> 00:00:54,709 存在は意識されません 16 00:00:55,780 --> 00:00:59,049 私が自分のメガネを意識するのは 17 00:00:59,073 --> 00:01:02,331 メガネに意識を向けさせることが 起きた時くらいのものです 18 00:01:02,355 --> 00:01:05,869 メガネが汚れたり 処方が変わったりした時です 19 00:01:06,481 --> 00:01:11,089 そこで自問しました 「アーティストとして何ができるだろう? 20 00:01:11,113 --> 00:01:13,560 私たちの現実を形作っている― 21 00:01:13,584 --> 00:01:19,755 報道やソーシャルメディア 広告やサーチエンジンなどの 22 00:01:19,779 --> 00:01:22,040 デジタルメディアに どうしたら同じように 23 00:01:22,064 --> 00:01:24,078 注意を向けられるだろう?」と 24 00:01:24,798 --> 00:01:29,570 そこで 私は 様々な知覚装置を作りました 25 00:01:29,594 --> 00:01:33,160 自分たちの世界の見方に 違和感を持たせ 26 00:01:33,184 --> 00:01:35,304 疑問を投げかける装置です 27 00:01:36,859 --> 00:01:42,892 例えば 昨今では 私たちの多くが 自分の意見とは違う意見に対して 28 00:01:42,916 --> 00:01:45,409 アレルギー反応のようなものを 起こします 29 00:01:45,945 --> 00:01:51,601 いわば「心理的アレルギー」があることにさえ 気づいていないかもしれません 30 00:01:52,596 --> 00:01:58,239 そこで 赤色に対して人工的にアレルギーを 引き起こすヘルメットを作りました 31 00:01:58,263 --> 00:02:01,832 これを装着すると 感覚過敏を模して 赤いものが 32 00:02:01,832 --> 00:02:04,020 大きく見えるようになります 33 00:02:04,730 --> 00:02:08,288 ノシーボとプラシーボの 2つのモードがあります 34 00:02:09,272 --> 00:02:14,629 ノシーボモードでは 感覚過敏の知覚体験を作り出します 35 00:02:14,653 --> 00:02:17,360 赤色が目に入る度に 赤が大きく見えます 36 00:02:18,062 --> 00:02:21,593 ソーシャルメディアの 増幅効果に類似していて 37 00:02:21,617 --> 00:02:24,214 何か気に入らないものが目に入ると 38 00:02:24,238 --> 00:02:27,166 自分と同じような考え方をする人と 一緒になって 39 00:02:27,190 --> 00:02:31,785 メッセージやミームを交換するので さらに怒りが増幅されるというものです 40 00:02:32,274 --> 00:02:35,936 ときには ほんの些細な議論が増幅され 41 00:02:35,960 --> 00:02:38,361 度を失った規模に 膨れ上がります 42 00:02:39,038 --> 00:02:43,558 それは私たちが怒りの政治の中で 生きているからかもしれません 43 00:02:44,756 --> 00:02:48,171 プラシーボモードは こんなアレルギーへの人工治療です 44 00:02:48,575 --> 00:02:50,867 赤色が目に入る度に 赤が縮んで見えます 45 00:02:51,617 --> 00:02:54,492 デジタルメディア同様 一時しのぎに過ぎません 46 00:02:54,516 --> 00:02:57,415 自分と意見が異なる人々に出くわすと 47 00:02:57,439 --> 00:02:58,916 フォローを外して 48 00:02:58,940 --> 00:03:01,688 一切 目に入らないようにするのです 49 00:03:02,343 --> 00:03:05,546 対象を回避することで アレルギーを治療するのです 50 00:03:05,570 --> 00:03:10,117 でも反対意見を意図的に無視する このやり方では 51 00:03:10,141 --> 00:03:14,197 人間の社会は過度に細分化され 分断を深めてしまいます 52 00:03:15,343 --> 00:03:18,402 このヘルメットの内部のデバイスは 現実を再構築し 53 00:03:18,426 --> 00:03:21,376 拡張現実を創り出す 一連のレンズを通して 54 00:03:21,400 --> 00:03:23,315 私たちの目に映し出します 55 00:03:23,935 --> 00:03:28,717 赤色を取り上げたのは 強烈で感情に訴えるからですが 56 00:03:28,741 --> 00:03:30,699 可視性も高いと同時に 57 00:03:30,723 --> 00:03:32,001 政治的でもあります 58 00:03:32,390 --> 00:03:33,653 前回 行われた― 59 00:03:33,677 --> 00:03:36,726 アメリカ大統領選挙の勢力地図を このヘルメットを通して見ると 60 00:03:36,750 --> 00:03:37,915 どうなるでしょうか? 61 00:03:37,939 --> 00:03:38,947 (笑) 62 00:03:38,971 --> 00:03:42,544 あなたが共和党支持か民主党支持かは まったく関係ありません 63 00:03:42,568 --> 00:03:46,557 なぜなら媒介により私たちの知覚が 改変されているからです 64 00:03:46,581 --> 00:03:49,714 どちらの側も アレルギーを持っているのです 65 00:03:51,134 --> 00:03:52,454 デジタルメディアでは 66 00:03:52,478 --> 00:03:55,611 私たちが毎日目にするものは しばしば介在されており 67 00:03:55,635 --> 00:03:57,368 非常に巧妙に行われています 68 00:03:57,758 --> 00:03:59,753 もし私たちがこの事を 意識しなければ 69 00:03:59,777 --> 00:04:05,091 多くの心理的アレルギーに対して 脆弱なままであり続けることになります 70 00:04:06,900 --> 00:04:10,410 知覚は私たちのアイデンティティの 一部であるだけではなく 71 00:04:10,434 --> 00:04:14,728 デジタルメディアにおいては バリューチェーンの一部でもあるのです 72 00:04:15,992 --> 00:04:19,567 私たちの視界には あまりに多くの情報が詰め込まれ 73 00:04:19,591 --> 00:04:25,103 私たちの知覚は不動産価値を持つ 商品になってしまったのです 74 00:04:26,035 --> 00:04:29,564 無意識の偏りを悪用するために デザインは利用され 75 00:04:29,588 --> 00:04:33,068 自分の意見を再確認するコンテンツを アルゴリズムは好みます 76 00:04:33,092 --> 00:04:37,283 それゆえ 視野の隅々までもが 広告を販売するために 77 00:04:37,307 --> 00:04:38,649 侵食されるのです 78 00:04:39,402 --> 00:04:43,419 このように あなたの通知画面に 小さな赤い点が現れると 79 00:04:43,443 --> 00:04:47,521 それは大きく広がり 頭の中を埋め尽くします 80 00:04:48,571 --> 00:04:51,932 メガネにちょっとした汚れを つける方法や 81 00:04:51,956 --> 00:04:54,654 メガネのレンズを変える方法を 考え始めるうちに 82 00:04:54,678 --> 00:04:56,776 別のプロジェクトを思いつきました 83 00:04:57,423 --> 00:05:01,224 これからお見せするのはコンセプトです 現実の製品ではありません 84 00:05:01,676 --> 00:05:03,749 ウェブブラウザのプラグインで 85 00:05:03,773 --> 00:05:08,115 いつもは気も留めないような事柄に 気づかせてくれます 86 00:05:08,709 --> 00:05:12,479 先ほどのヘルメットのように このプラグインは現実を再構築しますが 87 00:05:12,503 --> 00:05:15,728 今回はデジタルメディア そのものを再構築します 88 00:05:17,066 --> 00:05:20,222 ふるい落とされた 隠れた声を目立たせます 89 00:05:20,246 --> 00:05:21,819 あなたが着目すべきことが 90 00:05:21,843 --> 00:05:24,352 より大きく活性化していきます 91 00:05:24,376 --> 00:05:28,671 この例では猫たちの中から ジェンダーバイアスの記事が浮かび上がります 92 00:05:28,695 --> 00:05:30,716 (笑) 93 00:05:30,740 --> 00:05:36,157 アルゴリズムによって増幅される事象を このプラグインで希釈できました 94 00:05:36,831 --> 00:05:38,527 このコメント欄のように 95 00:05:38,551 --> 00:05:41,620 同じ意見を叫んでいる人が たくさんいると 96 00:05:42,111 --> 00:05:44,981 このプラグインはそのようなコメントを ものすごく小さくします 97 00:05:45,005 --> 00:05:46,013 (笑) 98 00:05:46,037 --> 00:05:51,288 画面上で表示されるピクセルの量が 99 00:05:51,312 --> 00:05:55,866 このスレッドに貢献している 実際の価値に比例しています 100 00:05:55,890 --> 00:05:57,832 (笑) 101 00:05:59,345 --> 00:06:02,976 (拍手) 102 00:06:04,919 --> 00:06:08,980 このプラグインは 私たちの視界の不動産価値も示し 103 00:06:09,004 --> 00:06:12,460 私たちの知覚がどれほど 商品化されているかを教えてくれます 104 00:06:12,912 --> 00:06:14,501 広告ブロッカーとは異なり 105 00:06:14,525 --> 00:06:16,997 あなたがウェブで目にする すべての広告について 106 00:06:17,021 --> 00:06:20,428 あなたが稼げるはずの広告料を 表示してくれます 107 00:06:20,452 --> 00:06:21,697 (笑) 108 00:06:22,356 --> 00:06:24,648 私たちは現実と 商用流通化された現実との 109 00:06:24,672 --> 00:06:26,925 2つの現実のはざまにある 戦場で生活しており 110 00:06:27,329 --> 00:06:32,415 このプラグインの次のバージョンは 商用化現実を打ちのめして 111 00:06:32,439 --> 00:06:35,238 ありのままの事実を 見せるようにします 112 00:06:35,262 --> 00:06:37,053 (笑) 113 00:06:38,335 --> 00:06:41,964 (拍手) 114 00:06:43,179 --> 00:06:46,791 このアイデアに様々な道があることが 想像できるでしょう 115 00:06:46,815 --> 00:06:51,229 この技術を実際に製品化するなら 高いリスクになるのは分かっています 116 00:06:52,006 --> 00:06:54,945 私はこのプラグインを 善意をもって 117 00:06:54,969 --> 00:06:58,806 知覚を訓練し 偏りを排除するために 作り上げました 118 00:06:58,830 --> 00:07:02,558 でも同様のアプローチは 悪用することもできます 119 00:07:02,582 --> 00:07:05,787 例えば世論を操作するために このようなプラグインの 120 00:07:05,811 --> 00:07:08,229 インストールを 市民に強要するようなことです 121 00:07:08,768 --> 00:07:11,505 公正かつ個人的なものにするのは 簡単ではなく 122 00:07:11,529 --> 00:07:14,684 その努力がなければ 介在するものを 増やすだけになってしまいます 123 00:07:15,933 --> 00:07:18,595 さて これは私たちにとって どういう意味を持つのでしょう? 124 00:07:19,230 --> 00:07:22,963 テクノロジーが 人々の分断を 深めているのだとしても 125 00:07:22,987 --> 00:07:26,589 既存のモデルを打ち壊し さらにその先に進むことによって 126 00:07:26,613 --> 00:07:29,860 再び世界をつなぐことに 利用できると思うのです 127 00:07:30,508 --> 00:07:33,846 これらのテクノロジーと いかに接点を持つかを探ることで 128 00:07:33,870 --> 00:07:39,055 私たちは習慣化した 機械的ともいえる行動から抜け出して 129 00:07:39,079 --> 00:07:41,749 最終的にお互いの共通の基盤を 見いだせるのです 130 00:07:42,915 --> 00:07:44,704 テクノロジーは 中立になりえません 131 00:07:45,191 --> 00:07:48,210 文脈をもたらし 現実を切り取ります 132 00:07:48,234 --> 00:07:51,122 これは問題でもありますが 解決策でもあります 133 00:07:51,624 --> 00:07:57,264 私たちの盲点を発見し 知覚を訓練し直すことに利用でき 134 00:07:57,949 --> 00:08:01,432 そうすれば お互いの見方を 選び取れるのです 135 00:08:01,892 --> 00:08:03,083 ありがとうございました 136 00:08:03,107 --> 00:08:05,792 (拍手)