0:00:00.887,0:00:03.283 私はアーティストであり[br]エンジニアです 0:00:03.307,0:00:09.081 近ごろ 私たちの知覚にテクノロジーが[br]どのように介在するかについて 0:00:09.105,0:00:11.146 よく考えています 0:00:11.653,0:00:16.293 それは全く目に付かないように[br]巧妙に行われています 0:00:17.260,0:00:20.906 テクノロジーは現実世界の[br]実体験であるかのように装って 0:00:20.930,0:00:24.741 私たちの現実に対する認識を[br]形作るように作られています 0:00:25.430,0:00:30.116 その結果 そのようなテクノロジーの存在を[br]私たちはまったく意識しなくなり 0:00:30.140,0:00:32.325 気づきさえしなくなっています 0:00:33.360,0:00:35.848 私がいつもかけているメガネを[br]例にとってみましょう 0:00:35.872,0:00:39.896 メガネは 私が身の回りを[br]日常的に経験する方法の一部となっています 0:00:40.352,0:00:41.842 メガネによって 常に 0:00:41.866,0:00:45.951 現実が切り取られていても[br]ほとんど気にも留めません 0:00:46.447,0:00:50.463 私の言うテクノロジーも同じように[br]機能するようデザインされています 0:00:50.487,0:00:52.925 私たちが見たり考えたりすることに[br]変化を与えながらも 0:00:52.949,0:00:54.709 存在は意識されません 0:00:55.780,0:00:59.049 私が自分のメガネを意識するのは 0:00:59.073,0:01:02.331 メガネに意識を向けさせることが[br]起きた時くらいのものです 0:01:02.355,0:01:05.869 メガネが汚れたり[br]処方が変わったりした時です 0:01:06.481,0:01:11.089 そこで自問しました [br]「アーティストとして何ができるだろう? 0:01:11.113,0:01:13.560 私たちの現実を形作っている― 0:01:13.584,0:01:19.755 報道やソーシャルメディア[br]広告やサーチエンジンなどの 0:01:19.779,0:01:22.040 デジタルメディアに[br]どうしたら同じように 0:01:22.064,0:01:24.078 注意を向けられるだろう?」と 0:01:24.798,0:01:29.570 そこで 私は[br]様々な知覚装置を作りました 0:01:29.594,0:01:33.160 自分たちの世界の見方に[br]違和感を持たせ 0:01:33.184,0:01:35.304 疑問を投げかける装置です 0:01:36.859,0:01:42.892 例えば 昨今では 私たちの多くが[br]自分の意見とは違う意見に対して 0:01:42.916,0:01:45.409 アレルギー反応のようなものを[br]起こします 0:01:45.945,0:01:51.601 いわば「心理的アレルギー」があることにさえ[br]気づいていないかもしれません 0:01:52.596,0:01:58.239 そこで 赤色に対して人工的にアレルギーを[br]引き起こすヘルメットを作りました 0:01:58.263,0:02:01.832 これを装着すると[br]感覚過敏を模して 赤いものが 0:02:01.832,0:02:04.020 大きく見えるようになります 0:02:04.730,0:02:08.288 ノシーボとプラシーボの[br]2つのモードがあります 0:02:09.272,0:02:14.629 ノシーボモードでは[br]感覚過敏の知覚体験を作り出します 0:02:14.653,0:02:17.360 赤色が目に入る度に[br]赤が大きく見えます 0:02:18.062,0:02:21.593 ソーシャルメディアの[br]増幅効果に類似していて 0:02:21.617,0:02:24.214 何か気に入らないものが目に入ると 0:02:24.238,0:02:27.166 自分と同じような考え方をする人と[br]一緒になって 0:02:27.190,0:02:31.785 メッセージやミームを交換するので[br]さらに怒りが増幅されるというものです 0:02:32.274,0:02:35.936 ときには ほんの些細な議論が増幅され 0:02:35.960,0:02:38.361 度を失った規模に[br]膨れ上がります 0:02:39.038,0:02:43.558 それは私たちが怒りの政治の中で[br]生きているからかもしれません 0:02:44.756,0:02:48.171 プラシーボモードは[br]こんなアレルギーへの人工治療です 0:02:48.575,0:02:50.867 赤色が目に入る度に[br]赤が縮んで見えます 0:02:51.617,0:02:54.492 デジタルメディア同様[br]一時しのぎに過ぎません 0:02:54.516,0:02:57.415 自分と意見が異なる人々に出くわすと 0:02:57.439,0:02:58.916 フォローを外して 0:02:58.940,0:03:01.688 一切 目に入らないようにするのです 0:03:02.343,0:03:05.546 対象を回避することで[br]アレルギーを治療するのです 0:03:05.570,0:03:10.117 でも反対意見を意図的に無視する[br]このやり方では 0:03:10.141,0:03:14.197 人間の社会は過度に細分化され[br]分断を深めてしまいます 0:03:15.343,0:03:18.402 このヘルメットの内部のデバイスは[br]現実を再構築し 0:03:18.426,0:03:21.376 拡張現実を創り出す[br]一連のレンズを通して 0:03:21.400,0:03:23.315 私たちの目に映し出します 0:03:23.935,0:03:28.717 赤色を取り上げたのは[br]強烈で感情に訴えるからですが 0:03:28.741,0:03:30.699 可視性も高いと同時に 0:03:30.723,0:03:32.001 政治的でもあります 0:03:32.390,0:03:33.653 前回 行われた― 0:03:33.677,0:03:36.726 アメリカ大統領選挙の勢力地図を[br]このヘルメットを通して見ると 0:03:36.750,0:03:37.915 どうなるでしょうか? 0:03:37.939,0:03:38.947 (笑) 0:03:38.971,0:03:42.544 あなたが共和党支持か民主党支持かは[br]まったく関係ありません 0:03:42.568,0:03:46.557 なぜなら媒介により私たちの知覚が[br]改変されているからです 0:03:46.581,0:03:49.714 どちらの側も[br]アレルギーを持っているのです 0:03:51.134,0:03:52.454 デジタルメディアでは 0:03:52.478,0:03:55.611 私たちが毎日目にするものは[br]しばしば介在されており 0:03:55.635,0:03:57.368 非常に巧妙に行われています 0:03:57.758,0:03:59.753 もし私たちがこの事を[br]意識しなければ 0:03:59.777,0:04:05.091 多くの心理的アレルギーに対して[br]脆弱なままであり続けることになります 0:04:06.900,0:04:10.410 知覚は私たちのアイデンティティの[br]一部であるだけではなく 0:04:10.434,0:04:14.728 デジタルメディアにおいては[br]バリューチェーンの一部でもあるのです 0:04:15.992,0:04:19.567 私たちの視界には[br]あまりに多くの情報が詰め込まれ 0:04:19.591,0:04:25.103 私たちの知覚は不動産価値を持つ[br]商品になってしまったのです 0:04:26.035,0:04:29.564 無意識の偏りを悪用するために[br]デザインは利用され 0:04:29.588,0:04:33.068 自分の意見を再確認するコンテンツを[br]アルゴリズムは好みます 0:04:33.092,0:04:37.283 それゆえ 視野の隅々までもが[br]広告を販売するために 0:04:37.307,0:04:38.649 侵食されるのです 0:04:39.402,0:04:43.419 このように あなたの通知画面に[br]小さな赤い点が現れると 0:04:43.443,0:04:47.521 それは大きく広がり[br]頭の中を埋め尽くします 0:04:48.571,0:04:51.932 メガネにちょっとした汚れを[br]つける方法や 0:04:51.956,0:04:54.654 メガネのレンズを変える方法を[br]考え始めるうちに 0:04:54.678,0:04:56.776 別のプロジェクトを思いつきました 0:04:57.423,0:05:01.224 これからお見せするのはコンセプトです[br]現実の製品ではありません 0:05:01.676,0:05:03.749 ウェブブラウザのプラグインで 0:05:03.773,0:05:08.115 いつもは気も留めないような事柄に[br]気づかせてくれます 0:05:08.709,0:05:12.479 先ほどのヘルメットのように[br]このプラグインは現実を再構築しますが 0:05:12.503,0:05:15.728 今回はデジタルメディア[br]そのものを再構築します 0:05:17.066,0:05:20.222 ふるい落とされた[br]隠れた声を目立たせます 0:05:20.246,0:05:21.819 あなたが着目すべきことが 0:05:21.843,0:05:24.352 より大きく活性化していきます 0:05:24.376,0:05:28.671 この例では猫たちの中から[br]ジェンダーバイアスの記事が浮かび上がります 0:05:28.695,0:05:30.716 (笑) 0:05:30.740,0:05:36.157 アルゴリズムによって増幅される事象を[br]このプラグインで希釈できました 0:05:36.831,0:05:38.527 このコメント欄のように 0:05:38.551,0:05:41.620 同じ意見を叫んでいる人が[br]たくさんいると 0:05:42.111,0:05:44.981 このプラグインはそのようなコメントを[br]ものすごく小さくします 0:05:45.005,0:05:46.013 (笑) 0:05:46.037,0:05:51.288 画面上で表示されるピクセルの量が 0:05:51.312,0:05:55.866 このスレッドに貢献している[br]実際の価値に比例しています 0:05:55.890,0:05:57.832 (笑) 0:05:59.345,0:06:02.976 (拍手) 0:06:04.919,0:06:08.980 このプラグインは[br]私たちの視界の不動産価値も示し 0:06:09.004,0:06:12.460 私たちの知覚がどれほど[br]商品化されているかを教えてくれます 0:06:12.912,0:06:14.501 広告ブロッカーとは異なり 0:06:14.525,0:06:16.997 あなたがウェブで目にする[br]すべての広告について 0:06:17.021,0:06:20.428 あなたが稼げるはずの広告料を[br]表示してくれます 0:06:20.452,0:06:21.697 (笑) 0:06:22.356,0:06:24.648 私たちは現実と[br]商用流通化された現実との 0:06:24.672,0:06:26.925 2つの現実のはざまにある[br]戦場で生活しており 0:06:27.329,0:06:32.415 このプラグインの次のバージョンは[br]商用化現実を打ちのめして 0:06:32.439,0:06:35.238 ありのままの事実を[br]見せるようにします 0:06:35.262,0:06:37.053 (笑) 0:06:38.335,0:06:41.964 (拍手) 0:06:43.179,0:06:46.791 このアイデアに様々な道があることが[br]想像できるでしょう 0:06:46.815,0:06:51.229 この技術を実際に製品化するなら[br]高いリスクになるのは分かっています 0:06:52.006,0:06:54.945 私はこのプラグインを[br]善意をもって 0:06:54.969,0:06:58.806 知覚を訓練し 偏りを排除するために[br]作り上げました 0:06:58.830,0:07:02.558 でも同様のアプローチは[br]悪用することもできます 0:07:02.582,0:07:05.787 例えば世論を操作するために[br]このようなプラグインの 0:07:05.811,0:07:08.229 インストールを[br]市民に強要するようなことです 0:07:08.768,0:07:11.505 公正かつ個人的なものにするのは[br]簡単ではなく 0:07:11.529,0:07:14.684 その努力がなければ 介在するものを[br]増やすだけになってしまいます 0:07:15.933,0:07:18.595 さて これは私たちにとって[br]どういう意味を持つのでしょう? 0:07:19.230,0:07:22.963 テクノロジーが 人々の分断を[br]深めているのだとしても 0:07:22.987,0:07:26.589 既存のモデルを打ち壊し[br]さらにその先に進むことによって 0:07:26.613,0:07:29.860 再び世界をつなぐことに[br]利用できると思うのです 0:07:30.508,0:07:33.846 これらのテクノロジーと[br]いかに接点を持つかを探ることで 0:07:33.870,0:07:39.055 私たちは習慣化した[br]機械的ともいえる行動から抜け出して 0:07:39.079,0:07:41.749 最終的にお互いの共通の基盤を[br]見いだせるのです 0:07:42.915,0:07:44.704 テクノロジーは[br]中立になりえません 0:07:45.191,0:07:48.210 文脈をもたらし 現実を切り取ります 0:07:48.234,0:07:51.122 これは問題でもありますが[br]解決策でもあります 0:07:51.624,0:07:57.264 私たちの盲点を発見し[br]知覚を訓練し直すことに利用でき 0:07:57.949,0:08:01.432 そうすれば お互いの見方を[br]選び取れるのです 0:08:01.892,0:08:03.083 ありがとうございました 0:08:03.107,0:08:05.792 (拍手)