1 00:00:00,887 --> 00:00:03,283 저는 예술가인 동시에 개발자입니다. 2 00:00:03,307 --> 00:00:09,081 또 최근에 어떻게 기술이 우리가 세상을 인지하는 방식을 3 00:00:09,105 --> 00:00:11,146 조작하는 지에 관해 고민해 왔습니다. 4 00:00:11,653 --> 00:00:16,293 조작은 눈치채지 못하게 하는 미세한 방법으로 진행이 되고 있습니다. 5 00:00:17,260 --> 00:00:20,906 기술은 진짜 세계인 것처럼 만들어 6 00:00:20,930 --> 00:00:24,741 우리의 현실감을 조작합니다. 7 00:00:25,430 --> 00:00:30,116 그 결과, 기술이 세상을 조작하고 있다는 것을 8 00:00:30,140 --> 00:00:32,325 우리는 의식하지 못하고, 눈치 채지도 못하고 있습니다. 9 00:00:33,360 --> 00:00:35,848 예를 들어, 제가 평소 끼는 안경이 있는데요. 10 00:00:35,872 --> 00:00:39,896 이 안경은 제가 보통 주변을 인지하는 것 중 하나가 됩니다. 11 00:00:40,352 --> 00:00:41,842 저는 제가 안경을 썼다는 것을 잘 알아채지 못해요. 12 00:00:41,866 --> 00:00:45,951 실제 안경 테두리가 존재하는데도요. 13 00:00:46,447 --> 00:00:50,463 제가 얘기하고 있는 기술도 같은 방식으로 구현됩니다. 14 00:00:50,487 --> 00:00:52,925 우리가 보고 생각하는 방식을 15 00:00:52,949 --> 00:00:54,709 눈치 채지 못하도록 바꿉니다. 16 00:00:55,780 --> 00:00:59,049 지금, 제가 안경을 쓰고 있다는 것을 유일하게 알아차릴 때는 17 00:00:59,073 --> 00:01:02,331 안경에 주의를 빼앗기는 무언가가 있을 때인데요, 18 00:01:02,355 --> 00:01:05,869 안경이 더럽거나 도수를 바꿔야 할 때 같은 경우입니다. 19 00:01:06,481 --> 00:01:11,089 그래서 저 자신에게 물어 봅니다. "예술가로서, 사람들이 눈치채지 못하게 20 00:01:11,113 --> 00:01:13,560 우리의 현실을 조작하고 있는 디지털 미디어인 21 00:01:13,584 --> 00:01:19,755 뉴스, 소셜 미디어 플랫폼, 22 00:01:19,779 --> 00:01:22,040 광고와 검색 엔진에 23 00:01:22,064 --> 00:01:24,078 주의를 집중시키기 위해 어떤 걸 만들 수 있을까?" 24 00:01:24,798 --> 00:01:29,570 그래서 저는 지각 머신의 시리즈 물을 만들었습니다. 25 00:01:29,594 --> 00:01:33,160 우리가 보는 세계에 대해 26 00:01:33,184 --> 00:01:35,304 낯설게 느끼게 하고 의문을 갖도록 하기 위해서 말입니다. 27 00:01:36,859 --> 00:01:42,892 예를 들어, 요즘 많은 사람들은 28 00:01:42,916 --> 00:01:45,409 자신과 다른 생각에 대해 알러지 같은 반응을 보입니다. 29 00:01:45,945 --> 00:01:51,601 아마도 우리가 정신적 알러지가 있다는 것 조차 알아 차리지 못할 겁니다. 30 00:01:52,596 --> 00:01:58,239 그래서 저는 빨간색에 반응하는 인공 알러지를 만드는 헬멧을 만들어 봤습니다. 31 00:01:58,263 --> 00:02:02,716 헬멧을 쓰고 빨간색을 보면 점점 크게 보이면서 32 00:02:02,740 --> 00:02:04,020 매우 민감하게 반응합니다. 33 00:02:04,730 --> 00:02:08,288 이 헬멧에는 노시보와 플라시보 모드가 있습니다. 34 00:02:09,272 --> 00:02:14,629 노시보 모드는 지각적인 경험을 초알러지 반응을 보이도록 합니다. 35 00:02:14,653 --> 00:02:17,360 빨간 색을 볼 때마다, 색깔이 팽창되어 보입니다. 36 00:02:18,062 --> 00:02:21,593 소셜 미디어의 증폭 효과와 비슷한데요. 37 00:02:21,617 --> 00:02:24,214 여러분을 기분 나쁘게 하는 것을 보면 38 00:02:24,238 --> 00:02:27,166 비슷한 생각을 가진 사람들과 시간을 보내면서 39 00:02:27,190 --> 00:02:31,785 메세지와 밈을 주고 받으며 더 화를 돋우게 됩니다. 40 00:02:32,274 --> 00:02:35,936 가끔, 사소한 얘기가 부풀어지고 41 00:02:35,960 --> 00:02:38,361 과장이 됩니다. 42 00:02:39,038 --> 00:02:43,558 아마도 그래서 정치에 대한 분노를 안고 사는 건지도 모릅니다. 43 00:02:44,756 --> 00:02:48,171 플라시보 모드는 알러지에 대한 인공적인 치료방법 입니다. 44 00:02:48,575 --> 00:02:50,867 빨간 색을 볼 때마다 빨간 색의 크기가 줄어듭니다. 45 00:02:51,617 --> 00:02:54,492 디지털 미디어 처럼 임시 방편인 방식입니다. 46 00:02:54,516 --> 00:02:57,415 SNS 상에서 의견이 다른 사람을 마주하면 47 00:02:57,439 --> 00:02:58,916 언팔로우를 하고, 48 00:02:58,940 --> 00:03:01,688 완전하게 피드를 차단할 것입니다. 49 00:03:02,343 --> 00:03:05,546 회피함으로 인해 알러지를 치료하게 됩니다. 50 00:03:05,570 --> 00:03:10,117 하지만 의도적으로 반대 생각을 무시하는 이 방법은 51 00:03:10,141 --> 00:03:14,197 우리의 공동체를 과도하게 해체시키고 분열 시킵니다. 52 00:03:15,343 --> 00:03:18,402 헬멧 안에 장치는 현실을 재조작하고 53 00:03:18,426 --> 00:03:21,376 렌즈를 통해 우리 눈에 투사 시키면 54 00:03:21,400 --> 00:03:23,315 가상 현실이 만들어집니다. 55 00:03:23,935 --> 00:03:28,717 제가 빨간 색을 고른 이유는 강렬하고 감성적이고, 56 00:03:28,741 --> 00:03:30,699 가장 눈이 잘 띄고, 57 00:03:30,723 --> 00:03:32,001 정치적인 색깔이기 때문입니다. 58 00:03:32,390 --> 00:03:33,653 만약 우리가 59 00:03:33,677 --> 00:03:36,726 작년 미국 대통령 선거지도를 60 00:03:36,750 --> 00:03:37,915 헬멧을 통해 본다면 어땠을까요? 61 00:03:37,939 --> 00:03:38,947 (웃음) 62 00:03:38,971 --> 00:03:42,544 여러분이 민주당 혹은 공화당 지지자임이 상관 없게 됩니다. 63 00:03:42,568 --> 00:03:46,557 왜냐하면 보이는 이미지가 지각을 변화시키기 때문입니다. 64 00:03:46,581 --> 00:03:49,714 이 알러지는 양쪽 모두에서 발생합니다. 65 00:03:51,134 --> 00:03:52,454 디지털 미디어에서는 66 00:03:52,478 --> 00:03:55,611 우리가 매일 보는 것이 가끔 조작 되지만 67 00:03:55,635 --> 00:03:57,368 매우 미세합니다. 68 00:03:57,758 --> 00:03:59,753 우리가 이 차이를 눈치채지 않는다면 69 00:03:59,777 --> 00:04:05,182 정신적 알러지와 같은 많은 것들에 취약해 질 것입니다. 70 00:04:06,900 --> 00:04:10,410 우리의 지각은 우리를 이루는 한 부분이기도 하고 71 00:04:10,434 --> 00:04:14,728 디지털 미디어에서 가치 사슬의 한 부분이기도 합니다. 72 00:04:15,992 --> 00:04:19,567 시각 영역은 수 많은 정보들로 가득차 있는데요. 73 00:04:19,591 --> 00:04:25,103 이 정보들은 자산 가치가 매겨진 것들이죠. 74 00:04:26,035 --> 00:04:29,564 디자인은 우리의 무의식적인 편견과 75 00:04:29,588 --> 00:04:33,068 좋아하는 컨텐츠를 불러오는 알고리즘을 이용합니다. 76 00:04:33,092 --> 00:04:37,283 이는 광고를 팔기 위해서 77 00:04:37,307 --> 00:04:38,649 우리의 눈이 가는 곳곳을 점령하기 위함입니다. 78 00:04:39,402 --> 00:04:43,419 마치 작은 빨간 색 점이 여러분의 알림 창에서 보일 때, 79 00:04:43,443 --> 00:04:47,687 이 점은 여러분의 머릿속에서 점점 커지는데, 굉장히 크죠. 80 00:04:48,571 --> 00:04:51,932 그래서 저는 안경을 더럽히거나 81 00:04:51,956 --> 00:04:54,654 안경의 렌즈를 바꾸는 방법 같은 것을 생각하게 되었고, 82 00:04:54,678 --> 00:04:56,776 또 다른 프로젝트를 만들었습니다. 83 00:04:57,423 --> 00:05:01,224 진짜 제품이 아니라, 개념적인 프로젝트라는 것을 염두해 두세요. 84 00:05:01,676 --> 00:05:03,749 제가 만든 건 웹브라우저 프로그램 인데요. 85 00:05:03,773 --> 00:05:08,115 우리가 평소에 무시하는 것들을 알려주는 것입니다. 86 00:05:08,709 --> 00:05:12,479 헬멧처럼, 이 프로그램은 현실을 재창조 하지만 87 00:05:12,503 --> 00:05:15,900 이번에는 디지털 미디어 자체를 직접적으로 표현했습니다. 88 00:05:17,066 --> 00:05:20,222 숨겨져있고, 필터로 걸러진 의견들을 보여 줍니다. 89 00:05:20,246 --> 00:05:21,819 지금 여러 분들에게 알려져야 할 것들은 90 00:05:21,843 --> 00:05:24,352 더 크고 선명해질 겁니다. 91 00:05:24,376 --> 00:05:28,671 여기, 고양이 사진들 틈에서 보이는 성 편견과 관련된 이야기 처럼요. 92 00:05:28,695 --> 00:05:30,716 (웃음) 93 00:05:30,740 --> 00:05:36,157 이 플러그-인은 알고리즘으로 증폭된 것을 누그러뜨릴 수 있어요. 94 00:05:36,831 --> 00:05:38,527 여기에 있는 댓글들 처럼 말이에요. 95 00:05:38,551 --> 00:05:41,620 같은 의견들을 이야기 하는 사람들이 정말 많죠. 96 00:05:42,111 --> 00:05:44,981 이 프로그램은 이런 댓글들을 정말 작게 만듭니다. 97 00:05:45,005 --> 00:05:46,013 (웃음) 98 00:05:46,037 --> 00:05:51,288 그래서 화면에 보이는 픽셀의 양은 99 00:05:51,312 --> 00:05:55,866 이 대화에 기여한 실제 가치에 비례해서 보이는 겁니다. 100 00:05:55,890 --> 00:05:57,832 (웃음) 101 00:05:59,345 --> 00:06:02,976 (박수) 102 00:06:04,919 --> 00:06:08,980 또한 이 플러그-인은 시각 영역에서의 자산 가치를 보여 줍니다. 103 00:06:09,004 --> 00:06:12,460 그리고 얼마나 우리의 지각을 상품화 시켰는지 보여 줍니다. 104 00:06:12,912 --> 00:06:14,501 광고를 막는 프로그램과는 다르게 105 00:06:14,525 --> 00:06:16,997 우리가 웹 페이지에서 매일 보는 광고에 대해 106 00:06:17,021 --> 00:06:20,428 그 제품을 사려면 여러분이 얼마나 많은 돈을 벌어야 하는지 보여 줍니다. 107 00:06:20,452 --> 00:06:21,697 (웃음) 108 00:06:22,356 --> 00:06:24,648 우리는 현실과 109 00:06:24,672 --> 00:06:26,925 현실에 분포되어 있는 광고들 사이에 존재하는 전쟁터에서 살고 있습니다. 110 00:06:27,329 --> 00:06:32,415 그래서 다음 버전은 광고들을 없애고 111 00:06:32,439 --> 00:06:35,238 광고가 없는 현실 자체를 보여줄 겁니다. 112 00:06:35,262 --> 00:06:37,053 (웃음) 113 00:06:38,335 --> 00:06:41,964 (박수) 114 00:06:43,179 --> 00:06:46,791 여러분은 정말 갈 수 있는 방향들이 얼마나 많은지 상상할 수 있습니다. 115 00:06:46,815 --> 00:06:51,229 저를 믿어보세요, 세상이 상품화가 된다면 정말 위험할 거라고 생각해요. 116 00:06:52,006 --> 00:06:54,945 저는 좋은 의도를 갖고 작품을 만들었습니다. 117 00:06:54,969 --> 00:06:58,806 우리의 지각을 훈련하고 편견을 제거하기 위해서 말입니다. 118 00:06:58,830 --> 00:07:02,558 하지만 같은 접근이더라도 나쁜 의도로 사용될 수 있습니다. 119 00:07:02,582 --> 00:07:05,787 대중의 목소리를 통제하기 위해 120 00:07:05,811 --> 00:07:07,937 시민들에게 프로그램을 설치하게 강요하는 경우 처럼요. 121 00:07:08,768 --> 00:07:11,505 또 다른 편견을 만들지 않고 122 00:07:11,529 --> 00:07:14,684 프로그램을 공정하고 개인적으로 만드는 것은 어려운 일입니다. 123 00:07:15,933 --> 00:07:18,595 이 모든 것은 우리에게 어떤 의미를 줄까요? 124 00:07:19,230 --> 00:07:22,963 비록 기술이 고립을 창조했지만, 125 00:07:22,987 --> 00:07:26,589 우리는 세계를 다시 연결시키는데 기술을 활용할 수 있습니다. 126 00:07:26,613 --> 00:07:29,860 이를 위해서는 기존의 알고리즘을 깨고 더 나은 것을 만들어야 합니다. 127 00:07:30,508 --> 00:07:33,846 우리가 어떻게 기술들을 활용할 것인가를 탐색함으로써 128 00:07:33,870 --> 00:07:39,055 기계처럼 받아들였던 행동들에서 벗어날 수 있고, 129 00:07:39,079 --> 00:07:41,749 우리에게 존재하는 공통점을 발견할 수 있을 것입니다. 130 00:07:42,915 --> 00:07:44,704 기술은 중립적인 것이 절대 아닙니다. 131 00:07:45,191 --> 00:07:48,210 기술은 현실에 맥락과 프레임을 씌웁니다. 132 00:07:48,234 --> 00:07:51,122 이점은 문제이기도 하고, 해결책이기도 합니다. 133 00:07:51,624 --> 00:07:57,264 왜냐하면 우리는 사각지대를 발견할 수 있고 지각을 재훈련 시킬 수 있고, 134 00:07:57,949 --> 00:08:01,455 결과적으로 서로를 어떻게 바라 보는지 선택하게 할 수 있기 때문입니다. 135 00:08:01,892 --> 00:08:03,083 감사합니다. 136 00:08:03,107 --> 00:08:05,792 (박수)