1 00:00:00,784 --> 00:00:03,659 嗨,我是雷菲克,我是媒體藝術家。 2 00:00:03,683 --> 00:00:05,658 我用資料當顏料, 3 00:00:05,682 --> 00:00:08,386 用人工智慧輔助的 4 00:00:08,406 --> 00:00:10,706 智能筆刷來作畫, 5 00:00:11,128 --> 00:00:13,876 我用建築空間當作畫布, 6 00:00:13,900 --> 00:00:15,694 和機器合作, 7 00:00:15,718 --> 00:00:18,661 讓建築物也能作夢、幻想。 8 00:00:18,685 --> 00:00:21,400 你可能在納悶,這些是什麼意思? 9 00:00:21,424 --> 00:00:25,588 請容我帶你來看看 我的工作和我的世界。 10 00:00:25,851 --> 00:00:28,710 在伊斯坦堡長大的我, 11 00:00:28,730 --> 00:00:31,956 八歲時,目擊了想像力的力量。 12 00:00:31,980 --> 00:00:35,371 有一天,我媽媽帶了一支錄影帶回家, 13 00:00:35,395 --> 00:00:38,078 是部科幻電影《銀翼殺手》。 14 00:00:38,102 --> 00:00:42,351 我清楚記得我對未來洛杉磯的 15 00:00:42,371 --> 00:00:46,010 驚人建築想像深深著迷, 16 00:00:46,034 --> 00:00:48,414 那是我從來沒有見過的地方。 17 00:00:48,610 --> 00:00:53,674 那幅影像便成了我作白日夢的主題。 18 00:00:54,031 --> 00:00:56,793 2012 年我到洛杉磯 19 00:00:56,817 --> 00:00:59,237 就讀設計媒體藝術研究所, 20 00:00:59,261 --> 00:01:01,651 我租了一輛車開到市區, 21 00:01:01,675 --> 00:01:05,149 去看那個在不遠未來的美妙世界。 22 00:01:05,482 --> 00:01:08,192 我記得在我腦中有一句話 23 00:01:08,212 --> 00:01:10,023 不斷重覆播放: 24 00:01:10,245 --> 00:01:12,340 在這一幕中,機器人瑞秋 25 00:01:12,364 --> 00:01:16,079 發現她的記憶其實不是她的, 26 00:01:16,103 --> 00:01:20,754 戴克告訴她那些是別人的記憶。 27 00:01:20,778 --> 00:01:25,202 從那一刻起,這個問題 就一直是我的靈感之一。 28 00:01:25,561 --> 00:01:29,900 機器如何使用他人的記憶? 29 00:01:29,924 --> 00:01:32,482 或者,換個說法, 30 00:01:32,651 --> 00:01:36,953 身為二十一世紀中的 人工智慧,有什麼意涵? 31 00:01:37,441 --> 00:01:39,538 任何機器人或人工智慧機器 32 00:01:39,562 --> 00:01:43,019 都只有在我們和它 連結合作時,它才具有智慧。 33 00:01:43,327 --> 00:01:44,792 它能夠建造出 34 00:01:44,816 --> 00:01:47,866 人類智慧想要製作 35 00:01:47,886 --> 00:01:50,519 卻沒有能力做出來的東西。 36 00:01:51,373 --> 00:01:54,783 比如,想想你在社交網路上的活動。 37 00:01:55,208 --> 00:01:58,588 你越和它們互動,它們就變得越聰明。 38 00:01:58,780 --> 00:02:03,249 如果機器能學習或處理記憶, 39 00:02:03,273 --> 00:02:05,134 它們是否也能作夢? 40 00:02:05,158 --> 00:02:06,444 幻想? 41 00:02:06,668 --> 00:02:08,896 非自願性地回想 42 00:02:09,106 --> 00:02:13,059 或在多人的夢境中建立連結? 43 00:02:13,083 --> 00:02:16,101 身為二十一世紀的人工智慧 44 00:02:16,121 --> 00:02:19,400 就僅表示什麼都不會忘記嗎? 45 00:02:20,365 --> 00:02:21,548 若是如此, 46 00:02:21,572 --> 00:02:25,996 我們花數世紀的努力 在各媒體中捕捉歷史, 47 00:02:26,020 --> 00:02:31,029 這不就是我們所能體驗到 最革命性的經歷了嗎? 48 00:02:31,406 --> 00:02:32,740 換言之, 49 00:02:32,764 --> 00:02:36,490 從雷利史考特的《銀翼殺手》之後, 我們又走了多遠? 50 00:02:36,678 --> 00:02:40,165 於是,我在 2014 年 成立了我的工作室, 51 00:02:40,189 --> 00:02:42,200 並邀請建築師、 52 00:02:42,224 --> 00:02:44,596 電腦及資料科學家、神經科學家、 53 00:02:44,620 --> 00:02:47,467 音樂家,甚至說故事的人 54 00:02:47,491 --> 00:02:50,491 一同加入來實現我的夢想。 55 00:02:51,001 --> 00:02:53,835 資料能變成顏料嗎? 56 00:02:53,859 --> 00:02:58,290 當我們開始這段旅程時, 這就是我們問的第一個問題, 57 00:02:58,310 --> 00:03:01,017 我們的目標是將媒體藝術 置入到建築當中, 58 00:03:01,041 --> 00:03:03,964 讓虛擬和實體世界碰撞。 59 00:03:04,555 --> 00:03:09,872 我們開始想像我所謂的資料詩學。 60 00:03:10,124 --> 00:03:12,841 我們最初的計畫之一是《虛擬描繪》, 61 00:03:12,865 --> 00:03:14,964 它是一件公共資料雕塑作品, 62 00:03:14,988 --> 00:03:17,688 由舊金山市委任我們製作。 63 00:03:17,712 --> 00:03:19,918 這件作品邀請觀眾 64 00:03:19,942 --> 00:03:22,687 在一個活生生的都市空間中 65 00:03:22,707 --> 00:03:24,820 參與壯觀的美學體驗, 66 00:03:24,844 --> 00:03:30,276 這件作品描繪出 城市本身的連結網路。 67 00:03:30,439 --> 00:03:33,162 它也是在提醒我們, 68 00:03:33,186 --> 00:03:36,546 我們日常生活中看不見的資料, 69 00:03:36,570 --> 00:03:39,379 如這裡所呈現的推特推文, 70 00:03:39,760 --> 00:03:41,672 也能變成可見的, 71 00:03:41,912 --> 00:03:45,125 並轉變為可全體一同體驗的 72 00:03:45,145 --> 00:03:47,899 感官知識。 73 00:03:48,619 --> 00:03:53,519 事實上,資料一定要被體驗, 之後才能夠變成知識, 74 00:03:53,543 --> 00:03:57,519 而知識和體驗都可以 有許多不同的形式。 75 00:03:57,543 --> 00:04:01,017 在透過機器智慧的強大潛能 76 00:04:01,037 --> 00:04:03,384 探索這類連結時, 77 00:04:03,857 --> 00:04:09,032 我們也會思索人類感官與機器 78 00:04:09,052 --> 00:04:12,637 模擬大自然的能力有什麼關聯。 79 00:04:12,771 --> 00:04:17,581 這些疑問出現在用風的資料作畫時。 80 00:04:17,795 --> 00:04:20,755 它們呈現出來的形式,是視覺化的詩, 81 00:04:20,779 --> 00:04:25,593 其基礎是我們從風感測器 收集來的隱藏資料集, 82 00:04:25,617 --> 00:04:28,430 接著,我們使用生成演算法 83 00:04:28,454 --> 00:04:32,645 將風速、陣風以及風向 84 00:04:32,669 --> 00:04:35,652 轉變成為以太資料顏料。 85 00:04:36,437 --> 00:04:40,812 產生的結果是種帶著沉思 又有推測性的體驗。 86 00:04:41,349 --> 00:04:44,212 這件名為《博斯普魯斯海峽》的 動態資料雕塑作品, 87 00:04:44,236 --> 00:04:47,215 則是質疑我們重新想像 88 00:04:47,215 --> 00:04:50,430 自然現象的類似嘗試。 89 00:04:51,299 --> 00:04:55,736 我們用馬摩拉海的高頻率雷達 90 00:04:55,760 --> 00:04:57,990 收集海面的資料, 91 00:04:58,014 --> 00:05:01,477 並用機器智慧將其動態做投射。 92 00:05:01,874 --> 00:05:06,456 我們在一種平靜卻又經常 改變的合成海景中, 93 00:05:06,466 --> 00:05:08,452 創造出了一種沉浸感。 94 00:05:09,524 --> 00:05:13,306 用大腦來看,通常就稱作想像, 95 00:05:13,636 --> 00:05:15,940 對我來說,對建築的想像 96 00:05:15,964 --> 00:05:19,845 超越了單純的玻璃、金屬或混凝土, 97 00:05:19,869 --> 00:05:24,370 而是去實驗沉浸的最大可能性, 98 00:05:24,394 --> 00:05:28,372 以及在既有環境中 擴增我們感知的方法。 99 00:05:28,531 --> 00:05:32,050 人工智慧的研究每天都有進展, 100 00:05:32,208 --> 00:05:35,891 讓我們覺得被連接到一個比我們自己 101 00:05:36,110 --> 00:05:39,608 更大、更有知識的系統上。 102 00:05:39,904 --> 00:05:43,508 2017 年,我們發現了 一個開放原始碼的圖書館, 103 00:05:43,532 --> 00:05:45,926 裡面有伊斯坦堡文化的文件, 104 00:05:46,198 --> 00:05:49,358 因此我們便開始投入《檔案夢》, 105 00:05:49,682 --> 00:05:53,814 它是世界上最早的 人工智慧導向公共裝置之一, 106 00:05:54,000 --> 00:05:58,731 這個人工智慧所探究的 近 170 萬份文件 107 00:05:58,751 --> 00:06:01,250 橫跨了 270 年。 108 00:06:01,788 --> 00:06:04,630 在這個過程中,我們的靈感之一 109 00:06:04,654 --> 00:06:08,081 是一個短篇故事, 叫做《巴別塔圖書館》, 110 00:06:08,105 --> 00:06:11,312 作者是阿根廷作家 豪爾赫.路易斯.波赫士。 111 00:06:11,336 --> 00:06:14,888 在這個故事中, 作者構想出的宇宙形式 112 00:06:15,091 --> 00:06:17,065 是個巨大的圖書館, 113 00:06:17,089 --> 00:06:20,214 盡可能收藏所有 410 頁的書籍, 114 00:06:20,234 --> 00:06:22,974 都有一個特定的格式和字元集。 115 00:06:23,024 --> 00:06:24,493 透過這個啟發性的影像, 116 00:06:24,517 --> 00:06:28,617 我們想像出了一種方式, 可以在機器智慧的時代, 117 00:06:28,637 --> 00:06:31,315 實體去探索浩瀚的知識檔案。 118 00:06:31,786 --> 00:06:33,844 因此做出的成品,各位可以看到, 119 00:06:33,868 --> 00:06:36,341 是一個使用者導向的沉浸式空間。 120 00:06:36,515 --> 00:06:39,401 《檔案夢》深刻地轉變了 121 00:06:39,421 --> 00:06:43,985 機器智慧時代的圖書館體驗。 122 00:06:44,187 --> 00:06:48,269 《機器幻想》是在探索 透過紐約市公共照片檔案 123 00:06:48,279 --> 00:06:52,502 所體驗到的時間和空間。 124 00:06:52,756 --> 00:06:55,382 為了這個獨一無二的沉浸式計畫, 125 00:06:55,406 --> 00:06:58,070 我們採用了機器學習演算法 126 00:06:58,094 --> 00:07:02,558 來找出並處理該城市的一億張照片。 127 00:07:03,008 --> 00:07:06,090 我們設計了一個創新的敘事系統, 128 00:07:06,114 --> 00:07:09,266 用人工智慧來預測 129 00:07:09,306 --> 00:07:12,317 或幻想出新的影像, 130 00:07:12,341 --> 00:07:14,829 讓觀者能夠步入 131 00:07:14,849 --> 00:07:18,702 紐約的過去和未來 融合成的如夢境之地。 132 00:07:19,832 --> 00:07:22,240 隨著我們的計畫更深入到 133 00:07:22,260 --> 00:07:25,351 記住和傳送知識, 134 00:07:25,375 --> 00:07:30,333 我們想了更多關於 記憶為什麼不是靜態的回憶 135 00:07:30,357 --> 00:07:34,001 而是對過去的事件 做出千變萬化的詮釋。 136 00:07:34,269 --> 00:07:36,350 我們思索了機器如何 137 00:07:36,374 --> 00:07:40,404 模擬無意識和潛意識的事件, 138 00:07:40,428 --> 00:07:44,569 比如作夢、回想和幻想。 139 00:07:45,356 --> 00:07:48,260 因此,我們創作出了《熔化的記憶》, 140 00:07:48,284 --> 00:07:50,999 將回想的時刻視覺化。 141 00:07:51,824 --> 00:07:54,491 這個靈感來自一個悲劇事件, 142 00:07:54,515 --> 00:07:58,300 我得知我叔叔被診斷出阿茲海默症。 143 00:07:59,602 --> 00:08:03,953 那時,我唯一能想的就是要找方法 144 00:08:03,977 --> 00:08:07,100 來讚頌我們回想的方式、回想的內容, 145 00:08:07,140 --> 00:08:09,128 且要在我們還能做的時候就去做。 146 00:08:09,152 --> 00:08:13,071 我開始認為,記憶並不是消失, 147 00:08:13,256 --> 00:08:16,168 而是熔化了或改變了形態。 148 00:08:16,192 --> 00:08:18,253 在機器智慧的協助下, 149 00:08:18,277 --> 00:08:21,740 我們和加州大學 Neuroscape 實驗室的 150 00:08:21,764 --> 00:08:23,603 科學家合作, 151 00:08:23,627 --> 00:08:28,716 他們告訴我們如何了解 在記憶形成時的大腦訊號。 152 00:08:29,208 --> 00:08:33,838 雖然我自己的叔叔失去了 處理記憶的能力, 153 00:08:34,335 --> 00:08:37,626 腦電圖資料所產生的藝術作品 154 00:08:37,882 --> 00:08:40,876 探索了回想的具體性, 155 00:08:41,208 --> 00:08:45,739 並向我叔叔所失去的致上敬意。 156 00:08:48,533 --> 00:08:51,861 現代洛杉磯幾乎完全不符合 157 00:08:51,881 --> 00:08:55,272 我童年時對該城市的期望, 158 00:08:55,296 --> 00:08:58,312 不過有一棟很不凡的建築物例外: 159 00:08:58,410 --> 00:09:01,799 華特迪士尼音樂廳, 由法蘭克.蓋瑞設計, 160 00:09:01,823 --> 00:09:03,754 他一直是我心目中的英雄。 161 00:09:04,208 --> 00:09:07,565 2018 年,我接到 洛杉磯愛樂樂團的電話, 162 00:09:07,589 --> 00:09:09,500 他們想找一個裝置, 163 00:09:09,524 --> 00:09:13,614 作為這個知名交響樂團的百年紀念。 164 00:09:13,638 --> 00:09:16,754 為此,我們決定要問這個問題: 165 00:09:17,034 --> 00:09:20,341 「建築物能學習嗎?它會作夢嗎?」 166 00:09:20,614 --> 00:09:21,791 為了回答這個問題, 167 00:09:21,815 --> 00:09:24,150 我們決定要收集洛杉磯愛樂樂團 168 00:09:24,170 --> 00:09:27,646 和華特迪士尼音樂廳的檔案中 所記載的一切資訊。 169 00:09:27,670 --> 00:09:32,267 精確來說,是轉成 77 TB 的 數位檔案的記憶。 170 00:09:32,559 --> 00:09:34,726 使用機器智慧, 171 00:09:34,750 --> 00:09:38,166 我們讓所有這一百年來的檔案 172 00:09:38,190 --> 00:09:41,014 變成了建築物外牆上的投影, 173 00:09:41,219 --> 00:09:44,363 用四十二台投影機, 在洛杉磯的心臟地帶, 174 00:09:44,383 --> 00:09:47,017 實現了這種未來感的公眾體驗, 175 00:09:47,386 --> 00:09:51,545 朝《銀翼殺手》中的 洛杉磯又邁進了一步。 176 00:09:52,146 --> 00:09:54,660 如果真有建築物能夠作夢, 177 00:09:54,684 --> 00:09:56,678 那肯定就是這一刻。 178 00:09:59,703 --> 00:10:02,937 現在,我邀請各位 再跟我去最後一個地方: 179 00:10:02,967 --> 00:10:04,922 機器的腦中。 180 00:10:05,877 --> 00:10:09,241 現在,我們完全沉浸在過去三十年 181 00:10:09,265 --> 00:10:13,728 所有舉辦過的 TED 演講 所構成的資料宇宙中。 182 00:10:13,837 --> 00:10:14,993 也就是說, 183 00:10:15,013 --> 00:10:16,464 這個資料集包含了 184 00:10:16,484 --> 00:10:20,714 TED 舞台上的 7705 場演講。 185 00:10:21,094 --> 00:10:25,635 那些演講被轉變成 740 萬秒, 186 00:10:25,659 --> 00:10:29,754 每一秒都在這個資料宇宙中呈現出來。 187 00:10:29,778 --> 00:10:31,849 各位在這裡看到的每一個影像 188 00:10:31,873 --> 00:10:34,857 都代表那些演講中某個獨特的時刻。 189 00:10:34,969 --> 00:10:36,999 我們使用機器智慧 190 00:10:37,019 --> 00:10:41,167 處理了總共 487,000 個句子, 191 00:10:41,191 --> 00:10:44,581 分成 330 個不重覆的 主題叢集,比如:大自然、 192 00:10:44,625 --> 00:10:48,914 全球排放、絕種、種族議題、計算、 193 00:10:48,914 --> 00:10:52,328 信任、情緒、水和難民。 194 00:10:52,478 --> 00:10:56,603 接著,再用一個演算法 將這些叢集連結起來, 195 00:10:56,637 --> 00:11:00,479 這個演算法產生出 一億一千三百萬條線段, 196 00:11:00,503 --> 00:11:03,606 這些線段揭示出新的概念關係。 197 00:11:03,630 --> 00:11:08,085 如果能記得在演講台上 曾經被問過的所有問題, 198 00:11:08,105 --> 00:11:10,276 不是很不可思議嗎? 199 00:11:11,507 --> 00:11:12,946 我進來了, 200 00:11:12,970 --> 00:11:15,832 身在無數偉大思想家的腦中, 201 00:11:15,856 --> 00:11:19,579 同時也是機器的腦中, 和各種感覺互動, 202 00:11:19,603 --> 00:11:21,732 這些感覺源自於學習、 203 00:11:21,992 --> 00:11:24,228 回想、質疑, 204 00:11:24,252 --> 00:11:27,000 以及想像,全都同時發生, 205 00:11:27,643 --> 00:11:30,289 將大腦的力量擴張出去。 206 00:11:31,034 --> 00:11:33,431 對我來說,在這裡 207 00:11:33,455 --> 00:11:37,741 的確就是身為二十一世紀 人工智慧的意涵。 208 00:11:38,184 --> 00:11:40,477 我們人類有責任 209 00:11:40,501 --> 00:11:44,017 要訓練這個大腦去學習和記憶 210 00:11:44,041 --> 00:11:46,467 我們所能想像的夢想。 211 00:11:47,258 --> 00:11:48,408 謝謝。