Return to Video

與機器人共同作畫

  • 0:01 - 0:04
    在座的各位大多在日常中使用科技,
  • 0:04 - 0:07
    有些人的工作離不開科技。
  • 0:07 - 0:11
    有一陣子,我認為機器、科技
  • 0:11 - 0:16
    只是實現工作高產、高效的工具。
  • 0:16 - 0:20
    但隨着自動化技術滲透各產業,
  • 0:20 - 0:21
    我不禁思考,
  • 0:21 - 0:25
    如果機器能夠做人類的傳統工作,
  • 0:25 - 0:27
    那人類的手用來做什麼?
  • 0:28 - 0:32
    對完美、精確和自動化的追求
  • 0:32 - 0:34
    如何影響我們的創造力?
  • 0:35 - 0:37
    作為藝術家和研究者,
  • 0:37 - 0:42
    我研究運用人工智慧和機器人
    來開發人類的創造力。
  • 0:42 - 0:43
    過去幾年裡,
  • 0:43 - 0:48
    我運用機器、數據
    和新型技術進行創作。
  • 0:48 - 0:50
    其中永恆的魅力
  • 0:50 - 0:53
    在於人與技術間奇妙的動力學,
  • 0:53 - 0:55
    還有其中不可避免的混亂。
  • 0:55 - 1:00
    我借此來探索 AI 與人類的邊界
  • 1:00 - 1:05
    以及探索未來感官融合的可能。
  • 1:06 - 1:09
    我覺得這是哲學與技術的交匯。
  • 1:09 - 1:11
    這項工作教會了我一些道理,
  • 1:12 - 1:14
    它教會我,坦然接受不完美
  • 1:14 - 1:17
    有助於更認識自己。
  • 1:17 - 1:20
    它教會我,探索藝術,
  • 1:20 - 1:23
    能夠更好地構建科技,然後構建生活。
  • 1:23 - 1:26
    它教會我,將 AI 和機器人
  • 1:26 - 1:30
    結合到傳統創作中,
  • 1:30 - 1:35
    能幫助我們更深入理解
    何為人類,何為機器。
  • 1:36 - 1:38
    它讓我意識到,
  • 1:38 - 1:39
    在前行路上,
  • 1:39 - 1:42
    合作是創造人機生存空間的關機。
  • 1:42 - 1:45
    這一切都緣起於
    一個簡單的機器實驗,
  • 1:45 - 1:48
    那個機器叫「第一代繪畫器」
    (Drawing Operations Unit: Generation 1)
  • 1:48 - 1:51
    我叫它「道格」(D.O.U.G.)。
  • 1:51 - 1:52
    在「道格」之前,
  • 1:52 - 1:55
    我對製造機器人一無所知。
  • 1:55 - 1:58
    我參照了一些開源的機械臂設計,
  • 1:58 - 2:01
    編成了一個系統,來實現匹配手勢,
  • 2:02 - 2:03
    並實時模仿。
  • 2:03 - 2:05
    方式很簡單:
  • 2:05 - 2:07
    我畫,它模仿。
  • 2:07 - 2:10
    我畫一條線,它也畫一條線。
  • 2:10 - 2:14
    2015 年,我們第一次
  • 2:14 - 2:17
    在紐約市的一小群觀衆前作畫。
  • 2:17 - 2:19
    整個過程很冷清,
  • 2:19 - 2:23
    沒有燈光,沒有音樂,什麼都沒有,
  • 2:23 - 2:27
    只有手掌冒出的汗,
    和機械臂升高的溫度。
  • 2:27 - 2:29
    (笑)顯然這不是最理想的效果。
  • 2:30 - 2:33
    但我不曾預料到,
    一些有趣的事情發生了。
  • 2:33 - 2:38
    初代的「道格」並沒有
    完美地模仿我的線條,
  • 2:38 - 2:40
    在計算機模擬中
  • 2:40 - 2:42
    它的模仿是精準完美的,
  • 2:42 - 2:44
    但到了現實世界,
    就是另一番景象了。
  • 2:44 - 2:47
    它會滑動,會卡頓,會晃動,
  • 2:47 - 2:49
    於是我不得不應和它的線條。
  • 2:50 - 2:51
    它的狀態並不完美,
  • 2:51 - 2:55
    然而這些失誤讓作品更加有趣,
  • 2:55 - 2:57
    機器模仿我的線條,但並不完美,
  • 2:57 - 2:59
    於是我必須應和它,
  • 2:59 - 3:01
    我們不斷實時地熟悉彼此。
  • 3:01 - 3:03
    我領悟到了一些事情,
  • 3:03 - 3:08
    我們的失誤實際上讓創作更加有趣,
  • 3:09 - 3:13
    透過機器的不完美,
  • 3:13 - 3:17
    我們的不完美成就了人機交流之美。
  • 3:18 - 3:21
    我激動地意識到,
  • 3:21 - 3:24
    或許人機系統的美妙之處,
  • 3:24 - 3:27
    有一部分來自共同的、固有的失誤。
  • 3:27 - 3:29
    到了「道格」第二代,
  • 3:29 - 3:31
    我知道我要探索這個想法。
  • 3:31 - 3:36
    我並不打算放大機器的失誤,
  • 3:36 - 3:39
    而是設計能夠以意料之外的方式
  • 3:39 - 3:41
    回應我筆畫的系統。
  • 3:41 - 3:44
    於是,我運用機器視覺算法
  • 3:44 - 3:47
    來提取我幾十年來的數字繪畫。
  • 3:47 - 3:50
    我以此訓練了一個神經網路,
  • 3:50 - 3:52
    優化機器的遞歸模式
    需要大量的樣本,
  • 3:52 - 3:56
    這些樣本經過專門軟件
    處理後導入機器。
  • 3:56 - 4:00
    於是我使盡渾身解數
    彙集我的畫作,
  • 4:00 - 4:05
    成品、未完成的實驗品、隨筆畫——
  • 4:05 - 4:07
    把它們標記給 AI 系統。
  • 4:07 - 4:10
    作為藝術家,我作畫超過二十年,
  • 4:10 - 4:12
    所以彙集這些畫作花了幾個月的時間,
  • 4:12 - 4:14
    這是個大工程。
  • 4:14 - 4:16
    說到訓練人工智慧,
  • 4:16 - 4:19
    這其實要費一番功夫,
  • 4:19 - 4:21
    背後有很多工作要做。
  • 4:21 - 4:24
    但過程中,我對人工智慧的結構
  • 4:24 - 4:27
    瞭解得更深入了一點。
  • 4:27 - 4:32
    我意識到這不僅是
    神經網路的模型和分類器,
  • 4:32 - 4:35
    更是可延展、可塑的系統,
  • 4:35 - 4:38
    人類的手始終參與其中。
  • 4:38 - 4:42
    它不再是我們認為
    無所不能的人工智慧。
  • 4:42 - 4:45
    用畫作訓練神經網路後,
  • 4:45 - 4:49
    前所未有的事情發生了——
  • 4:49 - 4:52
    我的機器人道格
    在實時交互的創作中,
  • 4:52 - 4:56
    呼應了我過去人生幾十年的作品。
  • 4:56 - 5:00
    輸入的數據僅來源於我,
    輸出的結果卻遠超於我。
  • 5:00 - 5:01
    我感到非常興奮,
  • 5:01 - 5:06
    或許機器不該只是工具,
  • 5:06 - 5:09
    它還可以是非人的合作者。
  • 5:10 - 5:11
    更進一步想,
  • 5:11 - 5:15
    也許未來的人類創作
    不在於作品本身,
  • 5:15 - 5:19
    而在於人機共同探索藝術的方式。
  • 5:19 - 5:21
    如果說一代「道格」是肌肉,
  • 5:21 - 5:23
    二代「道格」是大腦,
  • 5:23 - 5:26
    三代「道格」便是家人。
  • 5:26 - 5:31
    我想要將人機合作的想法放大。
  • 5:31 - 5:33
    於是在過去幾個月裡,
  • 5:33 - 5:36
    我和團隊造出了 20 個定製的機器人
  • 5:36 - 5:38
    與我集體創作。
  • 5:38 - 5:39
    它們會像團隊一樣協作,
  • 5:39 - 5:42
    我和它們一起,
    與整個紐約市攜手合作。
  • 5:42 - 5:46
    史丹佛大學的李飛飛教授
    激勵了我的靈感,她說:
  • 5:46 - 5:48
    「要想教機器如何思考,
  • 5:48 - 5:50
    先要教它如何看見。」
  • 5:50 - 5:52
    這讓我想起了
    過去幾十年的紐約生活,
  • 5:52 - 5:56
    城市上空的攝像頭一直俯視著我。
  • 5:56 - 5:58
    如果我用它們來訓練機器視覺,
  • 5:58 - 6:01
    那一定很有趣。
  • 6:01 - 6:03
    在這個專案中,
  • 6:03 - 6:05
    我思考著機器對我們的凝視。
  • 6:05 - 6:08
    於是我開始將視覺看成多元的,
  • 6:08 - 6:10
    看成某處來的觀點。
  • 6:10 - 6:12
    我們從各處收集影片,
  • 6:12 - 6:15
    網路上的公眾攝影機拍的影片,
  • 6:15 - 6:17
    人行道上的行人,
  • 6:17 - 6:18
    車道上的轎車、計程車……
  • 6:18 - 6:20
    城市中的各類運動軌跡。
  • 6:21 - 6:24
    基於一種叫「光流法」的技術,
  • 6:24 - 6:26
    我們訓練了一個視覺算法,
  • 6:26 - 6:28
    來分析收集到的人流密度,
  • 6:28 - 6:32
    都市中軌跡的方向、速度,
    以及生活方式。
  • 6:32 - 6:36
    系統從海量的位置數據中
    提取出這些參數,
  • 6:36 - 6:40
    我的機器人依靠這些數據來作畫。
  • 6:40 - 6:42
    與之前的一對一合作不同,
  • 6:42 - 6:45
    我們實現了多對多的合作。
  • 6:45 - 6:49
    透過結合城市中
    人類與機器的視界,
  • 6:49 - 6:52
    我們重構了景觀繪畫。
  • 6:52 - 6:54
    在與「道格」共同作畫的經歷中,
  • 6:54 - 6:57
    沒有哪兩次是完全相同的。
  • 6:57 - 6:58
    透過合作,
  • 6:58 - 7:01
    我們完成了無法獨自做到的事,
  • 7:01 - 7:04
    我們共同探索了創作的邊界、
  • 7:04 - 7:07
    人類與非人類的平行工作。
  • 7:08 - 7:10
    我想這才剛剛開始。
  • 7:11 - 7:13
    今年, 我創辦了 Scilicet 實驗室,
  • 7:13 - 7:17
    以探索人類和人類間的合作。
  • 7:17 - 7:21
    我們對人類、AI 與生態系統之間的
  • 7:21 - 7:24
    反饋關係很感興趣。
  • 7:24 - 7:27
    我們將人類和 AI
  • 7:27 - 7:30
    與生物特徵識別數據
    和其他環境數據相聯繫,
  • 7:30 - 7:34
    我們邀請所有
    對未來的作品、系統、
  • 7:34 - 7:35
    人類合作感興趣的人
  • 7:35 - 7:37
    加入我們,一同探索。
  • 7:37 - 7:40
    這項事業不僅屬於科技工作者,
  • 7:40 - 7:42
    每個人都能作出貢獻。
  • 7:42 - 7:44
    我們相信
  • 7:44 - 7:47
    透過教授機器
    完成人類的傳統工作,
  • 7:47 - 7:50
    我們就能探索和更新
  • 7:50 - 7:53
    對人類創造可能性的認知。
  • 7:53 - 7:56
    這段旅程的一部分是悅納不完美,
  • 7:56 - 8:00
    發現人機共有的缺陷,
  • 8:00 - 8:03
    以此更好地發掘兩者的潛能。
  • 8:03 - 8:08
    今天,我仍追求著人機創作的美妙。
  • 8:08 - 8:11
    我還不知道未來這會變得怎樣,
  • 8:12 - 8:14
    但我滿懷好奇,探索不止。
  • 8:14 - 8:15
    謝謝大家。
  • 8:15 - 8:17
    (掌聲)
Title:
與機器人共同作畫
Speaker:
鍾愫君
Description:

當人類和機器人共同創造藝術時,會發生什麼?在這場令人歎為觀止的演講中,藝術家鍾愫君(Sougwen Chung)展示了她如何將自己的藝術風格「傳授」給機器,並在意外發現機器人也犯錯誤後,分享了他們的合作成果。她說:「人機系統的優點之一就是他們固有的、共同的失誤。」

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
08:30

Chinese, Traditional subtitles

Revisions