Return to Video

通過深度學習崛起的人工智慧 | 約書亞·班吉歐 | TEDxMontreal

  • 0:18 - 0:21
    我們的世界在許多方面一直在變,
  • 0:21 - 0:26
    其中一樣會對我們的未來
    產生巨大影響的是
  • 0:26 - 0:29
    人工智慧(AI),
  • 0:29 - 0:33
    將會帶來另一場工業革命。
  • 0:34 - 0:40
    之前的工業革命
    擴大了人類的機械能力;
  • 0:40 - 0:42
    這場新的革命,
  • 0:42 - 0:46
    這第二次的機械時代
  • 0:46 - 0:52
    將會拓展我們的認知能力和腦力。
  • 0:53 - 0:57
    電腦不僅將取代體力勞動,
  • 0:58 - 1:00
    還將取代腦力活動。
  • 1:00 - 1:03
    那麼我們如今立足在何處呢?
  • 1:04 - 1:08
    你可能聽說去年三月發生的事情,
  • 1:08 - 1:12
    一個被稱為 AlphaGo 的
    機器學習系統
  • 1:12 - 1:18
    用深度學習擊敗了
    當時的世界圍棋冠軍。
  • 1:18 - 1:21
    圍棋是古老的中國棋戲,
  • 1:21 - 1:23
    對於電腦來說,
  • 1:23 - 1:26
    遠比西洋棋更難掌握。
  • 1:27 - 1:32
    經過幾十年的人工智慧研究,
    我們如今是如何辦到的?
  • 1:33 - 1:37
    AlphaGo 專門被訓練來下圍棋,
  • 1:38 - 1:41
    先是大量觀察人類高段棋手
  • 1:42 - 1:47
    數千萬次的出招。
  • 1:48 - 1:52
    接著自我對弈幾百萬次。
  • 1:54 - 2:00
    機器學習讓電腦從實例中學習,
  • 2:00 - 2:03
    從數據中學習。
  • 2:04 - 2:07
    機器學習已成為
  • 2:07 - 2:12
    將知識塞進電腦裡的關鍵。
  • 2:12 - 2:14
    這很重要,
  • 2:14 - 2:19
    因為知識是智能發展的推手。
  • 2:20 - 2:27
    之前要把知識放進電腦,
    對人工智慧而言極具挑戰性。
  • 2:28 - 2:29
    為什麼?
  • 2:29 - 2:35
    我們憑直覺認知很多事情,
  • 2:35 - 2:39
    無法口頭表達,
  • 2:39 - 2:42
    無法有意識地取用哪些知識。
  • 2:43 - 2:47
    在無所知的情況下
    如何為電腦寫程式呢?
  • 2:48 - 2:49
    怎麼解決呢?
  • 2:49 - 2:55
    就是讓機器自己學習知識,
  • 2:55 - 2:56
    和我們人類一樣。
  • 2:56 - 2:58
    這非常重要,
  • 2:58 - 3:03
    因為知識是智能發展的推手。
  • 3:03 - 3:07
    我的任務就是通過學習
  • 3:07 - 3:13
    來發現和理解智能發展的原理,
  • 3:13 - 3:18
    無論是動物、人類還是機器學習。
  • 3:19 - 3:25
    我們相信有幾個關鍵原則,
  • 3:25 - 3:27
    正如物理定律一樣。
  • 3:28 - 3:33
    簡單的原理可以解釋我們自身的智能,
  • 3:33 - 3:37
    幫助我們建造智能的機器。
  • 3:38 - 3:42
    以空氣動力學定律為例,
  • 3:42 - 3:48
    它足以解釋鳥類和飛機的飛行。
  • 3:49 - 3:52
    若能發現同樣簡單卻有力的原理
  • 3:52 - 3:55
    用來解釋智能本身,
  • 3:55 - 3:59
    豈不是很棒?
  • 4:00 - 4:03
    我們已有若干進展。
  • 4:04 - 4:06
    這些年來,我和合作者
  • 4:06 - 4:12
    貢獻於人工智慧領域的變革,
  • 4:12 - 4:16
    藉由研究神經網路和深度學習,
  • 4:16 - 4:21
    那是種受大腦啟發的機器學習法。
  • 4:22 - 4:27
    它始於手機上的語音識別,
  • 4:27 - 4:30
    自 2012 年起就用了神經網路。
  • 4:31 - 4:36
    不久後在電腦視覺上取得了突破。
  • 4:37 - 4:43
    現在電腦極會辨識圖像的內容。
  • 4:44 - 4:50
    事實上,過去五年在一些基準上
    已近似於人類的表現。
  • 4:51 - 4:57
    現在電腦已能直覺地
    以視覺辨讀圍棋的棋盤,
  • 4:58 - 5:01
    足以和人類的高手媲美。
  • 5:02 - 5:03
    最近,
  • 5:03 - 5:07
    根據我實驗室的一些發現,
  • 5:07 - 5:11
    深度學習被用來翻譯語言,
  • 5:11 - 5:14
    已經被用在谷歌翻譯上。
  • 5:15 - 5:18
    它拓展了電腦
  • 5:18 - 5:23
    理解和生成自然語言的能力。
  • 5:24 - 5:26
    但是,別被愚弄了。
  • 5:26 - 5:30
    機器要能夠像人類那樣
  • 5:30 - 5:35
    學習掌握世界各方面的事情
  • 5:35 - 5:38
    還非常非常遙遠。
  • 5:39 - 5:41
    讓我們舉個例子。
  • 5:42 - 5:45
    即使是兩歲的孩子
  • 5:45 - 5:51
    也能夠用電腦現在
    無法做到的方式學習事物。
  • 5:52 - 5:56
    兩歲的孩子其實已經
    掌握直觀的物理學。
  • 5:57 - 6:02
    她知道如果扔了球,球會落下。
  • 6:02 - 6:06
    當她把液體灑出來,
    她能預期會弄髒地板。
  • 6:07 - 6:10
    根本不需要她的父母教她
  • 6:10 - 6:13
    牛頓定律或者微分方程。
  • 6:14 - 6:20
    她以「無監督學習」方式,
    自己發現這一切。
  • 6:21 - 6:28
    事實上,無監督學習仍是
    人工智慧所面臨的關鍵挑戰之一,
  • 6:28 - 6:33
    可能還需要花上
    好幾十年的基礎研究
  • 6:33 - 6:35
    來解開這個結。
  • 6:35 - 6:41
    事實上,無監督學習
    試圖發現數據的表現形式。
  • 6:42 - 6:44
    讓我舉個例子。
  • 6:44 - 6:49
    試想你用雙眼看著屏幕上的一頁,
  • 6:49 - 6:54
    電腦則將其視為一堆像素的圖像。
  • 6:55 - 7:00
    為了回答圖像內容之類的問題,
  • 7:01 - 7:05
    你需要理解它的高層次含義。
  • 7:06 - 7:09
    這種高層次含義對應
  • 7:09 - 7:12
    你腦中的最高層表現形式;
  • 7:13 - 7:18
    往下是單詞的個別含義;
  • 7:19 - 7:24
    更往下是由字母拼湊出來的單詞。
  • 7:25 - 7:28
    這些字母可由不同筆劃構成,
  • 7:28 - 7:31
    以不同的方式呈現。
  • 7:32 - 7:35
    這些筆劃是由「邊線」所組成的,
  • 7:35 - 7:37
    而這些邊線則是像素組成的。
  • 7:37 - 7:40
    以上這些是不同層次的表現形式。
  • 7:41 - 7:47
    但是像素本身不足以讓圖像
  • 7:47 - 7:52
    能夠回答頁面內容這樣的高層次問題。
  • 7:53 - 7:58
    事實上,你的大腦有
    不同層級的表現形式。
  • 7:58 - 8:02
    從大腦皮層的第一個視覺區域的
    神經元開始——V1,
  • 8:02 - 8:05
    它會識別圖像的邊線。
  • 8:05 - 8:09
    接著,在大腦皮層
    第二個視覺區的神經元——V2
  • 8:09 - 8:13
    能識別筆劃和小圖形。
  • 8:13 - 8:17
    再往上有神經元來識別物體的局部,
  • 8:17 - 8:20
    然後是物體和整個場景。
  • 8:21 - 8:25
    受過圖像訓練的神經網路
  • 8:25 - 8:29
    真能發現這類層次的表達形式,
  • 8:29 - 8:33
    與我們腦中觀察到的十分吻合。
  • 8:34 - 8:39
    無論是生物的神經網路,
    也就是我們腦中的神經網路,
  • 8:39 - 8:43
    還是在機器上訓練的深層神經網路,
  • 8:43 - 8:48
    都能學會把某一層的表現形式,
    轉變成下一層的形式;
  • 8:48 - 8:53
    越高層次的表現形式
    對應越抽象的概念。
  • 8:53 - 8:58
    例如,字母 A 的抽象概念
  • 8:58 - 9:01
    在最底層可有許多不同的表現形式,
  • 9:01 - 9:04
    可以呈現出許多不同的像素配置,
  • 9:04 - 9:09
    根據位置、旋轉、字體等配置。
  • 9:10 - 9:16
    那麼該如何學習這些
    高層次的表現形式呢?
  • 9:17 - 9:23
    目前為止,深度學習的
    某種應用非常成功,
  • 9:23 - 9:26
    我們稱之為「監督學習」。
  • 9:26 - 9:32
    在監督學習的情況下,
    電腦需被拉著手學習,
  • 9:32 - 9:35
    人類必須告訴電腦
    許多問題的答案。
  • 9:35 - 9:39
    例如在數百萬的圖像中,
  • 9:39 - 9:41
    人們必須告訴機器,
  • 9:41 - 9:44
    這張圖是一隻貓,
  • 9:45 - 9:47
    這張圖是一隻狗,
  • 9:47 - 9:50
    這張圖是一台筆電,
  • 9:50 - 9:53
    這張圖是個鍵盤等等,
  • 9:53 - 9:56
    以此類推數百萬次。
  • 9:56 - 10:01
    這工作非常惱人,
    所以我們用群眾外包來做。
  • 10:01 - 10:03
    雖然它非常強,
  • 10:03 - 10:06
    讓我們能夠解決許多有趣的問題,
  • 10:06 - 10:08
    但是人類更強,
  • 10:08 - 10:14
    人類能夠更加自主學習
    世上更多不同層面的事。
  • 10:14 - 10:18
    如同我們所見,孩子直觀學習物理。
  • 10:18 - 10:24
    無監督學習也能幫我們研發自駕車。
  • 10:25 - 10:26
    讓我來解釋一下:
  • 10:26 - 10:32
    無監督學習讓電腦
    將自己投射到未來,
  • 10:32 - 10:37
    根據當前的情況生成可信的未來。
  • 10:38 - 10:43
    這讓電腦能夠推理和提前計劃。
  • 10:43 - 10:48
    即使碰上還未訓練的情境也能處理。
  • 10:49 - 10:50
    這很重要,
  • 10:50 - 10:54
    因為用監督學習,
    必須告訴電腦,
  • 10:54 - 10:57
    汽車可能會遇到的各種情況
  • 10:57 - 11:01
    以及人們在這些情況下的反應。
  • 11:02 - 11:06
    人怎麼學會避免危險的駕駛行為呢?
  • 11:07 - 11:11
    難道必須死於交通事故一千次嗎?
  • 11:11 - 11:12
    (笑聲)
  • 11:12 - 11:15
    這是我們現在訓練機器的方法。
  • 11:15 - 11:18
    所以它不會飛、至少不會開車。
  • 11:18 - 11:20
    (笑聲)
  • 11:21 - 11:26
    因此我們需要訓練模型
  • 11:26 - 11:32
    能夠產生可信的圖像或未來,
    然後變得有創造性。
  • 11:32 - 11:34
    我們正在這方面取得進展。
  • 11:34 - 11:37
    我們正在訓練這些深層神經網路
  • 11:37 - 11:41
    從高層次的含義到像素,
  • 11:41 - 11:43
    而不是從像素到高層次含義,
  • 11:43 - 11:47
    是從另一個方向表達。
  • 11:47 - 11:51
    這樣電腦能生成新的圖像,
  • 11:51 - 11:56
    和它們受訓時所見的圖像完全不同。
    (註:分為訓練數據和測試數據)
  • 11:57 - 12:00
    但這些是可信,看起來自然的圖像。
  • 12:02 - 12:06
    我們也可以用這些模型
    來幻想一些奇怪
  • 12:06 - 12:09
    甚至可怕的圖像,
  • 12:09 - 12:12
    像我們在夢裡、噩夢裡看到的那樣。
  • 12:13 - 12:17
    這裡有些電腦用深度圖表模型
  • 12:17 - 12:20
    所合成的圖像。
  • 12:20 - 12:22
    它們看上去就像自然圖像,
  • 12:22 - 12:25
    但是如果近看就會發現還是有區別,
  • 12:25 - 12:31
    它們仍缺少一些
    我們視為自然的重要細節。
  • 12:32 - 12:34
    大約 10 年前,
  • 12:34 - 12:37
    無監督學習是我們
  • 12:37 - 12:42
    突破深度學習的關鍵。
  • 12:44 - 12:48
    這種情況發生在少數實驗室,
    包括我的實驗室,
  • 12:48 - 12:51
    當時神經網路還未流行,
  • 12:51 - 12:55
    幾乎被科學界所拋棄。
  • 12:56 - 12:59
    如今大不相同,
  • 12:59 - 13:01
    它已成為火熱的領域。
  • 13:01 - 13:07
    如今每年有成百上千的學生
    申請研究所入學,
  • 13:07 - 13:10
    到我的實驗室
    和我的同仁一起工作。
  • 13:11 - 13:15
    蒙特利爾已成為世界上最大的
  • 13:15 - 13:19
    深度學習研究人員學術聚集地。
  • 13:20 - 13:26
    我們剛收到 9400 萬美元的
    巨額研究經費,
  • 13:26 - 13:30
    用於推動人工智慧
    和數據科學的發展,
  • 13:30 - 13:36
    把深度學習技術
    和數據科學技轉到工業界。
  • 13:37 - 13:44
    受到這些刺激的商業人士
    新創公司、工業實驗室,
  • 13:44 - 13:47
    其中許多間就座落於大學附近。
  • 13:49 - 13:51
    例如幾週前
  • 13:51 - 13:55
    我們宣布成立一家名為
  • 13:55 - 13:57
    「Element AI」的新創工廠,
  • 13:57 - 14:00
    它將專注於深度學習的應用上。
  • 14:02 - 14:06
    深度學習的專家不多,
  • 14:06 - 14:11
    所以那些專家被支付高薪。
  • 14:11 - 14:17
    許多我學術界的前同事
    接受公司給的高薪
  • 14:17 - 14:21
    去工業實驗室工作。
  • 14:21 - 14:25
    我自己選擇待在大學
  • 14:25 - 14:27
    為公眾利益工作,
  • 14:27 - 14:29
    和學生們一起工作,
  • 14:29 - 14:31
    保持獨立,
  • 14:31 - 14:35
    指導下一代的深度學習專家。
  • 14:35 - 14:41
    除了商業價值,
  • 14:41 - 14:45
    我們還思考人工智慧對社會的影響。
  • 14:46 - 14:50
    我們中的許多人現在開始把目光
  • 14:50 - 14:56
    投向於社會增值應用,例如健康。
  • 14:56 - 14:59
    我們認為可以利用深度學習
  • 14:59 - 15:03
    來改進個別化的治療。
  • 15:04 - 15:06
    我相信在未來,
  • 15:06 - 15:10
    在收集全球數百萬、
    數十億人的更多數據後,
  • 15:10 - 15:14
    我們將能夠提供醫療建議
  • 15:14 - 15:17
    給數十億現在得不到的人。
  • 15:18 - 15:23
    我們想像人工智慧
    在社會價值方面的許多其他應用。
  • 15:23 - 15:28
    例如,我們對自然語言理解的研究,
  • 15:29 - 15:31
    將會為那些無法負擔的人們
  • 15:31 - 15:34
    提供各式各樣的服務,
    比如法律服務。
  • 15:35 - 15:37
    我們如今同樣也將目光
  • 15:37 - 15:41
    轉向了人工智慧
    對我們社區的社會影響。
  • 15:42 - 15:45
    但這不僅僅是專家需要思考的問題。
  • 15:46 - 15:50
    我相信這事超越數學和專業術語,
  • 15:50 - 15:53
    普通人能充分知曉
  • 15:53 - 15:56
    幕後發生了什麼事,
  • 15:56 - 16:01
    從而參與未來幾年,乃至幾十年的
  • 16:01 - 16:07
    有關人工智慧的重要決策。
  • 16:08 - 16:09
    所以,
  • 16:10 - 16:16
    請預留費用和空間讓自己去學習吧。
  • 16:18 - 16:23
    我和合作者寫了幾篇介紹性論文
  • 16:23 - 16:25
    和一本名為《深度學習》的書,
  • 16:25 - 16:30
    來幫助學生和工程師
    進入這個令人興奮的領域。
  • 16:31 - 16:36
    同樣也有許多線上的資源:
    軟體、學習指南、影片等等。
  • 16:36 - 16:41
    許多大學生自學了
  • 16:41 - 16:45
    很多關於深度學習的研究,
  • 16:45 - 16:48
    為了之後加入實驗室的行列,
    像是我的實驗室。
  • 16:49 - 16:55
    人工智慧將對我們社會
    產生深遠的影響。
  • 16:57 - 17:02
    所以重要的是問:我們該如何用它?
  • 17:03 - 17:08
    巨大的正面影響可能伴隨負面影響,
  • 17:08 - 17:10
    譬如軍事的應用
  • 17:11 - 17:15
    或急速顛覆性的就業市場變化。
  • 17:16 - 17:19
    為了確保在未來的幾年內
  • 17:19 - 17:23
    人工智慧所面臨的集體選擇
  • 17:23 - 17:25
    將會對所有人有利,
  • 17:25 - 17:29
    每一個公民應該積極發揮作用
  • 17:29 - 17:33
    共同來定義人工智慧
    將如何塑造我們的未來。
  • 17:34 - 17:35
    謝謝。
  • 17:35 - 17:39
    (掌聲)
Title:
通過深度學習崛起的人工智慧 | 約書亞·班吉歐 | TEDxMontreal
Description:

得益於深度學習的進步,人工智慧領域正在發生一場革命。我們距離實現人類等級的人工智慧目標還有多遠?未來的主要挑戰是什麼?

約書亞·班吉歐(Yoshua Bengio)相信每個公民都能觸及和了解人工智慧(Artificial Intelligence, AI)的基本知識,這樣我們社會才能夠就 AI 帶來的重大變化做出最佳的集體決策,使這些變化對所有人都有利。

約書亞·班吉歐博士是深度學習領域的先驅之一。他是蒙特利爾學習演算法研究所(MILA)的負責人,蒙特利爾大學教授,神經信息處理系統大會(NIPS) 董事會成員和 Element AI 的共同創始人。他擁有麥吉爾大學的博士學位(1991年,計算機科學)及麻省理工學院和 AT&T 貝爾實驗室的博士後研究經驗;他擔任加拿大統計學習演算法研究所的主席,是加拿大高等科學研究所的資深研究員,共同指導與其計劃重點相關的深度學習。他以深度學習、遞歸網絡、神經語言模型、神經機器翻譯和生物學啟發機器學習的貢獻而聞名。

https://mila.umontreal.ca/en/
https://www.elementai.com/
請至 http://www.tedxmontreal.com 進一步了解。

此演講是以 TED 會議格式進行的 TEDx 活動,由當地社區獨立組織和舉辦。 請至 https://www.ted.com/tedx 進一步了解詳情。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
17:54

Chinese, Traditional subtitles

Revisions