0:00:17.816,0:00:21.325 我們的世界在許多方面一直在變, 0:00:21.325,0:00:25.975 其中一樣會對我們的未來[br]產生巨大影響的是 0:00:25.975,0:00:29.363 人工智慧(AI), 0:00:29.363,0:00:32.953 將會帶來另一場工業革命。 0:00:33.627,0:00:39.504 之前的工業革命[br]擴大了人類的機械能力; 0:00:40.014,0:00:42.143 這場新的革命, 0:00:42.143,0:00:45.572 這第二次的機械時代 0:00:45.572,0:00:51.710 將會拓展我們的認知能力和腦力。 0:00:52.782,0:00:57.177 電腦不僅將取代體力勞動, 0:00:57.597,0:00:59.897 還將取代腦力活動。 0:01:00.500,0:01:03.450 那麼我們如今立足在何處呢? 0:01:04.034,0:01:07.724 你可能聽說去年三月發生的事情, 0:01:07.724,0:01:11.776 一個被稱為 AlphaGo 的[br]機器學習系統 0:01:11.776,0:01:17.708 用深度學習擊敗了[br]當時的世界圍棋冠軍。 0:01:18.279,0:01:20.679 圍棋是古老的中國棋戲, 0:01:20.679,0:01:23.288 對於電腦來說, 0:01:23.288,0:01:25.982 遠比西洋棋更難掌握。 0:01:26.893,0:01:32.086 經過幾十年的人工智慧研究,[br]我們如今是如何辦到的? 0:01:33.068,0:01:36.698 AlphaGo 專門被訓練來下圍棋, 0:01:37.678,0:01:41.300 先是大量觀察人類高段棋手 0:01:41.814,0:01:46.894 數千萬次的出招。 0:01:47.746,0:01:52.496 接著自我對弈幾百萬次。 0:01:54.222,0:01:59.941 機器學習讓電腦從實例中學習, 0:02:00.465,0:02:02.575 從數據中學習。 0:02:03.885,0:02:06.675 機器學習已成為 0:02:06.675,0:02:11.635 將知識塞進電腦裡的關鍵。 0:02:12.174,0:02:14.066 這很重要, 0:02:14.066,0:02:19.296 因為知識是智能發展的推手。 0:02:20.438,0:02:26.768 之前要把知識放進電腦,[br]對人工智慧而言極具挑戰性。 0:02:27.515,0:02:28.745 為什麼? 0:02:29.059,0:02:34.589 我們憑直覺認知很多事情, 0:02:34.601,0:02:38.611 無法口頭表達, 0:02:38.619,0:02:42.420 無法有意識地取用哪些知識。 0:02:43.270,0:02:46.811 在無所知的情況下[br]如何為電腦寫程式呢? 0:02:47.664,0:02:49.114 怎麼解決呢? 0:02:49.314,0:02:55.343 就是讓機器自己學習知識, 0:02:55.343,0:02:56.443 和我們人類一樣。 0:02:56.443,0:02:58.048 這非常重要, 0:02:58.048,0:03:02.969 因為知識是智能發展的推手。 0:03:02.969,0:03:06.974 我的任務就是通過學習 0:03:06.974,0:03:12.676 來發現和理解智能發展的原理, 0:03:13.166,0:03:17.828 無論是動物、人類還是機器學習。 0:03:19.450,0:03:25.066 我們相信有幾個關鍵原則, 0:03:25.066,0:03:27.296 正如物理定律一樣。 0:03:27.885,0:03:32.745 簡單的原理可以解釋我們自身的智能, 0:03:32.745,0:03:36.741 幫助我們建造智能的機器。 0:03:37.885,0:03:41.595 以空氣動力學定律為例, 0:03:41.595,0:03:48.036 它足以解釋鳥類和飛機的飛行。 0:03:49.146,0:03:52.263 若能發現同樣簡單卻有力的原理 0:03:52.263,0:03:55.381 用來解釋智能本身, 0:03:55.381,0:03:59.186 豈不是很棒? 0:04:00.026,0:04:03.394 我們已有若干進展。 0:04:04.384,0:04:06.220 這些年來,我和合作者 0:04:06.220,0:04:11.940 貢獻於人工智慧領域的變革, 0:04:11.950,0:04:16.397 藉由研究神經網路和深度學習, 0:04:16.397,0:04:20.693 那是種受大腦啟發的機器學習法。 0:04:22.041,0:04:26.743 它始於手機上的語音識別, 0:04:26.743,0:04:29.963 自 2012 年起就用了神經網路。 0:04:30.977,0:04:35.647 不久後在電腦視覺上取得了突破。 0:04:36.680,0:04:43.087 現在電腦極會辨識圖像的內容。 0:04:43.674,0:04:49.597 事實上,過去五年在一些基準上[br]已近似於人類的表現。 0:04:50.711,0:04:57.297 現在電腦已能直覺地[br]以視覺辨讀圍棋的棋盤, 0:04:58.191,0:05:01.356 足以和人類的高手媲美。 0:05:01.763,0:05:03.454 最近, 0:05:03.454,0:05:06.584 根據我實驗室的一些發現, 0:05:06.584,0:05:11.408 深度學習被用來翻譯語言, 0:05:11.414,0:05:14.441 已經被用在谷歌翻譯上。 0:05:15.191,0:05:18.192 它拓展了電腦 0:05:18.192,0:05:22.532 理解和生成自然語言的能力。 0:05:23.550,0:05:25.517 但是,別被愚弄了。 0:05:25.517,0:05:30.085 機器要能夠像人類那樣 0:05:30.085,0:05:34.800 學習掌握世界各方面的事情 0:05:34.800,0:05:37.588 還非常非常遙遠。 0:05:38.541,0:05:41.237 讓我們舉個例子。 0:05:41.637,0:05:44.707 即使是兩歲的孩子 0:05:44.707,0:05:50.657 也能夠用電腦現在[br]無法做到的方式學習事物。 0:05:51.767,0:05:56.169 兩歲的孩子其實已經[br]掌握直觀的物理學。 0:05:56.968,0:06:01.908 她知道如果扔了球,球會落下。 0:06:02.493,0:06:06.093 當她把液體灑出來,[br]她能預期會弄髒地板。 0:06:06.586,0:06:09.516 根本不需要她的父母教她 0:06:09.516,0:06:12.980 牛頓定律或者微分方程。 0:06:13.840,0:06:20.200 她以「無監督學習」方式,[br]自己發現這一切。 0:06:21.352,0:06:27.712 事實上,無監督學習仍是[br]人工智慧所面臨的關鍵挑戰之一, 0:06:28.184,0:06:33.014 可能還需要花上[br]好幾十年的基礎研究 0:06:33.014,0:06:34.674 來解開這個結。 0:06:34.674,0:06:40.895 事實上,無監督學習[br]試圖發現數據的表現形式。 0:06:41.729,0:06:43.779 讓我舉個例子。 0:06:44.364,0:06:49.346 試想你用雙眼看著屏幕上的一頁, 0:06:49.346,0:06:54.196 電腦則將其視為一堆像素的圖像。 0:06:54.993,0:07:00.113 為了回答圖像內容之類的問題, 0:07:00.863,0:07:05.211 你需要理解它的高層次含義。 0:07:05.674,0:07:08.808 這種高層次含義對應 0:07:08.808,0:07:12.321 你腦中的最高層表現形式; 0:07:12.906,0:07:18.308 往下是單詞的個別含義; 0:07:19.188,0:07:23.798 更往下是由字母拼湊出來的單詞。 0:07:24.810,0:07:27.677 這些字母可由不同筆劃構成, 0:07:27.677,0:07:30.879 以不同的方式呈現。 0:07:31.559,0:07:34.839 這些筆劃是由「邊線」所組成的, 0:07:34.839,0:07:37.284 而這些邊線則是像素組成的。 0:07:37.284,0:07:40.454 以上這些是不同層次的表現形式。 0:07:41.079,0:07:46.550 但是像素本身不足以讓圖像 0:07:46.584,0:07:51.904 能夠回答頁面內容這樣的高層次問題。 0:07:52.932,0:07:57.594 事實上,你的大腦有[br]不同層級的表現形式。 0:07:57.594,0:08:02.291 從大腦皮層的第一個視覺區域的[br]神經元開始——V1, 0:08:02.291,0:08:04.596 它會識別圖像的邊線。 0:08:04.596,0:08:09.334 接著,在大腦皮層[br]第二個視覺區的神經元——V2 0:08:09.334,0:08:12.800 能識別筆劃和小圖形。 0:08:12.800,0:08:17.060 再往上有神經元來識別物體的局部, 0:08:17.060,0:08:19.992 然後是物體和整個場景。 0:08:21.182,0:08:24.757 受過圖像訓練的神經網路 0:08:24.757,0:08:28.860 真能發現這類層次的表達形式, 0:08:28.860,0:08:32.778 與我們腦中觀察到的十分吻合。 0:08:33.638,0:08:38.798 無論是生物的神經網路,[br]也就是我們腦中的神經網路, 0:08:38.804,0:08:42.828 還是在機器上訓練的深層神經網路, 0:08:42.845,0:08:48.075 都能學會把某一層的表現形式,[br]轉變成下一層的形式; 0:08:48.369,0:08:53.299 越高層次的表現形式[br]對應越抽象的概念。 0:08:53.299,0:08:57.562 例如,字母 A 的抽象概念 0:08:57.562,0:09:00.891 在最底層可有許多不同的表現形式, 0:09:00.891,0:09:03.887 可以呈現出許多不同的像素配置, 0:09:03.887,0:09:09.097 根據位置、旋轉、字體等配置。 0:09:10.445,0:09:15.815 那麼該如何學習這些[br]高層次的表現形式呢? 0:09:16.962,0:09:23.066 目前為止,深度學習的[br]某種應用非常成功, 0:09:23.066,0:09:25.985 我們稱之為「監督學習」。 0:09:26.297,0:09:31.588 在監督學習的情況下,[br]電腦需被拉著手學習, 0:09:31.594,0:09:35.467 人類必須告訴電腦[br]許多問題的答案。 0:09:35.467,0:09:39.238 例如在數百萬的圖像中, 0:09:39.238,0:09:41.420 人們必須告訴機器, 0:09:41.420,0:09:44.271 這張圖是一隻貓, 0:09:44.511,0:09:47.095 這張圖是一隻狗, 0:09:47.095,0:09:49.585 這張圖是一台筆電, 0:09:49.605,0:09:52.600 這張圖是個鍵盤等等, 0:09:52.600,0:09:55.595 以此類推數百萬次。 0:09:56.066,0:10:01.026 這工作非常惱人, [br]所以我們用群眾外包來做。 0:10:01.461,0:10:03.396 雖然它非常強, 0:10:03.416,0:10:06.269 讓我們能夠解決許多有趣的問題, 0:10:06.269,0:10:08.313 但是人類更強, 0:10:08.313,0:10:13.560 人類能夠更加自主學習[br]世上更多不同層面的事。 0:10:13.809,0:10:17.609 如同我們所見,孩子直觀學習物理。 0:10:17.625,0:10:23.739 無監督學習也能幫我們研發自駕車。 0:10:24.567,0:10:26.097 讓我來解釋一下: 0:10:26.097,0:10:31.835 無監督學習讓電腦[br]將自己投射到未來, 0:10:31.835,0:10:37.205 根據當前的情況生成可信的未來。 0:10:38.369,0:10:42.899 這讓電腦能夠推理和提前計劃。 0:10:43.450,0:10:47.985 即使碰上還未訓練的情境也能處理。 0:10:48.751,0:10:50.441 這很重要, 0:10:50.441,0:10:53.951 因為用監督學習,[br]必須告訴電腦, 0:10:53.951,0:10:57.395 汽車可能會遇到的各種情況 0:10:57.395,0:11:01.375 以及人們在這些情況下的反應。 0:11:02.451,0:11:06.191 人怎麼學會避免危險的駕駛行為呢? 0:11:07.276,0:11:10.791 難道必須死於交通事故一千次嗎? 0:11:10.793,0:11:12.106 (笑聲) 0:11:12.106,0:11:14.606 這是我們現在訓練機器的方法。 0:11:15.175,0:11:18.340 所以它不會飛、至少不會開車。 0:11:18.340,0:11:19.928 (笑聲) 0:11:21.288,0:11:25.657 因此我們需要訓練模型 0:11:25.657,0:11:31.924 能夠產生可信的圖像或未來,[br]然後變得有創造性。 0:11:31.924,0:11:33.934 我們正在這方面取得進展。 0:11:33.934,0:11:37.457 我們正在訓練這些深層神經網路 0:11:37.463,0:11:40.818 從高層次的含義到像素, 0:11:40.818,0:11:43.298 而不是從像素到高層次含義, 0:11:43.307,0:11:46.787 是從另一個方向表達。 0:11:46.787,0:11:51.181 這樣電腦能生成新的圖像, 0:11:51.191,0:11:56.312 和它們受訓時所見的圖像完全不同。[br](註:分為訓練數據和測試數據) 0:11:57.018,0:12:00.369 但這些是可信,看起來自然的圖像。 0:12:01.888,0:12:06.332 我們也可以用這些模型[br]來幻想一些奇怪 0:12:06.342,0:12:09.492 甚至可怕的圖像, 0:12:09.492,0:12:11.795 像我們在夢裡、噩夢裡看到的那樣。 0:12:12.682,0:12:16.847 這裡有些電腦用深度圖表模型 0:12:16.847,0:12:19.826 所合成的圖像。 0:12:19.826,0:12:21.651 它們看上去就像自然圖像, 0:12:21.651,0:12:25.191 但是如果近看就會發現還是有區別, 0:12:25.191,0:12:30.616 它們仍缺少一些[br]我們視為自然的重要細節。 0:12:31.995,0:12:33.951 大約 10 年前, 0:12:33.951,0:12:36.725 無監督學習是我們 0:12:36.725,0:12:41.798 突破深度學習的關鍵。 0:12:44.140,0:12:48.055 這種情況發生在少數實驗室, [br]包括我的實驗室, 0:12:48.055,0:12:51.455 當時神經網路還未流行, 0:12:51.455,0:12:55.217 幾乎被科學界所拋棄。 0:12:56.394,0:12:58.935 如今大不相同, 0:12:58.935,0:13:01.375 它已成為火熱的領域。 0:13:01.384,0:13:06.933 如今每年有成百上千的學生[br]申請研究所入學, 0:13:06.954,0:13:09.784 到我的實驗室[br]和我的同仁一起工作。 0:13:11.010,0:13:14.652 蒙特利爾已成為世界上最大的 0:13:14.652,0:13:19.387 深度學習研究人員學術聚集地。 0:13:20.182,0:13:26.115 我們剛收到 9400 萬美元的[br]巨額研究經費, 0:13:26.127,0:13:29.797 用於推動人工智慧[br]和數據科學的發展, 0:13:29.797,0:13:36.067 把深度學習技術[br]和數據科學技轉到工業界。 0:13:37.249,0:13:43.791 受到這些刺激的商業人士[br]新創公司、工業實驗室, 0:13:43.791,0:13:46.914 其中許多間就座落於大學附近。 0:13:48.543,0:13:51.265 例如幾週前 0:13:51.265,0:13:54.733 我們宣布成立一家名為 0:13:54.733,0:13:56.507 「Element AI」的新創工廠, 0:13:56.507,0:13:59.605 它將專注於深度學習的應用上。 0:14:01.562,0:14:05.722 深度學習的專家不多, 0:14:06.355,0:14:10.677 所以那些專家被支付高薪。 0:14:11.027,0:14:17.212 許多我學術界的前同事[br]接受公司給的高薪 0:14:17.228,0:14:20.518 去工業實驗室工作。 0:14:21.081,0:14:25.010 我自己選擇待在大學 0:14:25.010,0:14:27.166 為公眾利益工作, 0:14:27.166,0:14:28.886 和學生們一起工作, 0:14:28.902,0:14:30.592 保持獨立, 0:14:30.596,0:14:34.836 指導下一代的深度學習專家。 0:14:35.294,0:14:41.024 除了商業價值, 0:14:41.024,0:14:44.654 我們還思考人工智慧對社會的影響。 0:14:45.881,0:14:50.026 我們中的許多人現在開始把目光 0:14:50.026,0:14:55.986 投向於社會增值應用,例如健康。 0:14:56.457,0:14:58.956 我們認為可以利用深度學習 0:14:58.956,0:15:02.696 來改進個別化的治療。 0:15:03.956,0:15:05.671 我相信在未來, 0:15:05.671,0:15:10.361 在收集全球數百萬、[br]數十億人的更多數據後, 0:15:10.361,0:15:13.856 我們將能夠提供醫療建議 0:15:13.856,0:15:17.246 給數十億現在得不到的人。 0:15:17.601,0:15:22.724 我們想像人工智慧[br]在社會價值方面的許多其他應用。 0:15:23.140,0:15:28.244 例如,我們對自然語言理解的研究, 0:15:29.058,0:15:31.199 將會為那些無法負擔的人們 0:15:31.199,0:15:34.059 提供各式各樣的服務,[br]比如法律服務。 0:15:34.512,0:15:37.342 我們如今同樣也將目光 0:15:37.342,0:15:41.132 轉向了人工智慧[br]對我們社區的社會影響。 0:15:41.690,0:15:44.801 但這不僅僅是專家需要思考的問題。 0:15:46.026,0:15:49.936 我相信這事超越數學和專業術語, 0:15:49.936,0:15:53.102 普通人能充分知曉 0:15:53.138,0:15:55.901 幕後發生了什麼事, 0:15:55.901,0:16:01.191 從而參與未來幾年,乃至幾十年的 0:16:01.191,0:16:06.547 有關人工智慧的重要決策。 0:16:07.580,0:16:09.280 所以, 0:16:09.930,0:16:16.230 請預留費用和空間讓自己去學習吧。 0:16:17.842,0:16:22.532 我和合作者寫了幾篇介紹性論文 0:16:22.542,0:16:25.376 和一本名為《深度學習》的書, 0:16:25.376,0:16:29.619 來幫助學生和工程師[br]進入這個令人興奮的領域。 0:16:30.659,0:16:35.784 同樣也有許多線上的資源: [br]軟體、學習指南、影片等等。 0:16:36.310,0:16:41.210 許多大學生自學了 0:16:41.210,0:16:44.548 很多關於深度學習的研究, 0:16:44.548,0:16:47.835 為了之後加入實驗室的行列,[br]像是我的實驗室。 0:16:49.370,0:16:55.170 人工智慧將對我們社會[br]產生深遠的影響。 0:16:56.652,0:17:01.672 所以重要的是問:我們該如何用它? 0:17:03.368,0:17:07.896 巨大的正面影響可能伴隨負面影響, 0:17:07.896,0:17:10.166 譬如軍事的應用 0:17:10.797,0:17:15.357 或急速顛覆性的就業市場變化。 0:17:15.948,0:17:19.349 為了確保在未來的幾年內 0:17:19.349,0:17:23.074 人工智慧所面臨的集體選擇 0:17:23.074,0:17:25.144 將會對所有人有利, 0:17:25.144,0:17:28.684 每一個公民應該積極發揮作用 0:17:28.684,0:17:32.911 共同來定義人工智慧[br]將如何塑造我們的未來。 0:17:33.871,0:17:34.891 謝謝。 0:17:35.065,0:17:39.395 (掌聲)