< Return to Video

「人類+AI」構建商業未來

  • 0:01 - 0:03
    我來和大家分享發現的一個悖論。
  • 0:04 - 0:06
    在過去十年裡,
  • 0:06 - 0:10
    很多公司都想擺脫官僚化,
  • 0:10 - 0:13
    通過減少職務、精簡程序,
  • 0:13 - 0:16
    給團隊更多自主,
    讓公司運作更靈活。
  • 0:16 - 0:21
    現在,公司開始引進人工智慧,AI,
  • 0:21 - 0:23
    卻沒意識到這個很酷的科技,
  • 0:23 - 0:27
    可能讓他們比以前更官僚。
  • 0:27 - 0:29
    為什麼呢?
  • 0:29 - 0:32
    因為 AI 的運作方式就很官僚。
  • 0:32 - 0:35
    官僚的本質
  • 0:35 - 0:39
    就是看重規則和程序,
    而不是人類自身的判斷,
  • 0:40 - 0:44
    而 AI 僅依據規則做決策。
  • 0:44 - 0:47
    即便 AI 的規則
    依據過去的數據形成,
  • 0:47 - 0:49
    那也終究是規則。
  • 0:49 - 0:53
    如果將人類判斷置若罔聞,
  • 0:53 - 0:58
    對 AI 的運用將帶來
    可怕的新官僚主義——
  • 0:58 - 1:01
    我稱之為「AI 官僚主義」
    (algocracy),
  • 1:01 - 1:05
    意即 AI 將根據規則,
    不受人為控制,
  • 1:05 - 1:07
    做更多重要決策。
  • 1:08 - 1:10
    真有風險嗎?
  • 1:11 - 1:12
    當然有。
  • 1:12 - 1:15
    我領導的團隊
    由 800 位 AI 專家組成,
  • 1:15 - 1:18
    我們為很多全球的大公司
  • 1:18 - 1:21
    量身打造了超過 100 個 AI 系統。
  • 1:21 - 1:27
    我看過太多的公司高管
    因此而變得官僚作風。
  • 1:28 - 1:33
    他們對麻煩、老舊的
    人類決策嗤之以鼻,
  • 1:33 - 1:37
    完全依賴 AI 來做決策。
  • 1:37 - 1:41
    我稱之為「無人類思維」。
    (human-zero mindset)
  • 1:42 - 1:44
    可為何這種思維這麼誘人?
  • 1:45 - 1:49
    因為另一種思維——
    「人類+AI」(Human plus AI)
  • 1:49 - 1:53
    費時、費錢又費力。
  • 1:53 - 1:56
    商業團隊、科技團隊和數據科學團隊
  • 1:56 - 1:58
    不得不費幾個月的功夫
  • 1:58 - 2:04
    探索人類和 AI
    怎樣達到最好的合作。
  • 2:04 - 2:08
    探索過程漫長艱難,耗了很多錢,
  • 2:08 - 2:10
    但取得了巨大成果。
  • 2:10 - 2:14
    根據波士頓諮詢公司
    和麻省理工學院最近的調查,
  • 2:14 - 2:18
    全球有 18% 的公司
  • 2:18 - 2:20
    在研究 AI,
  • 2:20 - 2:23
    藉此盈利。
  • 2:23 - 2:28
    那些公司把 80% 的 AI 創新
  • 2:28 - 2:31
    專注在效率和成長,
  • 2:31 - 2:33
    做更好的決策,
  • 2:33 - 2:36
    而不是用 AI 取代人類來減少開支。
  • 2:38 - 2:41
    為什麼人類的作用必不可少?
  • 2:42 - 2:47
    原因很簡單:
    沒有人類,AI 會幹傻事。
  • 2:47 - 2:51
    有時候毫無幫助,
    就像這條推文講的:
  • 2:51 - 2:53
    「親愛的亞馬遜公司,
  • 2:53 - 2:54
    我之前買了一個馬桶圈。
  • 2:54 - 2:56
    生活必需品,不是什麼私人愛好。
  • 2:56 - 2:57
    我不收藏馬桶圈,
  • 2:57 - 3:00
    我沒有馬桶圈癮。
  • 3:00 - 3:02
    不管你的廣告郵件多誘人,
  • 3:02 - 3:04
    我都不會覺得
    『噢,受不了,
  • 3:04 - 3:06
    只好再買個馬桶圈了,
    偶爾放縱一下自己。』」
  • 3:06 - 3:08
    (笑聲)
  • 3:08 - 3:12
    有時候,AI 又「太有幫助」,
    就像這條推文:
  • 3:13 - 3:16
    「我在買我媽媽的骨灰盒後
  • 3:16 - 3:17
    遇到了同樣狀況。」
  • 3:17 - 3:18
    (笑聲)
  • 3:18 - 3:20
    「在她去世後的幾個月,
  • 3:20 - 3:23
    亞馬遜發給我多個郵件:
    『如果你喜歡這個⋯(骨灰盒)』」
  • 3:23 - 3:25
    (笑聲)
  • 3:25 - 3:28
    有時 AI 幹壞事。
  • 3:28 - 3:33
    比如說 AI 曾經拒絕
    學生的大學申請。
  • 3:33 - 3:34
    為什麼?
  • 3:34 - 3:36
    因為這個 AI
    從以前的數據「學」了
  • 3:36 - 3:40
    哪些學生會通過,哪些學生不能——
  • 3:40 - 3:42
    有一些指標很明顯,比如 GPA。
  • 3:42 - 3:47
    但如果在過去,某個地區
    所有的學生都沒通過,
  • 3:47 - 3:51
    AI 很可能就以此定下規則,
  • 3:51 - 3:55
    拒絕每一個來自這個地區的學生,
  • 3:55 - 3:59
    不給任何人證明規則有誤的機會。
  • 4:00 - 4:02
    沒有人能檢查每一條規則,
  • 4:02 - 4:06
    因為先進的 AI 一直在學。
  • 4:06 - 4:09
    所以如果直接用 AI 取代人類,
  • 4:09 - 4:12
    迎來的將是 AI 官僚主義的噩夢:
  • 4:12 - 4:15
    誰應該對學生的被拒負責?
  • 4:15 - 4:17
    沒有誰,AI 負責。
  • 4:17 - 4:19
    這公平嗎?公平。
  • 4:19 - 4:22
    因為所有學生都用同一規則判定。
  • 4:22 - 4:26
    那可不可以重新考慮這個
    「住錯了地方」的聰明學生?
  • 4:27 - 4:30
    不行,AI 官僚不會改主意。
  • 4:31 - 4:34
    我們的選項是,
  • 4:34 - 4:36
    繼續 AI 的獨裁,
  • 4:36 - 4:39
    還是考慮「人類+AI」思維?
  • 4:39 - 4:41
    要擁有這種思維,
  • 4:41 - 4:44
    我們要先把科技放在一邊,
  • 4:44 - 4:48
    從秘密公式入手。
  • 4:49 - 4:51
    要實現「人類+AI」,
  • 4:51 - 4:54
    需要 10% 的程式;
  • 4:54 - 4:57
    20% 的科技成份,
  • 4:57 - 5:01
    包括收集數據、構建用戶界面、
    整合進遺留系統;
  • 5:01 - 5:04
    但 70%,最主要的部份,
  • 5:04 - 5:09
    是結合 AI 和人類方法,
  • 5:09 - 5:11
    讓結果最接近完美。
  • 5:12 - 5:17
    如果這 70% 被削減,
    AI 就會出現問題。
  • 5:17 - 5:20
    代價可以很小,
  • 5:20 - 5:24
    比如在無用科技上浪費數百萬美元。
  • 5:24 - 5:25
    誰會在乎呢?
  • 5:26 - 5:28
    但代價也可以大到無法承受:
  • 5:29 - 5:37
    最近兩起波音 737 空難中
    346 人遇難,
  • 5:37 - 5:40
    原因是電腦控制的飛行系統
  • 5:40 - 5:43
    無法正確回應飛機師的指令。
  • 5:44 - 5:46
    要實現人類的 70%,
  • 5:46 - 5:51
    第一步是保證算法程式由數據科學家
  • 5:51 - 5:53
    和領域專家共同完成。
  • 5:53 - 5:56
    拿醫療保健舉例,
  • 5:56 - 6:00
    我們有一個團隊
    曾經處理一種藥產生的小問題。
  • 6:01 - 6:02
    在第一次服用這種藥後,
  • 6:02 - 6:06
    有一小部份的患者會發心臟病。
  • 6:06 - 6:09
    於是所有第一次服這種藥的患者
  • 6:09 - 6:12
    都要住院觀察一天,
  • 6:12 - 6:14
    以防心臟病發作。
  • 6:15 - 6:20
    我們想要識別出
    完全沒可能發心臟病的患者,
  • 6:20 - 6:23
    這樣他們就不用在醫院多待一天。
  • 6:23 - 6:27
    我們用 AI 分析臨床試驗的數據,
  • 6:28 - 6:33
    尋找心電圖、血液成份、生物標記
  • 6:33 - 6:35
    和心臟病發作概率之間的關係。
  • 6:35 - 6:37
    在一個月內,
  • 6:37 - 6:43
    我們訓練的模型就能識別出
    62% 的零發病風險患者。
  • 6:43 - 6:45
    這樣,這些患者就免去了
    待在醫院的一天。
  • 6:46 - 6:49
    但是,你會放心地
    在第一次服藥後直接回家,
  • 6:49 - 6:51
    就因為 AI 說你可以回家啦?
  • 6:51 - 6:52
    (笑聲)
  • 6:52 - 6:54
    醫師也不會放心。
  • 6:54 - 6:56
    萬一出現偽陰性呢?
  • 6:56 - 7:02
    也就是 AI 叫他們回家,
    結果他們死了?
  • 7:02 - 7:03
    (笑聲)
  • 7:03 - 7:05
    這時就需要那 70% 的作用了。
  • 7:05 - 7:07
    我們與醫師團隊合作,
  • 7:07 - 7:11
    檢驗模型中每個變量的醫學合理性。
  • 7:12 - 7:16
    比方說,我們用肝酵素濃度
  • 7:16 - 7:17
    作為預測變量,
  • 7:17 - 7:21
    其醫學邏輯並不明顯,
  • 7:21 - 7:24
    但從統計信號角度看,
    它與結果有很大的關聯。
  • 7:24 - 7:27
    但萬一它實際上是個偏置項呢?
    [意即這個變量與心臟病無實際關聯]
  • 7:27 - 7:30
    模型就會剔除那個變量。
  • 7:30 - 7:34
    我們還剔除了一些變量,
  • 7:34 - 7:38
    因為醫師無法精準測出這些變量。
  • 7:38 - 7:40
    四個月後,
  • 7:40 - 7:43
    我們訓練出了模型,
    制定了醫學使用規則。
  • 7:43 - 7:48
    去年春天它們都獲
    美國醫療機構批准通過,
  • 7:48 - 7:52
    為一半服用這種藥的患者減輕壓力,
  • 7:52 - 7:54
    提高生活品質。
  • 7:54 - 7:59
    還預期這種藥的銷量
    增加超過一億份。
  • 8:00 - 8:04
    人類團隊和方法造就的 70%,
  • 8:04 - 8:07
    也意味著在人類和 AI 之間
    建立堅固的連結,
  • 8:07 - 8:13
    共同解決最難的問題。
  • 8:13 - 8:18
    以前有一個時裝零售商問我們:
  • 8:19 - 8:22
    「世上有很會進貨的時裝零售商,
  • 8:22 - 8:27
    你能不能做一個 AI
    比他們更會預測銷量,
  • 8:27 - 8:29
    告訴我們明年要訂購多少
  • 8:29 - 8:33
    高端服裝、淺綠色衣服、
    加大碼男襯衫呢?
  • 8:33 - 8:36
    能不能預測哪些衣服會大賣,
  • 8:36 - 8:38
    預測得比設計師還準?」
  • 8:38 - 8:42
    我們的團隊在幾週內
    用以往銷量數據訓練出模型,
  • 8:42 - 8:46
    和人類商家比賽。
  • 8:46 - 8:47
    猜猜誰贏了?
  • 8:48 - 8:53
    AI 勝出,預測錯誤率比人類低 25%。
  • 8:54 - 8:59
    零人類思維的人可能會改進模型,
  • 8:59 - 9:02
    投入和人類商家的競爭。
  • 9:02 - 9:03
    開心就好。
  • 9:03 - 9:08
    但我們知道,人類對時尚潮流有遠見,
  • 9:08 - 9:11
    這是 AI 在以往數據學不到的。
  • 9:12 - 9:15
    於是我們轉向 70%。
  • 9:15 - 9:17
    我們開始了第二次測試,
  • 9:17 - 9:20
    人類商家來審查
  • 9:20 - 9:21
    AI 推薦的購買量,
  • 9:21 - 9:24
    然後做出糾正。
  • 9:24 - 9:25
    結果如何?
  • 9:26 - 9:28
    使用 AI 的人類商家⋯
  • 9:28 - 9:29
    輸了。
  • 9:30 - 9:33
    人類做出的糾正中,
  • 9:33 - 9:36
    有 75% 降低了 AI 的準確率。
  • 9:37 - 9:40
    是不是要放棄人類商家的介入了?
  • 9:40 - 9:41
    不是。
  • 9:41 - 9:44
    我們要重新搭建一個模型,
  • 9:44 - 9:49
    這一次,不讓人類猜 AI 的對錯,
  • 9:49 - 9:54
    而是讓 AI 尋求人類的建議。
  • 9:55 - 9:57
    我們將模型改頭換面,
  • 9:57 - 10:03
    拋棄了最初的交互方式,
    有點像這樣:
  • 10:03 - 10:05
    「嘿人類!這是我的預測,
  • 10:05 - 10:07
    照你的意思幫我糾正一下吧!」
  • 10:07 - 10:10
    改進後的交互方式變得更廣泛,像這樣:
  • 10:10 - 10:12
    「嘿人類!
  • 10:12 - 10:14
    我不懂明年的流行趨勢,
  • 10:14 - 10:17
    可不可以告訴我你押寶在哪?」
  • 10:18 - 10:20
    「嘿人類!
  • 10:20 - 10:22
    可以幫我看看這些大傢伙嗎?
  • 10:22 - 10:26
    它們超出了我已知的知識範圍。」
  • 10:26 - 10:28
    結果如何?
  • 10:28 - 10:30
    「人類+AI」勝出,
  • 10:30 - 10:35
    這次預測錯誤率低了 50%。
  • 10:36 - 10:39
    我們花了一年才最終完成這個工具,
  • 10:39 - 10:42
    漫長、成本高又艱難,
  • 10:43 - 10:45
    但利潤和獲益頗豐厚,
  • 10:45 - 10:51
    每年為零售商節省超過一億美金。
  • 10:51 - 10:54
    在一些特定議題上,
  • 10:54 - 10:58
    70% 也意味著人類要決定對錯,
  • 10:58 - 11:02
    限制 AI 的權力。
  • 11:02 - 11:04
    例如設定價格上限,
  • 11:04 - 11:08
    防止 AI 粗暴地提高價格,
  • 11:08 - 11:12
    向不知情的顧客漫天要價。
  • 11:13 - 11:15
    只有人類能夠設定界線,
  • 11:15 - 11:19
    因為 AI 不可能從以往數據學到。
  • 11:19 - 11:22
    有時我們可能遇到灰色地帶。
  • 11:22 - 11:25
    我們曾和保險公司有過合作,
  • 11:25 - 11:30
    他們開發了一個
    針對客戶的 AI 系統,
  • 11:30 - 11:32
    用來識別健康狀況較差,
    很可能即將要去治病的客戶,
  • 11:32 - 11:34
    向他們推銷附加產品。
  • 11:35 - 11:36
    問題是,
  • 11:36 - 11:39
    一些接到推銷電話的客戶,
  • 11:39 - 11:42
    這時候並不知道
  • 11:42 - 11:45
    他們很可能馬上要去醫院看病。
  • 11:46 - 11:48
    如果你是這家公司的執行長,
  • 11:48 - 11:50
    你會取消掉這個項目嗎?
  • 11:51 - 11:52
    這是個兩難抉擇。
  • 11:53 - 11:56
    為了解決這個問題,
    一些公司正在組建團隊,
  • 11:56 - 12:02
    幫商業和科技團隊
    制訂倫理規則和標準,
  • 12:02 - 12:06
    在個性化和可操作性間尋找平衡點,
  • 12:06 - 12:09
    區別客製與偏見,
  • 12:09 - 12:11
    分清關照與冒犯。
  • 12:13 - 12:16
    我堅信在每家公司,
  • 12:16 - 12:21
    把 AI 運用到關鍵之處
    定會有巨大回報。
  • 12:21 - 12:24
    商業領袖們要勇敢嘗試,
  • 12:24 - 12:26
    選擇幾個項目,
  • 12:26 - 12:31
    每個項目,召集幾十個領域佼佼者——
  • 12:31 - 12:34
    科技、AI、數據科學、倫理——
  • 12:34 - 12:38
    然後完成 10%、20%、70% 的
  • 12:38 - 12:40
    「人類+AI」。
  • 12:40 - 12:44
    這樣 AI 就可以和人類高效合作。
  • 12:45 - 12:47
    除此之外別無他法。
  • 12:47 - 12:52
    經濟飛速發展的同時,
    公民已對 AI 官僚主義產生恐懼。
  • 12:52 - 12:56
    在近期對七千人的調查中,
  • 12:56 - 13:00
    超過 75% 的人表示實質的擔憂,
  • 13:00 - 13:04
    擔心 AI 影響勞動力、隱私,
  • 13:04 - 13:07
    擔心社會會失去人性。
  • 13:07 - 13:13
    AI 官僚主義的出現
  • 13:13 - 13:17
    會導致公司和社會
    對 AI 的強烈牴觸。
  • 13:17 - 13:20
    「人類+AI」是唯一選項,
  • 13:20 - 13:23
    只有這樣才能讓 AI 真正帶來福祉。
  • 13:24 - 13:25
    到頭來,
  • 13:25 - 13:29
    因 AI 獲利的組織,
    會為人類知識投資,
  • 13:29 - 13:32
    而不僅僅投資 AI 和數據。
  • 13:33 - 13:36
    招募、培養、獎勵人類專家。
  • 13:37 - 13:40
    有人說數據是新的燃料,
  • 13:40 - 13:44
    但相信我,人類知識能改變世界。
  • 13:44 - 13:48
    因為人類知識是唯一的泵,
  • 13:48 - 13:52
    將蘊藏於數據中的燃料泵出。
  • 13:53 - 13:54
    謝謝大家。
  • 13:54 - 13:58
    (掌聲)
Title:
「人類+AI」構建商業未來
Speaker:
西爾萬·杜蘭頓
Description:

這是一個悖論:很多公司試圖透過使用人工智慧做關鍵決策,以精簡業務,但它們可能會無意間在降低效率。商業技術專家西爾萬·杜蘭頓(Sylvain Duranton)倡導一種「人類+AI」的思維方式——AI 與人類合作,而不是 AI 取代人類。他還分享了公司可以採用的特定公式,來成功使用 AI,同時發揮人類作用。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:10

Chinese, Traditional subtitles

Revisions