「人類+AI」構建商業未來
-
0:01 - 0:03我來和大家分享發現的一個悖論。
-
0:04 - 0:06在過去十年裡,
-
0:06 - 0:10很多公司都想擺脫官僚化,
-
0:10 - 0:13通過減少職務、精簡程序,
-
0:13 - 0:16給團隊更多自主,
讓公司運作更靈活。 -
0:16 - 0:21現在,公司開始引進人工智慧,AI,
-
0:21 - 0:23卻沒意識到這個很酷的科技,
-
0:23 - 0:27可能讓他們比以前更官僚。
-
0:27 - 0:29為什麼呢?
-
0:29 - 0:32因為 AI 的運作方式就很官僚。
-
0:32 - 0:35官僚的本質
-
0:35 - 0:39就是看重規則和程序,
而不是人類自身的判斷, -
0:40 - 0:44而 AI 僅依據規則做決策。
-
0:44 - 0:47即便 AI 的規則
依據過去的數據形成, -
0:47 - 0:49那也終究是規則。
-
0:49 - 0:53如果將人類判斷置若罔聞,
-
0:53 - 0:58對 AI 的運用將帶來
可怕的新官僚主義—— -
0:58 - 1:01我稱之為「AI 官僚主義」
(algocracy), -
1:01 - 1:05意即 AI 將根據規則,
不受人為控制, -
1:05 - 1:07做更多重要決策。
-
1:08 - 1:10真有風險嗎?
-
1:11 - 1:12當然有。
-
1:12 - 1:15我領導的團隊
由 800 位 AI 專家組成, -
1:15 - 1:18我們為很多全球的大公司
-
1:18 - 1:21量身打造了超過 100 個 AI 系統。
-
1:21 - 1:27我看過太多的公司高管
因此而變得官僚作風。 -
1:28 - 1:33他們對麻煩、老舊的
人類決策嗤之以鼻, -
1:33 - 1:37完全依賴 AI 來做決策。
-
1:37 - 1:41我稱之為「無人類思維」。
(human-zero mindset) -
1:42 - 1:44可為何這種思維這麼誘人?
-
1:45 - 1:49因為另一種思維——
「人類+AI」(Human plus AI) -
1:49 - 1:53費時、費錢又費力。
-
1:53 - 1:56商業團隊、科技團隊和數據科學團隊
-
1:56 - 1:58不得不費幾個月的功夫
-
1:58 - 2:04探索人類和 AI
怎樣達到最好的合作。 -
2:04 - 2:08探索過程漫長艱難,耗了很多錢,
-
2:08 - 2:10但取得了巨大成果。
-
2:10 - 2:14根據波士頓諮詢公司
和麻省理工學院最近的調查, -
2:14 - 2:18全球有 18% 的公司
-
2:18 - 2:20在研究 AI,
-
2:20 - 2:23藉此盈利。
-
2:23 - 2:28那些公司把 80% 的 AI 創新
-
2:28 - 2:31專注在效率和成長,
-
2:31 - 2:33做更好的決策,
-
2:33 - 2:36而不是用 AI 取代人類來減少開支。
-
2:38 - 2:41為什麼人類的作用必不可少?
-
2:42 - 2:47原因很簡單:
沒有人類,AI 會幹傻事。 -
2:47 - 2:51有時候毫無幫助,
就像這條推文講的: -
2:51 - 2:53「親愛的亞馬遜公司,
-
2:53 - 2:54我之前買了一個馬桶圈。
-
2:54 - 2:56生活必需品,不是什麼私人愛好。
-
2:56 - 2:57我不收藏馬桶圈,
-
2:57 - 3:00我沒有馬桶圈癮。
-
3:00 - 3:02不管你的廣告郵件多誘人,
-
3:02 - 3:04我都不會覺得
『噢,受不了, -
3:04 - 3:06只好再買個馬桶圈了,
偶爾放縱一下自己。』」 -
3:06 - 3:08(笑聲)
-
3:08 - 3:12有時候,AI 又「太有幫助」,
就像這條推文: -
3:13 - 3:16「我在買我媽媽的骨灰盒後
-
3:16 - 3:17遇到了同樣狀況。」
-
3:17 - 3:18(笑聲)
-
3:18 - 3:20「在她去世後的幾個月,
-
3:20 - 3:23亞馬遜發給我多個郵件:
『如果你喜歡這個⋯(骨灰盒)』」 -
3:23 - 3:25(笑聲)
-
3:25 - 3:28有時 AI 幹壞事。
-
3:28 - 3:33比如說 AI 曾經拒絕
學生的大學申請。 -
3:33 - 3:34為什麼?
-
3:34 - 3:36因為這個 AI
從以前的數據「學」了 -
3:36 - 3:40哪些學生會通過,哪些學生不能——
-
3:40 - 3:42有一些指標很明顯,比如 GPA。
-
3:42 - 3:47但如果在過去,某個地區
所有的學生都沒通過, -
3:47 - 3:51AI 很可能就以此定下規則,
-
3:51 - 3:55拒絕每一個來自這個地區的學生,
-
3:55 - 3:59不給任何人證明規則有誤的機會。
-
4:00 - 4:02沒有人能檢查每一條規則,
-
4:02 - 4:06因為先進的 AI 一直在學。
-
4:06 - 4:09所以如果直接用 AI 取代人類,
-
4:09 - 4:12迎來的將是 AI 官僚主義的噩夢:
-
4:12 - 4:15誰應該對學生的被拒負責?
-
4:15 - 4:17沒有誰,AI 負責。
-
4:17 - 4:19這公平嗎?公平。
-
4:19 - 4:22因為所有學生都用同一規則判定。
-
4:22 - 4:26那可不可以重新考慮這個
「住錯了地方」的聰明學生? -
4:27 - 4:30不行,AI 官僚不會改主意。
-
4:31 - 4:34我們的選項是,
-
4:34 - 4:36繼續 AI 的獨裁,
-
4:36 - 4:39還是考慮「人類+AI」思維?
-
4:39 - 4:41要擁有這種思維,
-
4:41 - 4:44我們要先把科技放在一邊,
-
4:44 - 4:48從秘密公式入手。
-
4:49 - 4:51要實現「人類+AI」,
-
4:51 - 4:54需要 10% 的程式;
-
4:54 - 4:5720% 的科技成份,
-
4:57 - 5:01包括收集數據、構建用戶界面、
整合進遺留系統; -
5:01 - 5:04但 70%,最主要的部份,
-
5:04 - 5:09是結合 AI 和人類方法,
-
5:09 - 5:11讓結果最接近完美。
-
5:12 - 5:17如果這 70% 被削減,
AI 就會出現問題。 -
5:17 - 5:20代價可以很小,
-
5:20 - 5:24比如在無用科技上浪費數百萬美元。
-
5:24 - 5:25誰會在乎呢?
-
5:26 - 5:28但代價也可以大到無法承受:
-
5:29 - 5:37最近兩起波音 737 空難中
346 人遇難, -
5:37 - 5:40原因是電腦控制的飛行系統
-
5:40 - 5:43無法正確回應飛機師的指令。
-
5:44 - 5:46要實現人類的 70%,
-
5:46 - 5:51第一步是保證算法程式由數據科學家
-
5:51 - 5:53和領域專家共同完成。
-
5:53 - 5:56拿醫療保健舉例,
-
5:56 - 6:00我們有一個團隊
曾經處理一種藥產生的小問題。 -
6:01 - 6:02在第一次服用這種藥後,
-
6:02 - 6:06有一小部份的患者會發心臟病。
-
6:06 - 6:09於是所有第一次服這種藥的患者
-
6:09 - 6:12都要住院觀察一天,
-
6:12 - 6:14以防心臟病發作。
-
6:15 - 6:20我們想要識別出
完全沒可能發心臟病的患者, -
6:20 - 6:23這樣他們就不用在醫院多待一天。
-
6:23 - 6:27我們用 AI 分析臨床試驗的數據,
-
6:28 - 6:33尋找心電圖、血液成份、生物標記
-
6:33 - 6:35和心臟病發作概率之間的關係。
-
6:35 - 6:37在一個月內,
-
6:37 - 6:43我們訓練的模型就能識別出
62% 的零發病風險患者。 -
6:43 - 6:45這樣,這些患者就免去了
待在醫院的一天。 -
6:46 - 6:49但是,你會放心地
在第一次服藥後直接回家, -
6:49 - 6:51就因為 AI 說你可以回家啦?
-
6:51 - 6:52(笑聲)
-
6:52 - 6:54醫師也不會放心。
-
6:54 - 6:56萬一出現偽陰性呢?
-
6:56 - 7:02也就是 AI 叫他們回家,
結果他們死了? -
7:02 - 7:03(笑聲)
-
7:03 - 7:05這時就需要那 70% 的作用了。
-
7:05 - 7:07我們與醫師團隊合作,
-
7:07 - 7:11檢驗模型中每個變量的醫學合理性。
-
7:12 - 7:16比方說,我們用肝酵素濃度
-
7:16 - 7:17作為預測變量,
-
7:17 - 7:21其醫學邏輯並不明顯,
-
7:21 - 7:24但從統計信號角度看,
它與結果有很大的關聯。 -
7:24 - 7:27但萬一它實際上是個偏置項呢?
[意即這個變量與心臟病無實際關聯] -
7:27 - 7:30模型就會剔除那個變量。
-
7:30 - 7:34我們還剔除了一些變量,
-
7:34 - 7:38因為醫師無法精準測出這些變量。
-
7:38 - 7:40四個月後,
-
7:40 - 7:43我們訓練出了模型,
制定了醫學使用規則。 -
7:43 - 7:48去年春天它們都獲
美國醫療機構批准通過, -
7:48 - 7:52為一半服用這種藥的患者減輕壓力,
-
7:52 - 7:54提高生活品質。
-
7:54 - 7:59還預期這種藥的銷量
增加超過一億份。 -
8:00 - 8:04人類團隊和方法造就的 70%,
-
8:04 - 8:07也意味著在人類和 AI 之間
建立堅固的連結, -
8:07 - 8:13共同解決最難的問題。
-
8:13 - 8:18以前有一個時裝零售商問我們:
-
8:19 - 8:22「世上有很會進貨的時裝零售商,
-
8:22 - 8:27你能不能做一個 AI
比他們更會預測銷量, -
8:27 - 8:29告訴我們明年要訂購多少
-
8:29 - 8:33高端服裝、淺綠色衣服、
加大碼男襯衫呢? -
8:33 - 8:36能不能預測哪些衣服會大賣,
-
8:36 - 8:38預測得比設計師還準?」
-
8:38 - 8:42我們的團隊在幾週內
用以往銷量數據訓練出模型, -
8:42 - 8:46和人類商家比賽。
-
8:46 - 8:47猜猜誰贏了?
-
8:48 - 8:53AI 勝出,預測錯誤率比人類低 25%。
-
8:54 - 8:59零人類思維的人可能會改進模型,
-
8:59 - 9:02投入和人類商家的競爭。
-
9:02 - 9:03開心就好。
-
9:03 - 9:08但我們知道,人類對時尚潮流有遠見,
-
9:08 - 9:11這是 AI 在以往數據學不到的。
-
9:12 - 9:15於是我們轉向 70%。
-
9:15 - 9:17我們開始了第二次測試,
-
9:17 - 9:20人類商家來審查
-
9:20 - 9:21AI 推薦的購買量,
-
9:21 - 9:24然後做出糾正。
-
9:24 - 9:25結果如何?
-
9:26 - 9:28使用 AI 的人類商家⋯
-
9:28 - 9:29輸了。
-
9:30 - 9:33人類做出的糾正中,
-
9:33 - 9:36有 75% 降低了 AI 的準確率。
-
9:37 - 9:40是不是要放棄人類商家的介入了?
-
9:40 - 9:41不是。
-
9:41 - 9:44我們要重新搭建一個模型,
-
9:44 - 9:49這一次,不讓人類猜 AI 的對錯,
-
9:49 - 9:54而是讓 AI 尋求人類的建議。
-
9:55 - 9:57我們將模型改頭換面,
-
9:57 - 10:03拋棄了最初的交互方式,
有點像這樣: -
10:03 - 10:05「嘿人類!這是我的預測,
-
10:05 - 10:07照你的意思幫我糾正一下吧!」
-
10:07 - 10:10改進後的交互方式變得更廣泛,像這樣:
-
10:10 - 10:12「嘿人類!
-
10:12 - 10:14我不懂明年的流行趨勢,
-
10:14 - 10:17可不可以告訴我你押寶在哪?」
-
10:18 - 10:20「嘿人類!
-
10:20 - 10:22可以幫我看看這些大傢伙嗎?
-
10:22 - 10:26它們超出了我已知的知識範圍。」
-
10:26 - 10:28結果如何?
-
10:28 - 10:30「人類+AI」勝出,
-
10:30 - 10:35這次預測錯誤率低了 50%。
-
10:36 - 10:39我們花了一年才最終完成這個工具,
-
10:39 - 10:42漫長、成本高又艱難,
-
10:43 - 10:45但利潤和獲益頗豐厚,
-
10:45 - 10:51每年為零售商節省超過一億美金。
-
10:51 - 10:54在一些特定議題上,
-
10:54 - 10:5870% 也意味著人類要決定對錯,
-
10:58 - 11:02限制 AI 的權力。
-
11:02 - 11:04例如設定價格上限,
-
11:04 - 11:08防止 AI 粗暴地提高價格,
-
11:08 - 11:12向不知情的顧客漫天要價。
-
11:13 - 11:15只有人類能夠設定界線,
-
11:15 - 11:19因為 AI 不可能從以往數據學到。
-
11:19 - 11:22有時我們可能遇到灰色地帶。
-
11:22 - 11:25我們曾和保險公司有過合作,
-
11:25 - 11:30他們開發了一個
針對客戶的 AI 系統, -
11:30 - 11:32用來識別健康狀況較差,
很可能即將要去治病的客戶, -
11:32 - 11:34向他們推銷附加產品。
-
11:35 - 11:36問題是,
-
11:36 - 11:39一些接到推銷電話的客戶,
-
11:39 - 11:42這時候並不知道
-
11:42 - 11:45他們很可能馬上要去醫院看病。
-
11:46 - 11:48如果你是這家公司的執行長,
-
11:48 - 11:50你會取消掉這個項目嗎?
-
11:51 - 11:52這是個兩難抉擇。
-
11:53 - 11:56為了解決這個問題,
一些公司正在組建團隊, -
11:56 - 12:02幫商業和科技團隊
制訂倫理規則和標準, -
12:02 - 12:06在個性化和可操作性間尋找平衡點,
-
12:06 - 12:09區別客製與偏見,
-
12:09 - 12:11分清關照與冒犯。
-
12:13 - 12:16我堅信在每家公司,
-
12:16 - 12:21把 AI 運用到關鍵之處
定會有巨大回報。 -
12:21 - 12:24商業領袖們要勇敢嘗試,
-
12:24 - 12:26選擇幾個項目,
-
12:26 - 12:31每個項目,召集幾十個領域佼佼者——
-
12:31 - 12:34科技、AI、數據科學、倫理——
-
12:34 - 12:38然後完成 10%、20%、70% 的
-
12:38 - 12:40「人類+AI」。
-
12:40 - 12:44這樣 AI 就可以和人類高效合作。
-
12:45 - 12:47除此之外別無他法。
-
12:47 - 12:52經濟飛速發展的同時,
公民已對 AI 官僚主義產生恐懼。 -
12:52 - 12:56在近期對七千人的調查中,
-
12:56 - 13:00超過 75% 的人表示實質的擔憂,
-
13:00 - 13:04擔心 AI 影響勞動力、隱私,
-
13:04 - 13:07擔心社會會失去人性。
-
13:07 - 13:13AI 官僚主義的出現
-
13:13 - 13:17會導致公司和社會
對 AI 的強烈牴觸。 -
13:17 - 13:20「人類+AI」是唯一選項,
-
13:20 - 13:23只有這樣才能讓 AI 真正帶來福祉。
-
13:24 - 13:25到頭來,
-
13:25 - 13:29因 AI 獲利的組織,
會為人類知識投資, -
13:29 - 13:32而不僅僅投資 AI 和數據。
-
13:33 - 13:36招募、培養、獎勵人類專家。
-
13:37 - 13:40有人說數據是新的燃料,
-
13:40 - 13:44但相信我,人類知識能改變世界。
-
13:44 - 13:48因為人類知識是唯一的泵,
-
13:48 - 13:52將蘊藏於數據中的燃料泵出。
-
13:53 - 13:54謝謝大家。
-
13:54 - 13:58(掌聲)
- Title:
- 「人類+AI」構建商業未來
- Speaker:
- 西爾萬·杜蘭頓
- Description:
-
這是一個悖論:很多公司試圖透過使用人工智慧做關鍵決策,以精簡業務,但它們可能會無意間在降低效率。商業技術專家西爾萬·杜蘭頓(Sylvain Duranton)倡導一種「人類+AI」的思維方式——AI 與人類合作,而不是 AI 取代人類。他還分享了公司可以採用的特定公式,來成功使用 AI,同時發揮人類作用。
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:10
![]() |
Helen Chang approved Chinese, Traditional subtitles for How humans and AI can work together to create better businesses | |
![]() |
Helen Chang edited Chinese, Traditional subtitles for How humans and AI can work together to create better businesses | |
![]() |
Helen Chang accepted Chinese, Traditional subtitles for How humans and AI can work together to create better businesses | |
![]() |
Helen Chang edited Chinese, Traditional subtitles for How humans and AI can work together to create better businesses | |
![]() |
Helen Chang edited Chinese, Traditional subtitles for How humans and AI can work together to create better businesses | |
![]() |
Marssi Draw rejected Chinese, Traditional subtitles for How humans and AI can work together to create better businesses | |
![]() |
Gabriella Hu accepted Chinese, Traditional subtitles for How humans and AI can work together to create better businesses | |
![]() |
Gabriella Hu edited Chinese, Traditional subtitles for How humans and AI can work together to create better businesses |