1 00:00:00,012 --> 00:00:01,054 ♪ [音乐] ♪ 2 00:00:03,620 --> 00:00:05,700 [讲解员] 欢迎观看《诺奖得主畅谈系列》 3 00:00:07,000 --> 00:00:10,043 本集中,Josh Angrist 和Guido Imbens 4 00:00:10,043 --> 00:00:14,716 与Isaiah Andrews就机器学习 在应用计量经济学中的角色 5 00:00:14,717 --> 00:00:16,587 展开讨论和争辩 6 00:00:18,264 --> 00:00:21,223 - [Isaiah] 有很多议题 两位大致上都同意 7 00:00:21,224 --> 00:00:24,240 但我想换个或许两位各有看法的话题 8 00:00:24,240 --> 00:00:26,883 我想听听你们对机器学习的看法 9 00:00:26,883 --> 00:00:29,900 还有就经济学而言 这方面在当前和未来的进展 10 00:00:30,072 --> 00:00:33,714 - [Guido] 我看过一些 专论之类的数据 11 00:00:33,716 --> 00:00:34,978 但并无相关出版文献 12 00:00:36,106 --> 00:00:39,312 我看到有人做了搜索演算法之类的实验 13 00:00:39,668 --> 00:00:41,176 不过问题在于 14 00:00:42,829 --> 00:00:45,623 该实验是关于排序与改变排序的 15 00:00:45,837 --> 00:00:50,559 所以当中显然存在许多异质性 16 00:00:52,161 --> 00:00:56,031 比方说若要搜寻的是 17 00:00:57,831 --> 00:01:00,617 小甜甜布兰妮的照片 (Britney Spears) 18 00:01:00,617 --> 00:01:05,500 那结果排序不重要 因为还要自行判断是否吻合 19 00:01:06,136 --> 00:01:09,717 是排第一、第二,还是第三都无所谓 20 00:01:10,091 --> 00:01:12,491 但若要找的是最好的计量经济学专书 21 00:01:13,139 --> 00:01:18,196 结果排序是第一还是第十,差别就很大 22 00:01:18,544 --> 00:01:20,923 因为这关系到点阅率 23 00:01:21,829 --> 00:01:23,417 有监于此… 24 00:01:23,417 --> 00:01:27,259 - [Josh] 为什么需要 机器学习来发现这点? 25 00:01:27,260 --> 00:01:29,195 这似乎我自己来就行了 26 00:01:29,195 --> 00:01:30,435 - [Guido] 所以总的来说… 27 00:01:30,435 --> 00:01:32,100 - [Josh] 这有很多可能性 28 00:01:32,101 --> 00:01:37,257 - 因为设想到事物的诸多特性 29 00:01:37,681 --> 00:01:43,287 你会想了解造成异质性的驱力及其影响 30 00:01:43,323 --> 00:01:45,008 - 但你只是在预测 31 00:01:45,008 --> 00:01:47,665 某种意义上来说,这是在解决营销问题 32 00:01:47,666 --> 00:01:49,191 - 不,这有因果关系 33 00:01:49,274 --> 00:01:51,911 - 这是因果关系,但缺乏科学内涵 34 00:01:51,911 --> 00:01:53,141 不妨这样想 35 00:01:53,664 --> 00:01:57,307 - 不是的,在医疗界也有类似的例子 36 00:01:57,857 --> 00:02:01,942 你若对部分族群接受特定疗法的功效感兴趣 37 00:02:01,951 --> 00:02:03,705 因此进行研究实验 38 00:02:03,828 --> 00:02:07,887 这当中牵涉各种特性 因此需要系统性地搜寻… 39 00:02:07,888 --> 00:02:13,730 - 没错,但我有疑虑是个体因果关系的假设 40 00:02:13,999 --> 00:02:17,024 以及机器学习的洞察实用性 41 00:02:17,259 --> 00:02:20,045 考量到我丰富的执教经验 42 00:02:20,046 --> 00:02:24,109 包括一所公费资助的特许私校 43 00:02:25,225 --> 00:02:29,399 校方实际上可视需要自由安排课程 44 00:02:29,529 --> 00:02:33,390 有些特许学校的教学成效卓著 45 00:02:33,789 --> 00:02:37,662 而在产生这类结果的数据集中包含许多共变量 46 00:02:37,663 --> 00:02:43,207 包括基线分数、家庭背景、家长教育程度 47 00:02:43,343 --> 00:02:45,800 学生性别和种族 48 00:02:45,930 --> 00:02:49,795 一旦我将其中的数个项目整合后 49 00:02:49,795 --> 00:02:51,900 便会产生高维空间 50 00:02:52,243 --> 00:02:56,401 我对那种班级特征的处理效应很感兴趣 51 00:02:56,457 --> 00:03:02,046 比如是否对出身低收入家庭者较有利 52 00:03:02,409 --> 00:03:06,042 但令我较难信服的应用是 53 00:03:07,273 --> 00:03:09,872 非常高维的这类资料 54 00:03:09,872 --> 00:03:14,971 我发现例如高收入家庭的非白人儿童 55 00:03:14,971 --> 00:03:17,800 但基线分数落在第三个四分位数 56 00:03:18,166 --> 00:03:22,928 且只在公立学校念到三年级而非六年级 57 00:03:22,929 --> 00:03:25,715 因此衍生高维分析 58 00:03:25,716 --> 00:03:28,016 条件陈述也很复杂 59 00:03:28,223 --> 00:03:30,675 我认为刚才那种排序有两大问题 60 00:03:30,676 --> 00:03:34,000 首先是分析难以执行 61 00:03:34,600 --> 00:03:36,412 也不明白这样做的理由 62 00:03:36,591 --> 00:03:41,139 我还知道有些替代模型就有几乎同样的作用 63 00:03:41,671 --> 00:03:42,877 这就完全不同了 64 00:03:43,115 --> 00:03:48,636 对吧?因为机器学习 无法指出真正重要的预测因子 65 00:03:48,637 --> 00:03:51,020 只能找出不错的预测因子 66 00:03:51,486 --> 00:03:57,586 所以我认为就社会科学而言,情况有些不同 67 00:03:57,785 --> 00:04:00,983 - [Guido] 我想你提到的 社会科学应用 68 00:04:01,513 --> 00:04:08,091 是处理效应中异质性显着的例子 69 00:04:09,783 --> 00:04:13,410 - [Josh] 若可填补模型空间可能会有 70 00:04:13,411 --> 00:04:15,685 - 不是这样的! 71 00:04:15,739 --> 00:04:18,786 我想就多数那些干扰因子来讲 72 00:04:18,787 --> 00:04:22,765 你会期望对所有人来说,效果意涵是一样的 73 00:04:24,358 --> 00:04:26,913 或许当中存在些许强度差异 74 00:04:26,914 --> 00:04:31,596 不过许多教育上的论辩 认为这对大家都有好处 75 00:04:34,169 --> 00:04:37,385 并非只对某些人不好,对其他人就有益 76 00:04:37,471 --> 00:04:40,812 当然其中会有一小部分不好 77 00:04:40,869 --> 00:04:43,884 程度上会有落差 78 00:04:43,948 --> 00:04:46,955 但得有非常庞大的数据集才能发现 79 00:04:47,135 --> 00:04:51,415 我同意这类例子的分析难度不低 80 00:04:51,700 --> 00:04:56,457 但我想还有很多异质性更高的情境 81 00:04:57,250 --> 00:04:59,102 - 我不否认有那种可能 82 00:04:59,102 --> 00:05:04,918 我认为你所举的例子,本质上是营销案例 83 00:05:06,315 --> 00:05:10,630 不,这是有其意涵的,那就是组织机构 84 00:05:10,631 --> 00:05:14,393 亦即实际上是否得顾虑… 85 00:05:15,469 --> 00:05:17,900 - 好吧,那我得读那篇论文了 86 00:05:18,336 --> 00:05:21,008 所以感觉上 87 00:05:21,467 --> 00:05:23,996 - 某部份我们仍有意见分歧 - 没错 88 00:05:23,996 --> 00:05:25,440 并非全然达成共识 89 00:05:25,440 --> 00:05:27,200 我也感觉到了 90 00:05:27,200 --> 00:05:30,833 - 这方面我们实际上有不同看法 是因为现在才有这些争论题材 91 00:05:30,834 --> 00:05:32,335 [笑声] 92 00:05:33,040 --> 00:05:34,754 现在是不是比较热闹了? 93 00:05:35,820 --> 00:05:37,883 热络起来好啊 94 00:05:38,016 --> 00:05:39,691 Josh,听来你的意思是 95 00:05:39,692 --> 00:05:45,236 你并非全盘否认这类分析可能有的应用价值 96 00:05:45,237 --> 00:05:49,487 而是对当前应用抱持保留的态度 97 00:05:49,917 --> 00:05:51,589 - 可以这样说 - 我是很有信心的 98 00:05:51,981 --> 00:05:53,663 [笑声] 99 00:05:54,156 --> 00:05:55,189 - 就此而言 100 00:05:55,189 --> 00:05:56,751 我认为Josh说的有道理 101 00:05:57,987 --> 00:06:04,974 即使是机器学习大放异彩的预测模型用例 102 00:06:04,992 --> 00:06:06,952 还是存在许多异质性 103 00:06:07,300 --> 00:06:10,411 你不太在意这其中的细节对吧? 104 00:06:10,769 --> 00:06:11,836 - [Guido] 是的 105 00:06:11,836 --> 00:06:15,000 并无牵涉政策角度之类的 106 00:06:15,128 --> 00:06:20,089 机器学习更擅长辨识数字纪录之类的 107 00:06:20,090 --> 00:06:24,000 而非建构复杂的模型 108 00:06:24,400 --> 00:06:28,079 但是有很多社会科学,很多的经济应用 109 00:06:28,222 --> 00:06:31,905 事实上,我们很了解所属变数间的关联 110 00:06:31,906 --> 00:06:34,700 这些关联有很多是单调(monotone)的 111 00:06:37,126 --> 00:06:39,376 教育会提升收入 112 00:06:39,697 --> 00:06:41,950 不分是人口特性 113 00:06:41,950 --> 00:06:44,930 任何教育程度都一样 114 00:06:44,930 --> 00:06:46,076 直到获得博士学位 115 00:06:46,077 --> 00:06:47,956 研究所教育也一样吗? 116 00:06:47,956 --> 00:06:49,227 [笑声] 117 00:06:49,227 --> 00:06:55,605 合理的范围内还不至于大幅下滑 118 00:06:56,044 --> 00:06:59,692 许多情况下,这类机器学习的方法表现亮眼 119 00:07:00,100 --> 00:07:04,900 这些关联中包含许多非单调性的多模性 120 00:07:05,300 --> 00:07:08,456 就这些关联性来说,机器学习是很有力的工具 121 00:07:08,921 --> 00:07:11,787 不过我仍坚信 122 00:07:12,472 --> 00:07:17,608 经济学家能从这些方法中获益良多 123 00:07:17,609 --> 00:07:21,700 对未来前景影响甚钜 124 00:07:21,889 --> 00:07:22,979 ♪ [音乐] ♪ 125 00:07:23,382 --> 00:07:25,912 - [Isaiah] 机器学习在这方面 似乎还有很多有趣的议题 126 00:07:25,912 --> 00:07:30,908 所以可否请Guido就当前既有的应用 127 00:07:30,908 --> 00:07:32,598 再举些例子? 128 00:07:32,628 --> 00:07:34,150 其中一个例子就是 129 00:07:34,673 --> 00:07:39,565 我们目前舍弃一般的因果关系 转向寻求个别化的估计 130 00:07:41,492 --> 00:07:43,426 来预测因果关系 131 00:07:43,427 --> 00:07:47,569 这方面机器学习的演算非常有用 132 00:07:47,932 --> 00:07:51,503 以往的传统途径是内核方法 133 00:07:51,504 --> 00:07:53,936 理论上成效不错 134 00:07:53,944 --> 00:07:57,301 不过认真说来,有人说这已是极致了 135 00:07:57,548 --> 00:07:59,579 不过此法的实务表现不甚理想 136 00:08:00,900 --> 00:08:02,971 Stefan Wager 和 Susan Athey 137 00:08:02,979 --> 00:08:06,644 两位学者持续耕耘的 随机与因果森林这类推断法 138 00:08:06,916 --> 00:08:09,429 应用非常广泛 139 00:08:09,548 --> 00:08:15,562 这些方法在这类情境中 推断基于共变项的因果效应 140 00:08:15,563 --> 00:08:19,151 效果其实很不错 141 00:08:20,604 --> 00:08:23,818 我想这些推断方法才刚起步 142 00:08:23,819 --> 00:08:25,700 但很多情况下 143 00:08:27,351 --> 00:08:31,600 这些演算法在搜索广泛空间时 144 00:08:31,721 --> 00:08:37,021 以及找出适合的函数方面帮助很大 145 00:08:37,267 --> 00:08:40,948 其运作方式是我们无法事先备妥的 146 00:08:41,500 --> 00:08:43,015 就因果推论而言 147 00:08:43,016 --> 00:08:47,295 我并不清楚机器学习的洞见 是否有吸引我关注的例子 148 00:08:47,767 --> 00:08:51,209 我知道一些很可能会误导的例子 149 00:08:51,210 --> 00:08:53,781 因此我和 Brigham Frandsen 合作过一些相关研究 150 00:08:54,022 --> 00:08:59,897 例如,在需要界定共变量的工具变量问题中 151 00:09:00,187 --> 00:09:03,456 使用随机森林来建立共变量效应模型 152 00:09:04,288 --> 00:09:08,200 对此,你不会对其功能形式有特别强烈的感受 153 00:09:08,201 --> 00:09:12,915 因此或许需作决策曲线分析 并对弹性曲线拟合分析持开放的态度 154 00:09:12,916 --> 00:09:16,757 这会引导你进入一种 模型中包含许多非线性的情况 155 00:09:17,312 --> 00:09:19,933 这对工具变量来说很危险 156 00:09:19,933 --> 00:09:22,893 因为任何所排除的非线性 157 00:09:23,226 --> 00:09:25,839 都有可能导致因果效应的谬误 158 00:09:25,839 --> 00:09:29,292 我想我和Brigham已就这点提出有力证明 159 00:09:29,292 --> 00:09:35,159 所用的例子是我和Bill Evans 合着的论文中所用的两项分析工具 160 00:09:35,160 --> 00:09:38,754 其中若将两阶段最小二乘法 161 00:09:38,755 --> 00:09:42,366 换成某种随机森林分析法 162 00:09:42,900 --> 00:09:46,807 便会得出精密估算过的虚假推估 163 00:09:48,962 --> 00:09:51,942 我认为这是一大警讯 164 00:09:51,943 --> 00:09:54,665 考量我使用简单分析工具 165 00:09:54,666 --> 00:09:58,975 就自身研究兴趣的案例中 所得到的这些验证过的见解 166 00:09:59,268 --> 00:10:01,093 让我对此有所怀疑 167 00:10:02,862 --> 00:10:06,276 非线性和工具变量并不是很契合 168 00:10:06,331 --> 00:10:09,981 - 不是的,这听起来好像变成更复杂的层面 169 00:10:10,052 --> 00:10:11,802 - 我们谈的是工具变量... - 是的 170 00:10:12,536 --> 00:10:14,091 ...所以才设法厘清 171 00:10:14,395 --> 00:10:15,899 [笑声] 172 00:10:15,907 --> 00:10:17,289 有道理 173 00:10:17,289 --> 00:10:18,410 ♪ [音乐] ♪ 174 00:10:18,410 --> 00:10:22,132 - [Guido] 身为Econometrica的编辑 我收到很多相关领域的论文 175 00:10:22,640 --> 00:10:26,823 不过其动机并不明确 176 00:10:27,578 --> 00:10:29,523 事实上是无从得知 177 00:10:29,759 --> 00:10:34,919 这些投稿论文并非传统的 半母数估计的那种论文 178 00:10:35,315 --> 00:10:37,045 这是一大问题 179 00:10:38,496 --> 00:10:42,337 相关的一个问题是计量经济学有种惯例 180 00:10:42,656 --> 00:10:47,474 那就是非常专注于 形式变量渐近后的趋近结果 181 00:10:48,800 --> 00:10:53,311 很多论文是作者提出一种方法后 182 00:10:53,312 --> 00:10:59,420 然后以一种非常标准化的方式建构出渐近的特性 183 00:11:00,896 --> 00:11:02,078 - 那样不好吗? 184 00:11:02,815 --> 00:11:09,040 我想这多少会排挤掉许多框架外的研究 185 00:11:09,040 --> 00:11:13,585 毕竟机器学习的相关文献 很多是比较偏向演算法的 186 00:11:13,808 --> 00:11:18,433 是基于演算法而得出预测 187 00:11:18,744 --> 00:11:23,458 结果证明这种方式的成效 优于非参数内核回归 188 00:11:23,650 --> 00:11:24,682 长期以来 189 00:11:24,683 --> 00:11:28,643 计量经济学都在处理非参数 大家用的都是内核回归 190 00:11:29,037 --> 00:11:31,202 这很适合用来证明定理 191 00:11:31,210 --> 00:11:34,684 可藉此得出置信区间、一致性和渐近正态性 192 00:11:34,684 --> 00:11:36,920 一切都很棒,但却不太实用 193 00:11:37,260 --> 00:11:40,760 机器学习的研究方式却好很多 194 00:11:40,844 --> 00:11:42,557 但又不会有这样的问题… 195 00:11:42,557 --> 00:11:45,871 我不认为因为机器学习,所以理论是薄弱的 196 00:11:45,871 --> 00:11:47,141 [笑声] 197 00:11:47,141 --> 00:11:52,394 不,我的意思是机器学习更擅于预测 198 00:11:52,394 --> 00:11:54,500 - 机器学习是更好的曲线拟合工具 199 00:11:54,864 --> 00:11:57,704 但机器学习的研究分析方式 200 00:11:57,705 --> 00:12:00,458 因为并非证明事物的形式 201 00:12:01,486 --> 00:12:06,279 一开始无法为计量经济学期刊所轻易接受 202 00:12:06,857 --> 00:12:11,174 Breiman研发回归树的时候也是不符正统 203 00:12:12,920 --> 00:12:18,400 我想他当时投稿计量经济学期刊 也必定遇到不少困难 204 00:12:19,967 --> 00:12:23,656 我认为我们画地自限 205 00:12:24,663 --> 00:12:27,830 因此难有突破 206 00:12:27,924 --> 00:12:31,154 毕竟很多机器学习的方法实际上很实用 207 00:12:31,163 --> 00:12:34,000 我认为总的来说 208 00:12:34,908 --> 00:12:40,168 计算机科学家在相关研究文献上 贡献了大量的这类演算法 209 00:12:40,582 --> 00:12:43,887 也提出诸多很实用的演算法 210 00:12:43,887 --> 00:12:48,964 而这也会影响我们进行实证研究的方式 211 00:12:49,749 --> 00:12:52,066 不过我们对此尚未完全内化 212 00:12:52,068 --> 00:12:57,748 因为我们仍相当专注于 获得点估计和标准误差 213 00:12:58,485 --> 00:13:00,214 还有P值 214 00:13:00,270 --> 00:13:06,183 某种程度上,我们得摆脱局限 以善用机器学习的能力 215 00:13:06,491 --> 00:13:10,702 以及相关文献的有益贡献 216 00:13:11,396 --> 00:13:13,548 - 我一方面颇能理解你的观点 217 00:13:13,548 --> 00:13:16,850 也就是传统的计量经济学框架 218 00:13:16,850 --> 00:13:23,612 是在类似趋近的设定下 提出一种方法来证明极限定理 219 00:13:24,237 --> 00:13:27,057 因此论文出版有所局限 220 00:13:27,273 --> 00:13:28,710 且在某种意义上 221 00:13:28,711 --> 00:13:33,211 藉由放宽对论文学理论述的想像 222 00:13:33,485 --> 00:13:38,299 机器学习的研究文献 就很多问题都有很实用的见解 223 00:13:38,300 --> 00:13:41,085 而且目前对计量经济学也有重大影响 224 00:13:41,434 --> 00:13:47,548 有个我很感兴趣的问题是你如何定位理论… 225 00:13:48,611 --> 00:13:51,255 你是否认为理论部分毫无价值可言? 226 00:13:51,600 --> 00:13:56,748 因为见到机器学习工具的产出时,我常有个疑问 227 00:13:56,772 --> 00:14:01,653 你所提到的几种方式 实际上都已开发出推论结果 228 00:14:02,535 --> 00:14:05,559 我想知道的是不确定性量化之类的方法 229 00:14:05,560 --> 00:14:08,000 我有自身的先验 230 00:14:08,000 --> 00:14:10,888 我有既定的观点,并观察到对应结果 231 00:14:10,889 --> 00:14:12,301 那要怎样就此更新呢? 232 00:14:12,302 --> 00:14:13,333 而在某种意义上 233 00:14:13,334 --> 00:14:17,145 若身处常态分布的世界,我也清楚怎样处理 234 00:14:17,146 --> 00:14:18,305 但此处却不然 235 00:14:18,305 --> 00:14:20,859 因此我想知道你对此有何看法 236 00:14:20,860 --> 00:14:26,426 - 我不认为这些结果并无特别之处 237 00:14:26,427 --> 00:14:30,161 但这类结果通常很难达成 238 00:14:30,162 --> 00:14:32,162 我们可能无法办到 239 00:14:32,489 --> 00:14:34,942 可能得分阶段来做 240 00:14:34,943 --> 00:14:36,505 得有人率先提出 241 00:14:36,506 --> 00:14:42,230 “看,我有个特定功能的有趣演算法 242 00:14:42,231 --> 00:14:44,699 且以特定标准而言 243 00:14:45,479 --> 00:14:49,804 这种演算法在这组数据集的功效良好 244 00:14:50,896 --> 00:14:52,602 所以我们应该提出来 245 00:14:52,602 --> 00:14:59,463 未来也许有人会有办法 在特定条件下以此进行推论 246 00:14:59,463 --> 00:15:03,800 然后发现达成条件不是很实际,那就再研究 247 00:15:03,903 --> 00:15:10,535 我觉得当我们过去始终认为 所投入的类型必须有所限制时 248 00:15:10,536 --> 00:15:13,185 这是在自我设限 249 00:15:13,185 --> 00:15:14,502 就某种意义而言 250 00:15:15,700 --> 00:15:21,716 这又回到Josh和我 对局部平均处理效应的看法 251 00:15:21,909 --> 00:15:25,174 以前人们并非这样看待这个问题的 252 00:15:25,899 --> 00:15:29,089 某种层面而言,有人会说 253 00:15:29,500 --> 00:15:33,845 这类工作的必要处理 就是先厘清需要估计的对象 254 00:15:34,132 --> 00:15:37,499 然后尽力估计 255 00:15:38,026 --> 00:15:44,158 但是你们这些人却倒行逆施 256 00:15:44,300 --> 00:15:46,546 你可能会说,“你看看,我有个估计器 257 00:15:47,203 --> 00:15:50,641 我要看看它所估计的内容是什么?” 258 00:15:50,642 --> 00:15:55,141 然后我猜你可能会说 “这有啥特别的”之类的回应 259 00:15:55,142 --> 00:15:58,451 并且说这样做不合理 260 00:15:58,948 --> 00:16:03,003 我认为我们看待问题的方式 261 00:16:03,487 --> 00:16:06,830 应该更灵活一点 262 00:16:06,831 --> 00:16:11,172 因为过去未曾尝试,我们已错失一些机会 263 00:16:11,300 --> 00:16:12,351 ♪ [音乐] ♪ 264 00:16:12,914 --> 00:16:14,752 - [Josh] Isaiah 你听到我们的观点了 265 00:16:14,753 --> 00:16:18,267 也了解我们有一些意见分歧 266 00:16:18,268 --> 00:16:20,400 为何不为我们评评理呢? 267 00:16:20,950 --> 00:16:22,394 [笑声] 268 00:16:22,500 --> 00:16:24,999 - 哦,你问的小问题好棒喔 269 00:16:25,062 --> 00:16:26,275 [笑声] 270 00:16:26,484 --> 00:16:32,966 我想一方面是我很认同 Guido提到的一些观点 271 00:16:34,100 --> 00:16:35,710 [笑声] 272 00:16:35,911 --> 00:16:40,156 有一点就机器学习来说似乎是比较清楚的 273 00:16:40,165 --> 00:16:45,016 就某种我们有兴趣投入的非参数预测问题来说 274 00:16:45,017 --> 00:16:49,625 无论是有条件的期望或条件概率 275 00:16:49,920 --> 00:16:53,545 过去这得跑内核回归 276 00:16:53,546 --> 00:16:57,314 得运行序列回归之类的分析 277 00:16:57,672 --> 00:17:00,442 所以目前为止,我们似乎明白了一件事 278 00:17:00,443 --> 00:17:02,958 在广泛的应用层面上 279 00:17:03,102 --> 00:17:07,457 像是估计有条件的平均函数、条件概率 280 00:17:07,458 --> 00:17:09,811 或其他各种非参数对象 281 00:17:09,811 --> 00:17:12,000 机器学习的方法 282 00:17:12,001 --> 00:17:15,879 似乎比计量经济学和统计学 惯用的非参数分析法 283 00:17:15,880 --> 00:17:17,292 表现得更好 284 00:17:17,299 --> 00:17:19,107 尤其是在高维空间观察数据 285 00:17:19,500 --> 00:17:22,976 你是在说倾向得分之类的? 286 00:17:22,977 --> 00:17:25,063 - 正是 - 滋扰函数 287 00:17:25,063 --> 00:17:27,215 - 对,倾向得分之类的 288 00:17:27,839 --> 00:17:30,577 甚至是直接相关的对象 289 00:17:30,578 --> 00:17:35,100 像是条件平均处理效应 这种区别两种条件期望函数者 290 00:17:35,100 --> 00:17:36,507 这类的可能 291 00:17:36,508 --> 00:17:38,095 当然,即便如此 292 00:17:38,873 --> 00:17:45,817 有关如何解读的理论推论 和这类项目的大规模样本陈述 293 00:17:45,818 --> 00:17:47,270 相对而言较不成熟 294 00:17:47,271 --> 00:17:50,100 这还得看机器学习所用的估计器而定 295 00:17:50,100 --> 00:17:53,165 所以吊诡的是 296 00:17:53,166 --> 00:17:57,957 机器学习的某些分析方法 就特定目的而言似乎更好用 297 00:17:57,958 --> 00:18:03,259 但我们得谨慎带入,并慎重解读结果的陈述 298 00:18:03,543 --> 00:18:07,667 但这无疑是当今显学,也不乏相关研究 299 00:18:07,668 --> 00:18:12,800 因此我全然可以预期 未来会有更多相关进展 300 00:18:12,913 --> 00:18:16,693 因此机器学习有个需要警惕的问题是-- 301 00:18:16,694 --> 00:18:22,139 这一方面是危机 而有时是减损应用价值的问题 302 00:18:22,139 --> 00:18:26,618 那便是当人们着手一项自身跃跃欲试 303 00:18:26,619 --> 00:18:28,676 ˊ而非问题导向的方法时 304 00:18:28,889 --> 00:18:35,219 与其就自身感兴趣的对象及参数来切入 305 00:18:35,490 --> 00:18:39,500 让我想一下要如何分辨特定事物 306 00:18:39,500 --> 00:18:41,894 如何在庞大的数据中将其涵盖 307 00:18:41,895 --> 00:18:47,065 “噢,这是有条件的期望函数 我来插入对应的机器学习的估计器” 308 00:18:47,065 --> 00:18:48,705 这样做似乎是很合理的 309 00:18:48,904 --> 00:18:53,084 反观若根据价格来回归数量 310 00:18:53,594 --> 00:18:55,773 然后辩称是采用机器学习的方法 311 00:18:56,217 --> 00:18:58,766 或许我很满意这解决了内生性问题 312 00:18:58,791 --> 00:19:01,200 对此我们通常会顾虑,但也可能不会 313 00:19:01,491 --> 00:19:06,291 但同样的,这让厘清问题的方法更明确了 314 00:19:06,500 --> 00:19:09,779 也就是先决定研究兴趣,再思索一下… 315 00:19:09,779 --> 00:19:11,623 - 就是带入经济学… 316 00:19:11,624 --> 00:19:12,741 - 没错 317 00:19:12,741 --> 00:19:14,566 - 并考量异质性 318 00:19:14,567 --> 00:19:20,186 并就部分因子来善用机器学习的方法 319 00:19:20,293 --> 00:19:21,387 - 正是如此 320 00:19:21,388 --> 00:19:25,801 所以引发兴趣的问题向来都是一样的 321 00:19:25,801 --> 00:19:28,483 但现在我们有一些更好的估计方法 322 00:19:28,864 --> 00:19:32,704 而难以预测之处 323 00:19:32,704 --> 00:19:37,196 就是机器学习的文献资料相当庞杂 324 00:19:37,452 --> 00:19:42,723 而我提到的带入方式毕竟有限 325 00:19:42,928 --> 00:19:45,476 因而衍生许多其他有趣的问题 326 00:19:45,477 --> 00:19:49,300 例如这类交互的未来发展 及能从中汲取的其他经验 327 00:19:49,300 --> 00:19:54,347 这些我相信仍有许多颇具前景的开发空间 328 00:19:54,414 --> 00:19:56,400 但我没有确切答案 329 00:19:56,935 --> 00:20:00,158 我完全同意 330 00:20:00,388 --> 00:20:03,539 这很令人期待 331 00:20:03,601 --> 00:20:06,162 我认为这方面只需再稍加把劲 332 00:20:06,600 --> 00:20:08,353 所以这点Isaiah跟我看法一致 333 00:20:08,720 --> 00:20:10,044 [笑声] 334 00:20:10,174 --> 00:20:11,633 - 我没这么说喔 335 00:20:12,926 --> 00:20:14,419 ♪ [音乐] ♪ 336 00:20:14,419 --> 00:20:16,833 若你想观看更多《诺贝尔对话》的节目 337 00:20:16,833 --> 00:20:18,012 点击此处 338 00:20:18,019 --> 00:20:20,312 或你若想多学一点计量经济学 339 00:20:20,467 --> 00:20:23,067 那就看看Josh的 《精通剂量经济学》系列视频 340 00:20:23,600 --> 00:20:26,569 若想多加认识 Guido、Josh和Isaiah 341 00:20:26,687 --> 00:20:28,550 请参考视频描述中的链接 342 00:20:28,796 --> 00:20:30,298 ♪ [音乐] ♪