WEBVTT 00:00:00.012 --> 00:00:01.054 ♪ [音乐] ♪ 00:00:03.620 --> 00:00:05.700 [讲解员] 欢迎观看《诺贝尔对话》 00:00:07.000 --> 00:00:10.043 本集中,Josh Angrist 和Guido Imbens 00:00:10.043 --> 00:00:14.716 与Isaiah Andrews就机器学习 在应用计量经济学中的角色 00:00:14.717 --> 00:00:16.587 展开讨论和争辩 00:00:18.264 --> 00:00:21.223 - [Isaiah] 有很多议题 两位大致上都同意 00:00:21.224 --> 00:00:24.240 但我想换个或许两位各有看法的话题 00:00:24.240 --> 00:00:26.883 我想听听你们对机器学习的看法 00:00:26.883 --> 00:00:29.900 还有就经济学而言 这方面在当前和未来的进展 00:00:30.072 --> 00:00:33.714 - [Guido] 我看过一些 专论之类的数据 00:00:33.716 --> 00:00:34.978 但并无相关出版文献 00:00:36.106 --> 00:00:39.312 我看到有人做了搜索演算法的实验 00:00:39.668 --> 00:00:41.176 不过问题在于 00:00:42.829 --> 00:00:45.623 该实验是关于排序与改变排序的 00:00:45.837 --> 00:00:50.559 所以当中显然存在许多异质性 00:00:52.161 --> 00:00:56.031 比方说若要搜寻的是 00:00:57.831 --> 00:01:00.617 小甜甜布兰妮的照片 (Britney Spears) 00:01:00.617 --> 00:01:05.500 那结果排序不重要 因为还要自行判断吻合的目标 00:01:06.136 --> 00:01:09.717 是排第一、第二,还是第三都无所谓 00:01:10.091 --> 00:01:12.491 但若要找的是最好的计量经济学专书 00:01:13.139 --> 00:01:18.196 结果排序是第一还是第十,差别就很大 00:01:18.544 --> 00:01:20.923 因为这关系到点阅率 00:01:21.829 --> 00:01:23.417 有监于此… 00:01:23.417 --> 00:01:27.259 - [Josh] 为什么需要 机器学习来发现这点? 00:01:27.260 --> 00:01:29.195 这似乎我自己来就行了 00:01:29.195 --> 00:01:30.435 - [Guido] 所以总的来说… 00:01:30.435 --> 00:01:32.100 - [Josh] 这有很多可能性 00:01:32.101 --> 00:01:37.257 - 因为设想到事物的诸多特性 00:01:37.681 --> 00:01:43.287 你会想了解造成异质性的驱力及其影响 00:01:43.323 --> 00:01:45.008 - 但你只是在预测 00:01:45.008 --> 00:01:47.665 某种意义上来说,这是在解决营销问题 00:01:47.666 --> 00:01:49.191 - 不,这有因果关系 00:01:49.274 --> 00:01:51.911 - 这是因果关系,但缺乏科学内涵 00:01:51.911 --> 00:01:53.141 不妨这样想 00:01:53.664 --> 00:01:57.307 - 不是的,在医疗界也有类似的例子 00:01:57.857 --> 00:02:01.942 你若对部分族群接受特定疗法的功效感兴趣 00:02:01.951 --> 00:02:03.705 因此进行研究实验 00:02:03.828 --> 00:02:07.887 这当中牵涉各种特性 因此需要系统性地搜寻… 00:02:07.888 --> 00:02:13.730 - 没错,但我有疑虑是个体因果关系的假设 00:02:13.999 --> 00:02:17.024 以及机器学习的洞察实用性 00:02:17.259 --> 00:02:20.045 考量到我丰富的执教经验 00:02:20.046 --> 00:02:24.109 包括一所公费资助的特许私校 00:02:25.225 --> 00:02:29.399 校方实际上可视需要自由安排课程 00:02:29.529 --> 00:02:33.390 有些特许学校的教学成效卓著 00:02:33.789 --> 00:02:37.662 而在产生这类结果的数据集中包含许多共变量 00:02:37.663 --> 00:02:43.207 包括基线分数、家庭背景、家长教育程度 00:02:43.343 --> 00:02:45.800 学生性别和种族 00:02:45.930 --> 00:02:49.795 一旦我将其中的数个项目整合后 00:02:49.795 --> 00:02:51.900 便会产生高维空间 00:02:52.244 --> 00:02:56.402 我对那种疗效研究的对应班级特征绝对有兴趣 00:02:56.457 --> 00:03:02.046 比如是否对出身低收入家庭者较有利 00:03:02.409 --> 00:03:06.042 但令我较难信服的应用是 00:03:07.273 --> 00:03:09.872 非常高维的这类资料 00:03:09.872 --> 00:03:14.971 我发现例如高收入家庭的非白人儿童 00:03:14.971 --> 00:03:17.800 但基线分数落在第三个四分位数 00:03:18.166 --> 00:03:22.928 且只在公立学校念到三年级而非六年级 00:03:22.929 --> 00:03:25.715 因此衍生高维分析 00:03:25.716 --> 00:03:28.016 条件陈述也很复杂 00:03:28.223 --> 00:03:30.675 我认为刚才那种排序有两大问题 00:03:30.676 --> 00:03:34.000 首先是分析难以执行 00:03:34.600 --> 00:03:36.412 也不明白这样做的理由 00:03:36.591 --> 00:03:41.139 我还知道有些替代模型就有几乎同样的作用 00:03:41.671 --> 00:03:42.877 这就完全不同了 00:03:43.115 --> 00:03:48.636 对吧?因为机器学习 无法指出真正重要的预测因子 00:03:48.637 --> 00:03:51.020 只能找出不错的预测因子 00:03:51.486 --> 00:03:57.586 所以我认为就社会科学而言,情况有些不同 00:03:57.785 --> 00:04:00.983 - [Guido] 我想你提到的 社会科学应用 00:04:01.522 --> 00:04:08.100 是效果异质性显著的例子 00:04:09.783 --> 00:04:13.410 - [Josh] 若可填补模型空间可能会有 00:04:13.411 --> 00:04:15.685 - 不是这样的! 00:04:15.739 --> 00:04:18.786 我想就多数那些干扰因子来讲 00:04:18.787 --> 00:04:22.765 你会期望对所有人来说,效果意涵是一样的 00:04:24.358 --> 00:04:26.913 或许当中存在些许强度差异 00:04:26.914 --> 00:04:31.596 不过许多教育上的论辩 认为这对大家都有好处 00:04:34.169 --> 00:04:37.385 并非只对某些人不好,对其他人就有益 00:04:37.471 --> 00:04:40.812 当然其中会有一小部分不好 00:04:40.869 --> 00:04:43.884 程度上会有落差 00:04:43.948 --> 00:04:46.955 但得有非常庞大的数据集才能发现 00:04:47.135 --> 00:04:51.415 我同意这类例子的分析难度不低 00:04:51.700 --> 00:04:56.457 但我想还有很多异质性更高的情境 00:04:57.250 --> 00:04:59.102 - 我不否认有那种可能 00:04:59.102 --> 00:05:04.918 我认为你所举的例子,本质上是营销案例 00:05:06.315 --> 00:05:10.630 不,这就组织机构是有其意涵的 00:05:10.631 --> 00:05:14.393 亦即实际上是否得顾虑… 00:05:15.469 --> 00:05:17.900 - 好吧,那我得读那篇论文了 00:05:18.336 --> 00:05:21.008 所以感觉上 00:05:21.467 --> 00:05:23.996 - 某部份我们仍有意见分歧 - 没错 00:05:23.996 --> 00:05:25.440 并非全然达成共识 00:05:25.440 --> 00:05:27.200 我也感觉到了 00:05:27.200 --> 00:05:30.833 - 这方面我们实际上有不同看法 是因为并非切身相关 00:05:30.833 --> 00:05:32.334 [笑声] 00:05:33.049 --> 00:05:34.763 现在气氛好一点了 00:05:35.820 --> 00:05:37.883 热络起来好啊 00:05:38.016 --> 00:05:39.691 Josh,听来你的意思是 00:05:39.692 --> 00:05:45.236 你并非全盘否认这类分析可能有的应用价值 00:05:45.237 --> 00:05:49.487 而是对当前应用抱持保留的态度 00:05:49.917 --> 00:05:51.589 - 这说得通 - 我是很有信心的 00:05:51.981 --> 00:05:53.663 [笑声] 00:05:54.156 --> 00:05:55.189 - 就此而言 00:05:55.189 --> 00:05:56.751 我认为Josh说的有道理 00:05:57.987 --> 00:06:04.974 即使是机器学习大放异彩的预测模型用例 00:06:04.992 --> 00:06:06.952 还是存在许多异质性 00:06:07.300 --> 00:06:10.411 你不太在意这其中的细节对吧? 00:06:10.769 --> 00:06:11.836 - [Guido] 是的 00:06:11.836 --> 00:06:15.000 并无牵涉政策角度之类的 00:06:15.128 --> 00:06:20.089 机器学习更擅长辨识数字纪录之类的 00:06:20.090 --> 00:06:24.000 而非建构复杂的模型 00:06:24.400 --> 00:06:28.079 但是有很多社会科学,很多的经济应用 00:06:28.222 --> 00:06:31.905 事实上,我们很了解所属变数间的关联 00:06:31.906 --> 00:06:34.700 这些关联有很多是单调(monotone)的 00:06:37.126 --> 00:06:39.376 教育会提升收入 00:06:39.697 --> 00:06:41.950 不分是人口特性 00:06:41.950 --> 00:06:44.930 任何教育程度都一样 00:06:44.930 --> 00:06:46.076 直到获得博士学位 00:06:46.077 --> 00:06:47.956 研究所教育也一样吗? 00:06:47.956 --> 00:06:49.227 [笑声] 00:06:49.227 --> 00:06:55.605 合理的范围内还不至于大幅下滑 00:06:56.044 --> 00:06:59.692 许多情况下,这类机器学习的方法表现亮眼 00:07:00.100 --> 00:07:04.900 这些关联中包含许多非单调性的多模性 00:07:05.300 --> 00:07:08.456 就这些关联性来说,机器学习是很有力的工具 00:07:08.921 --> 00:07:11.787 不过我仍坚信 00:07:12.472 --> 00:07:17.608 经济学家能从这些方法中获益良多 00:07:17.609 --> 00:07:21.700 对未来前景影响甚钜 00:07:21.889 --> 00:07:22.979 ♪ [音乐] ♪ 00:07:23.382 --> 00:07:25.912 - [Isaiah] 机器学习在这方面 似乎还有很多有趣的议题 00:07:25.912 --> 00:07:30.908 所以可否请Guido就当前既有的应用 00:07:30.908 --> 00:07:32.598 再举些例子? 00:07:32.628 --> 00:07:34.150 其中一个例子就是 00:07:34.673 --> 00:07:39.565 我们目前舍弃一般的因果关系 转向寻求个别化的估计 00:07:41.492 --> 00:07:43.426 来预测因果关系 00:07:43.427 --> 00:07:47.569 这方面机器学习的演算非常有用 00:07:47.932 --> 00:07:51.503 以往的传统途径是内核方法 00:07:51.504 --> 00:07:53.936 理论上成效不错 00:07:53.937 --> 00:07:57.294 不过有些人辩解道这已经是最好的了 00:07:57.548 --> 00:07:59.579 不过此法的实务表现不甚理想 00:08:00.900 --> 00:08:02.971 Stefan Wager 和 Susan Athey 00:08:02.979 --> 00:08:06.644 两位学者持续耕耘的 随机与因果森林这类推断法 00:08:06.916 --> 00:08:09.429 应用非常广泛 00:08:09.548 --> 00:08:15.562 这些方法在这类情境中 推断基于共变项的因果效应 00:08:15.563 --> 00:08:19.151 效果其实很不错 00:08:20.604 --> 00:08:23.818 我想这些推断方法才刚起步 00:08:23.819 --> 00:08:25.700 但很多情况下 00:08:27.351 --> 00:08:31.600 这些演算法在搜索广泛空间时 00:08:31.721 --> 00:08:37.021 以及找出适合的函数方面帮助很大 00:08:37.267 --> 00:08:40.948 其运作方式是我们无法事先备妥的 00:08:41.500 --> 00:08:43.015 就因果推论而言 00:08:43.016 --> 00:08:47.295 我并不清楚机器学习的洞见 是否有吸引我关注的例子 00:08:47.767 --> 00:08:51.209 我知道一些很可能会误导的例子 00:08:51.210 --> 00:08:53.781 因此我和 Brigham Frandsen 合作过一些相关研究 00:08:54.022 --> 00:08:59.897 例如,在需要界定共变量的工具变量问题中 00:09:00.187 --> 00:09:03.456 使用随机森林来建立共变量效应模型 00:09:04.288 --> 00:09:08.200 对此,你不会对其功能形式有特别强烈的感受 00:09:08.201 --> 00:09:12.915 因此或许需作决策曲线分析 并对弹性曲线拟合分析持开放的态度 00:09:12.916 --> 00:09:16.757 这会引导你进入一种 模型中包含许多非线性的情况 00:09:17.312 --> 00:09:19.933 这对工具变量来说很危险 00:09:19.933 --> 00:09:22.893 因为任何所排除的非线性 00:09:23.226 --> 00:09:25.839 都有可能导致因果效应的谬误 00:09:25.839 --> 00:09:29.292 我想我和Brigham已就这点提出有力证明 00:09:29.292 --> 00:09:35.159 所用的例子是我和Bill Evans 合着的论文中所用的两项分析工具 00:09:35.160 --> 00:09:38.754 其中若将两阶段最小二乘法 00:09:38.755 --> 00:09:42.366 换成某种随机森林分析法 00:09:42.900 --> 00:09:46.807 便会得出精算过的虚假推估 00:09:48.962 --> 00:09:51.942 我认为这是一大警讯 00:09:51.943 --> 00:09:54.665 考量我使用简单分析工具 00:09:54.666 --> 00:09:58.975 就自身研究兴趣的案例中 所得到的这些验证过的见解 00:09:59.268 --> 00:10:01.093 让我对此有所怀疑 00:10:02.862 --> 00:10:06.276 非线性和工具变量并不是很契合 00:10:06.331 --> 00:10:09.981 - 不是的,这听起来好像变成更复杂的层面 00:10:10.052 --> 00:10:11.802 - 我们谈的是工具变量... - 是的 00:10:12.536 --> 00:10:14.091 ...所以才设法厘清 00:10:14.395 --> 00:10:15.899 [笑声] 00:10:15.907 --> 00:10:17.289 有道理 00:10:17.289 --> 00:10:18.410 ♪ [音乐] ♪ 00:10:18.410 --> 00:10:22.132 - [Guido] 身为Econometrica的编辑 我收到很多相关领域的论文 00:10:22.640 --> 00:10:26.823 不过其动机并不明确 00:10:27.578 --> 00:10:29.523 事实上是无从得知 00:10:29.759 --> 00:10:34.919 这些投稿论文并非传统的 半母数估计的那种论文 00:10:35.315 --> 00:10:37.045 这是一大问题 00:10:38.496 --> 00:10:42.337 相关的一个问题是计量经济学有种惯例 00:10:42.664 --> 00:10:46.560 那就是非常专注于 形式变量渐近后的趋近结果 00:10:48.800 --> 00:10:53.311 很多论文是作者提出一种方法后 00:10:53.312 --> 00:10:59.420 然后以一种非常标准化的方式建构出渐近的特性 00:11:00.896 --> 00:11:02.078 - 那样不好吗? 00:11:02.815 --> 00:11:09.040 我想这多少会排挤掉许多框架外的研究 00:11:09.040 --> 00:11:13.585 毕竟机器学习的相关文献 很多是比较偏向演算法的 00:11:13.808 --> 00:11:18.433 是基于演算法而得出预测 00:11:18.744 --> 00:11:23.458 结果证明这种方式的成效 优于非参数内核回归 00:11:23.650 --> 00:11:24.682 长期以来 00:11:24.683 --> 00:11:28.643 计量经济学都在处理非参数 大家用的都是内核回归 00:11:29.037 --> 00:11:31.202 这很适合用来证明定理 00:11:31.210 --> 00:11:34.684 可藉此得出置信区间、一致性和渐近正态性 00:11:34.684 --> 00:11:36.920 一切都很棒,但却不太实用 00:11:37.260 --> 00:11:40.760 机器学习的研究方式却好很多 00:11:40.844 --> 00:11:42.557 但又不会有这样的问题… 00:11:42.557 --> 00:11:45.871 我不认为因为机器学习,所以理论是薄弱的 00:11:45.871 --> 00:11:47.141 [笑声] 00:11:47.141 --> 00:11:52.394 不,我的意思是机器学习更擅于预测 00:11:52.394 --> 00:11:54.500 -机器学习是更好的曲线拟合工具 00:11:54.864 --> 00:11:57.704 但机器学习的研究分析方式 00:11:57.705 --> 00:12:00.458 因为并非证明事物的形式 00:12:01.486 --> 00:12:06.279 一开始无法为计量经济学期刊所轻易接受 00:12:06.857 --> 00:12:11.174 Breiman研发回归树的时候也是不符正统 00:12:12.920 --> 00:12:18.400 我想他当时投稿计量经济学期刊 也必定遇到不少困难 00:12:19.967 --> 00:12:23.656 我认为我们画地自限 00:12:24.663 --> 00:12:27.830 因此难有突破 00:12:27.924 --> 00:12:31.154 毕竟很多机器学习的方法实际上很实用 00:12:31.163 --> 00:12:34.000 我认为总的来说 00:12:34.908 --> 00:12:40.168 计算机科学家在相关研究文献上 贡献了大量的这类演算法 00:12:40.582 --> 00:12:43.887 也提出诸多很实用的演算法 00:12:43.887 --> 00:12:48.964 而这也会影响我们进行实证研究的方式 00:12:49.750 --> 00:12:52.067 不过我们对此尚未完全内化 00:12:52.068 --> 00:12:57.748 因为我们仍相当专注于 获得点估计和标准误差 00:12:58.485 --> 00:13:00.214 还有P值 00:13:00.270 --> 00:13:06.183 某种程度上,我们得摆脱局限 以善用机器学习的能力 00:13:06.491 --> 00:13:10.702 以及相关文献的有益贡献 00:13:11.396 --> 00:13:13.548 - 我一方面颇能理解你的观点 00:13:13.548 --> 00:13:16.850 也就是传统的计量经济学框架 00:13:16.850 --> 00:13:23.612 是在类似趋近的设定下 提出一种方法来证明极限定理 00:13:24.237 --> 00:13:27.057 因此论文出版有所局限 00:13:27.273 --> 00:13:28.710 且在某种意义上 00:13:28.711 --> 00:13:33.211 藉由放宽对论文学理论述的想像 00:13:33.485 --> 00:13:38.299 机器学习的研究文献 就很多问题都有很实用的见解 00:13:38.300 --> 00:13:41.085 而且目前对计量经济学也有重大影响 00:13:41.434 --> 00:13:47.548 有个我很感兴趣的问题是你如何定位理论… 00:13:48.611 --> 00:13:51.255 你是否认为理论部分毫无价值可言? 00:13:51.600 --> 00:13:56.748 因为见到机器学习工具的产出时,我常有个疑问 00:13:56.772 --> 00:14:01.653 你所提到的几种方式 实际上都已开发出推论结果 00:14:02.535 --> 00:14:05.559 我想知道的是不确定性量化之类的方法 00:14:05.560 --> 00:14:08.000 我有自身的先验 00:14:08.000 --> 00:14:10.888 我有既定的观点,并观察到事务的结果 00:14:10.889 --> 00:14:12.301 那要怎样就此更新呢? 00:14:12.302 --> 00:14:13.333 而在某种意义上 00:14:13.334 --> 00:14:17.145 若身处事物常态分布的世界,我也清楚怎样处理 00:14:17.146 --> 00:14:18.305 但此处却不然 00:14:18.305 --> 00:14:20.859 因此我想知道你对此有何看法 00:14:20.860 --> 00:14:26.426 - 我不认为这些结果并无特别之处 00:14:26.427 --> 00:14:30.161 但这类结果通常很难达成 00:14:30.162 --> 00:14:32.162 我们可能无法办到 00:14:32.489 --> 00:14:34.942 可能得分阶段来做 00:14:34.943 --> 00:14:36.505 得有人率先提出 00:14:36.506 --> 00:14:42.230 “看,我有个特定功能的有趣演算法 00:14:42.231 --> 00:14:44.699 且以特定标准而言 00:14:45.479 --> 00:14:49.804 这种演算法在这组数据集的功效良好 00:14:50.896 --> 00:14:52.602 所以我们应该提出来 00:14:52.602 --> 00:14:59.463 未来也许有人会有办法 在特定条件下以此进行推论 00:14:59.463 --> 00:15:03.800 然后发现达成条件不是很实际,那就再研究 00:15:03.903 --> 00:15:10.535 我觉得当我们过去始终认为 所投入的类型必须有所限制时 00:15:10.536 --> 00:15:13.185 这是在自我设限 00:15:13.185 --> 00:15:14.502 就某种意义而言 00:15:15.700 --> 00:15:21.716 这又回到Josh和我 对局部平均处理效应的看法 00:15:21.909 --> 00:15:25.174 以前人们并非这样看待这个问题的 00:15:25.899 --> 00:15:29.089 某种层面而言,有人会说 00:15:29.500 --> 00:15:33.845 这类工作的必要处理 就是先厘清需要估计的对象 00:15:34.132 --> 00:15:37.499 然后尽力估计 00:15:38.026 --> 00:15:44.158 但是你们这些人却倒行逆施 00:15:44.300 --> 00:15:46.546 你可能会说,“你看看,我有个估计器 00:15:47.203 --> 00:15:50.641 我要看看它所估计的内容是什么?” 00:15:50.642 --> 00:15:55.141 然后我猜你可能会说 “这有啥特别的”之类的回应 00:15:55.142 --> 00:15:58.451 并且说这样做不合理 00:15:58.948 --> 00:16:03.003 我认为我们看待问题的方式 00:16:03.487 --> 00:16:06.830 应该更灵活一点 00:16:06.831 --> 00:16:11.172 因为过去未曾尝试,我们已错失一些机会 00:16:11.300 --> 00:16:12.351 ♪ [音乐] ♪ 00:16:12.914 --> 00:16:14.752 - [Josh] Isaiah 你听到我们的观点了 00:16:14.753 --> 00:16:18.267 也了解我们有一些意见分歧 00:16:18.268 --> 00:16:20.400 为何不为我们评评理呢? 00:16:20.950 --> 00:16:22.394 [笑声] 00:16:22.500 --> 00:16:24.999 - 哦,你问的小问题好棒喔 00:16:25.062 --> 00:16:26.275 [笑声] 00:16:26.484 --> 00:16:32.966 我想一方面是我很认同 Guido提到的一些观点 00:16:34.100 --> 00:16:35.710 [笑声] 00:16:35.911 --> 00:16:40.156 有一点就机器学习来说似乎是比较清楚的 00:16:40.165 --> 00:16:45.016 就某种我们有兴趣投入的非参数预测问题来说 00:16:45.017 --> 00:16:49.625 无论是有条件的期望或条件概率 00:16:49.920 --> 00:16:53.545 过去这得跑内核回归 00:16:53.546 --> 00:16:57.314 得运行序列回归之类的分析 00:16:57.672 --> 00:17:00.442 所以目前为止,我们似乎明白了一件事 00:17:00.443 --> 00:17:02.958 在广泛的应用层面上 00:17:03.102 --> 00:17:07.457 像是估计有条件的平均函数、条件概率 00:17:07.458 --> 00:17:09.811 或其他各种非参数对象 00:17:09.811 --> 00:17:12.000 机器学习的方法 00:17:12.001 --> 00:17:15.879 似乎比计量经济学和统计学 惯用的非参数分析法 00:17:15.880 --> 00:17:17.292 表现得更好 00:17:17.299 --> 00:17:19.107 尤其是在高维空间观察数据 00:17:19.500 --> 00:17:22.976 你是在说倾向得分之类的? 00:17:22.977 --> 00:17:25.063 - 正是 - 滋扰函数 00:17:25.063 --> 00:17:27.215 - 对,倾向得分之类的 00:17:27.839 --> 00:17:30.577 甚至是直接相关的对象 00:17:30.578 --> 00:17:35.100 像是条件平均处理效应 这种区别两种条件期望函数者 00:17:35.100 --> 00:17:36.507 这类的可能 00:17:36.508 --> 00:17:38.095 当然,即便如此 00:17:38.873 --> 00:17:45.817 有关如何解读的理论推论 和这类项目的大规模样本陈述 00:17:45.818 --> 00:17:47.270 相对而言较不成熟 00:17:47.271 --> 00:17:50.100 这还得看机器学习所用的估计器而定 00:17:50.100 --> 00:17:53.165 所以吊诡的是 00:17:53.166 --> 00:17:57.957 机器学习的某些分析方法 就特定目的而言似乎更好用 00:17:57.958 --> 00:18:03.259 但我们得谨慎带入,并慎重解读结果的陈述 00:18:03.543 --> 00:18:07.667 但这无疑是当今显学,也不乏相关研究 00:18:07.668 --> 00:18:12.800 因此我全然可以预期 未来会有更多相关进展 00:18:12.913 --> 00:18:16.693 因此机器学习有个需要警惕的问题是-- 00:18:16.694 --> 00:18:22.139 这一方面是危机 也是减损应用开发价值的问题 00:18:22.139 --> 00:18:26.618 那便是当人们着手一项自身跃跃欲试 00:18:26.619 --> 00:18:28.676 ˊ而非问题导向的方法时 00:18:28.898 --> 00:18:35.228 因此与其就自身感兴趣的对象及参数来切入 00:18:35.490 --> 00:18:39.500 让我想一下要如何分辨特定事物 00:18:39.500 --> 00:18:41.894 如何在庞大的数据中将其涵盖 00:18:41.895 --> 00:18:47.065 “噢,这是有条件的期望函数 我来插入对应的机器学习的估计器” 00:18:47.065 --> 00:18:48.705 这样做似乎是很合理的 00:18:48.904 --> 00:18:53.084 反观若根据价格来回归数量 00:18:53.594 --> 00:18:55.773 然后辩称是采用机器学习的方法 00:18:56.217 --> 00:18:58.766 或许我很满意这解决了内生性问题 00:18:58.791 --> 00:19:01.200 对此我们通常会顾虑,但也可能不会 00:19:01.491 --> 00:19:06.291 但同样的,这让厘清问题的方法更明确了 00:19:06.500 --> 00:19:09.779 也就是先决定研究兴趣,再思索一下… 00:19:09.779 --> 00:19:11.623 - 就是带入经济学… 00:19:11.624 --> 00:19:12.741 - 没错 00:19:12.741 --> 00:19:14.566 - 并考量异质性 00:19:14.567 --> 00:19:20.186 并就部分因子来善用机器学习的方法 00:19:20.293 --> 00:19:21.387 - 正是如此 00:19:21.388 --> 00:19:25.801 所以引发兴趣的问题向来都是一样的 00:19:25.801 --> 00:19:28.483 但现在我们有一些更好的估计方法 00:19:28.864 --> 00:19:32.704 而难以预测之处 00:19:32.704 --> 00:19:37.196 就是机器学习的文献资料相当庞杂 00:19:37.452 --> 00:19:42.723 而我提到的带入方式毕竟有限 00:19:42.928 --> 00:19:45.476 因而衍生许多其他有趣的问题 00:19:45.477 --> 00:19:49.300 例如这类交互的未来发展及从中汲取的经验 00:19:49.300 --> 00:19:54.347 这些我相信仍有许多颇具前景的开发空间 00:19:54.414 --> 00:19:56.400 但我没有确切答案 00:19:56.935 --> 00:20:00.158 我完全同意 00:20:00.388 --> 00:20:03.539 这很令人期待 00:20:03.601 --> 00:20:06.162 我认为这方面只需再稍加把劲 00:20:06.600 --> 00:20:08.353 所以这点Isaiah跟我看法一致 00:20:08.720 --> 00:20:10.044 [笑声] 00:20:10.174 --> 00:20:11.633 - 我没这么说喔 00:20:12.926 --> 00:20:14.419 ♪ [音乐] ♪ 00:20:14.419 --> 00:20:16.833 若你想观看更多《诺贝尔对话》的节目 00:20:16.833 --> 00:20:18.012 点击此处 00:20:18.019 --> 00:20:20.312 或你若想多学一点计量经济学 00:20:20.467 --> 00:20:23.067 那就看看Josh的 《精通剂量经济学》系列视频 00:20:23.600 --> 00:20:26.569 若想多加认识 Guido、Josh和Isaiah 00:20:26.687 --> 00:20:28.550 请参考视频描述中的链接 00:20:28.796 --> 00:20:30.298 ♪ [音乐] ♪