[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:00.01,0:00:01.05,Default,,0000,0000,0000,,♪ [音乐] ♪ Dialogue: 0,0:00:03.62,0:00:05.70,Default,,0000,0000,0000,,[讲解员] 欢迎观看《诺贝尔对话》 Dialogue: 0,0:00:07.00,0:00:10.04,Default,,0000,0000,0000,,本集中,Josh Angrist\N和Guido Imbens Dialogue: 0,0:00:10.04,0:00:14.72,Default,,0000,0000,0000,,与Isaiah Andrews就机器学习\N在应用计量经济学中的角色 Dialogue: 0,0:00:14.72,0:00:16.59,Default,,0000,0000,0000,,展开讨论和争辩 Dialogue: 0,0:00:18.26,0:00:21.22,Default,,0000,0000,0000,,- [Isaiah] 有很多议题\N两位大致上都同意 Dialogue: 0,0:00:21.22,0:00:24.24,Default,,0000,0000,0000,,但我想换个或许两位各有看法的话题 Dialogue: 0,0:00:24.24,0:00:26.88,Default,,0000,0000,0000,,我想听听你们对机器学习的看法 Dialogue: 0,0:00:26.88,0:00:29.90,Default,,0000,0000,0000,,还有就经济学而言\N这方面在当前和未来的进展 Dialogue: 0,0:00:30.07,0:00:33.72,Default,,0000,0000,0000,,- [Guido] 我看过一些\N专利之类的数据 Dialogue: 0,0:00:33.72,0:00:34.98,Default,,0000,0000,0000,,但并无相关出版文献 Dialogue: 0,0:00:36.11,0:00:39.31,Default,,0000,0000,0000,,我看到有人做了搜索演算法的实验 Dialogue: 0,0:00:39.67,0:00:41.18,Default,,0000,0000,0000,,不过问题在于 Dialogue: 0,0:00:42.83,0:00:45.62,Default,,0000,0000,0000,,该实验是关于排序与改变排序的 Dialogue: 0,0:00:45.84,0:00:50.56,Default,,0000,0000,0000,,所以当中显然存在许多异质性 Dialogue: 0,0:00:52.16,0:00:56.03,Default,,0000,0000,0000,,比方说若要搜寻的是 Dialogue: 0,0:00:57.83,0:01:00.62,Default,,0000,0000,0000,,小甜甜布兰妮的照片\N(Britney Spears) Dialogue: 0,0:01:00.62,0:01:05.50,Default,,0000,0000,0000,,那结果排序不重要\N因为还要自行判断吻合的目标 Dialogue: 0,0:01:06.14,0:01:09.72,Default,,0000,0000,0000,,是排第一、第二,还是第三都无所谓 Dialogue: 0,0:01:10.09,0:01:12.49,Default,,0000,0000,0000,,但若要找的是最好的计量经济学专书 Dialogue: 0,0:01:13.14,0:01:18.20,Default,,0000,0000,0000,,结果排序是第一还是第十,差别就很大 Dialogue: 0,0:01:18.54,0:01:20.92,Default,,0000,0000,0000,,因为这关系到点阅率 Dialogue: 0,0:01:21.83,0:01:23.42,Default,,0000,0000,0000,,有监于此… Dialogue: 0,0:01:23.42,0:01:27.26,Default,,0000,0000,0000,,- [Josh] 为什么需要\N机器学习来发现这点? Dialogue: 0,0:01:27.26,0:01:29.20,Default,,0000,0000,0000,,这似乎我自己来就行了 Dialogue: 0,0:01:29.20,0:01:30.44,Default,,0000,0000,0000,,- [Guido] 所以总的来说… Dialogue: 0,0:01:30.44,0:01:32.10,Default,,0000,0000,0000,,- [Josh] 这有很多可能性 Dialogue: 0,0:01:32.10,0:01:37.26,Default,,0000,0000,0000,,- 因为设想到事物的诸多特性 Dialogue: 0,0:01:37.68,0:01:43.29,Default,,0000,0000,0000,,你会想了解造成异质性的驱力及其影响 Dialogue: 0,0:01:43.32,0:01:45.01,Default,,0000,0000,0000,,- 但你只是在预测 Dialogue: 0,0:01:45.01,0:01:47.66,Default,,0000,0000,0000,,某种意义上来说,这是在解决营销问题 Dialogue: 0,0:01:47.67,0:01:49.19,Default,,0000,0000,0000,,- 不,这有因果关系 Dialogue: 0,0:01:49.27,0:01:51.91,Default,,0000,0000,0000,,- 这是因果关系,但缺乏科学内涵 Dialogue: 0,0:01:51.91,0:01:53.14,Default,,0000,0000,0000,,不妨这样想 Dialogue: 0,0:01:53.66,0:01:57.31,Default,,0000,0000,0000,,- 不是的,在医疗界也有类似的例子 Dialogue: 0,0:01:57.86,0:02:01.94,Default,,0000,0000,0000,,你若对部分族群接受特定疗法的功效感兴趣 Dialogue: 0,0:02:01.95,0:02:03.70,Default,,0000,0000,0000,,因此进行研究实验 Dialogue: 0,0:02:03.83,0:02:07.89,Default,,0000,0000,0000,,这当中牵涉各种特性\N因此需要系统性地搜寻… Dialogue: 0,0:02:07.89,0:02:13.73,Default,,0000,0000,0000,,- 没错,但我有疑虑是个体因果关系的假设 Dialogue: 0,0:02:13.100,0:02:17.02,Default,,0000,0000,0000,,以及机器学习的洞察实用性 Dialogue: 0,0:02:17.26,0:02:20.04,Default,,0000,0000,0000,,考量到我丰富的执教经验 Dialogue: 0,0:02:20.05,0:02:24.11,Default,,0000,0000,0000,,包括一所公费资助的特许私校 Dialogue: 0,0:02:25.22,0:02:29.40,Default,,0000,0000,0000,,校方实际上可视需要自由安排课程 Dialogue: 0,0:02:29.53,0:02:33.39,Default,,0000,0000,0000,,有些特许学校的教学成效卓著 Dialogue: 0,0:02:33.79,0:02:37.66,Default,,0000,0000,0000,,而在产生这类结果的数据集中包含许多共变量 Dialogue: 0,0:02:37.66,0:02:43.21,Default,,0000,0000,0000,,包括基线分数、家庭背景、家长教育程度 Dialogue: 0,0:02:43.34,0:02:45.80,Default,,0000,0000,0000,,学生性别和种族 Dialogue: 0,0:02:45.93,0:02:49.80,Default,,0000,0000,0000,,一旦我将其中的数个项目整合后 Dialogue: 0,0:02:49.80,0:02:51.90,Default,,0000,0000,0000,,便会产生高维空间 Dialogue: 0,0:02:52.24,0:02:56.40,Default,,0000,0000,0000,,我对那种疗效研究的对应班级特征绝对有兴趣 Dialogue: 0,0:02:56.46,0:03:02.05,Default,,0000,0000,0000,,比如是否对出身低收入家庭者较有利 Dialogue: 0,0:03:02.41,0:03:06.04,Default,,0000,0000,0000,,但令我较难信服的应用是 Dialogue: 0,0:03:07.27,0:03:09.87,Default,,0000,0000,0000,,非常高维的这类资料 Dialogue: 0,0:03:09.87,0:03:14.97,Default,,0000,0000,0000,,我发现例如高收入家庭的非白人儿童 Dialogue: 0,0:03:14.97,0:03:17.80,Default,,0000,0000,0000,,但基线分数落在第三个四分位数 Dialogue: 0,0:03:18.17,0:03:22.93,Default,,0000,0000,0000,,且只在公立学校念到三年级而非六年级 Dialogue: 0,0:03:22.93,0:03:25.72,Default,,0000,0000,0000,,因此衍生高维分析 Dialogue: 0,0:03:25.72,0:03:28.02,Default,,0000,0000,0000,,条件陈述也很复杂 Dialogue: 0,0:03:28.22,0:03:30.68,Default,,0000,0000,0000,,我认为刚才那种排序有两大问题 Dialogue: 0,0:03:30.68,0:03:34.00,Default,,0000,0000,0000,,首先是分析难以执行 Dialogue: 0,0:03:34.60,0:03:36.41,Default,,0000,0000,0000,,也不明白这样做的理由 Dialogue: 0,0:03:36.59,0:03:41.14,Default,,0000,0000,0000,,我还知道有些替代模型就有几乎同样的作用 Dialogue: 0,0:03:41.67,0:03:42.88,Default,,0000,0000,0000,,这就完全不同了 Dialogue: 0,0:03:43.12,0:03:48.64,Default,,0000,0000,0000,,对吧?因为机器学习\N无法指出真正重要的预测因子 Dialogue: 0,0:03:48.64,0:03:51.02,Default,,0000,0000,0000,,只能找出不错的预测因子 Dialogue: 0,0:03:51.49,0:03:57.59,Default,,0000,0000,0000,,所以我认为就社会科学而言,情况有些不同 Dialogue: 0,0:03:57.78,0:04:00.98,Default,,0000,0000,0000,,- [Guido] 我想你提到的\N社会科学应用 Dialogue: 0,0:04:01.52,0:04:08.10,Default,,0000,0000,0000,,是效果异质性显著的例子 Dialogue: 0,0:04:09.78,0:04:13.41,Default,,0000,0000,0000,,- [Josh] 若可填补模型空间可能会有 Dialogue: 0,0:04:13.41,0:04:15.68,Default,,0000,0000,0000,,- 不是这样的! Dialogue: 0,0:04:15.74,0:04:18.79,Default,,0000,0000,0000,,我想就多数那些干扰因子来讲 Dialogue: 0,0:04:18.79,0:04:22.76,Default,,0000,0000,0000,,你会期望对所有人来说,效果意涵是一样的 Dialogue: 0,0:04:24.36,0:04:26.91,Default,,0000,0000,0000,,或许当中存在些许强度差异 Dialogue: 0,0:04:26.91,0:04:31.60,Default,,0000,0000,0000,,不过许多教育上的论辩\N认为这对大家都有好处 Dialogue: 0,0:04:34.17,0:04:37.38,Default,,0000,0000,0000,,并非只对某些人不好,对其他人就有益 Dialogue: 0,0:04:37.47,0:04:40.81,Default,,0000,0000,0000,,当然其中会有一小部分不好 Dialogue: 0,0:04:40.87,0:04:43.88,Default,,0000,0000,0000,,程度上会有落差 Dialogue: 0,0:04:43.95,0:04:46.96,Default,,0000,0000,0000,,但得有非常庞大的数据集才能发现 Dialogue: 0,0:04:47.14,0:04:51.42,Default,,0000,0000,0000,,我同意这类例子的分析难度不低 Dialogue: 0,0:04:51.70,0:04:56.46,Default,,0000,0000,0000,,但我想还有很多异质性更高的情境 Dialogue: 0,0:04:57.25,0:04:59.10,Default,,0000,0000,0000,,- 我不否认有那种可能 Dialogue: 0,0:04:59.10,0:05:04.92,Default,,0000,0000,0000,,我认为你所举的例子,本质上是营销案例 Dialogue: 0,0:05:06.32,0:05:10.63,Default,,0000,0000,0000,,不,这就组织机构是有其意涵的 Dialogue: 0,0:05:10.63,0:05:14.39,Default,,0000,0000,0000,,亦即实际上是否得顾虑… Dialogue: 0,0:05:15.47,0:05:17.90,Default,,0000,0000,0000,,- 好吧,那我得读那篇论文了 Dialogue: 0,0:05:18.34,0:05:21.01,Default,,0000,0000,0000,,所以感觉上 Dialogue: 0,0:05:21.47,0:05:23.100,Default,,0000,0000,0000,,- 某部份我们仍有意见分歧\N- 没错 Dialogue: 0,0:05:23.100,0:05:25.44,Default,,0000,0000,0000,,并非全然达成共识 Dialogue: 0,0:05:25.44,0:05:27.20,Default,,0000,0000,0000,,我也感觉到了 Dialogue: 0,0:05:27.20,0:05:30.83,Default,,0000,0000,0000,,- 这方面我们实际上有不同看法\N是因为并非切身相关 Dialogue: 0,0:05:30.83,0:05:32.33,Default,,0000,0000,0000,,[笑声] Dialogue: 0,0:05:33.05,0:05:34.76,Default,,0000,0000,0000,,现在气氛好一点了 Dialogue: 0,0:05:35.82,0:05:37.88,Default,,0000,0000,0000,,热络起来好啊 Dialogue: 0,0:05:38.02,0:05:39.69,Default,,0000,0000,0000,,Josh,听来你的意思是 Dialogue: 0,0:05:39.69,0:05:45.24,Default,,0000,0000,0000,,你并非全盘否认这类分析可能有的应用价值 Dialogue: 0,0:05:45.24,0:05:49.49,Default,,0000,0000,0000,,而是对当前应用抱持保留的态度 Dialogue: 0,0:05:49.92,0:05:51.59,Default,,0000,0000,0000,,- 这说得通\N- 我是很有信心的 Dialogue: 0,0:05:51.98,0:05:53.66,Default,,0000,0000,0000,,[笑声] Dialogue: 0,0:05:54.16,0:05:55.19,Default,,0000,0000,0000,,- 就此而言 Dialogue: 0,0:05:55.19,0:05:56.75,Default,,0000,0000,0000,,我认为Josh说的有道理 Dialogue: 0,0:05:57.99,0:06:04.97,Default,,0000,0000,0000,,即使是机器学习大放异彩的预测模型用例 Dialogue: 0,0:06:04.99,0:06:06.95,Default,,0000,0000,0000,,还是存在许多异质性 Dialogue: 0,0:06:07.30,0:06:10.41,Default,,0000,0000,0000,,你不太在意这其中的细节对吧? Dialogue: 0,0:06:10.77,0:06:11.84,Default,,0000,0000,0000,,- [Guido] 是的 Dialogue: 0,0:06:11.84,0:06:15.00,Default,,0000,0000,0000,,并无牵涉政策角度之类的 Dialogue: 0,0:06:15.13,0:06:20.09,Default,,0000,0000,0000,,机器学习更擅长辨识数字纪录之类的 Dialogue: 0,0:06:20.09,0:06:24.00,Default,,0000,0000,0000,,而非建构复杂的模型 Dialogue: 0,0:06:24.40,0:06:28.08,Default,,0000,0000,0000,,但是有很多社会科学,很多的经济应用 Dialogue: 0,0:06:28.22,0:06:31.90,Default,,0000,0000,0000,,事实上,我们很了解所属变数间的关联 Dialogue: 0,0:06:31.91,0:06:34.70,Default,,0000,0000,0000,,这些关联有很多是单调(monotone)的 Dialogue: 0,0:06:37.13,0:06:39.38,Default,,0000,0000,0000,,教育会提升收入 Dialogue: 0,0:06:39.70,0:06:41.95,Default,,0000,0000,0000,,不分是人口特性 Dialogue: 0,0:06:41.95,0:06:44.93,Default,,0000,0000,0000,,任何教育程度都一样 Dialogue: 0,0:06:44.93,0:06:46.08,Default,,0000,0000,0000,,直到获得博士学位 Dialogue: 0,0:06:46.08,0:06:47.96,Default,,0000,0000,0000,,研究所教育也一样吗? Dialogue: 0,0:06:47.96,0:06:49.23,Default,,0000,0000,0000,,[笑声] Dialogue: 0,0:06:49.23,0:06:55.60,Default,,0000,0000,0000,,合理的范围内还不至于大幅下滑 Dialogue: 0,0:06:56.04,0:06:59.69,Default,,0000,0000,0000,,许多情况下,这类机器学习的方法表现亮眼 Dialogue: 0,0:07:00.10,0:07:04.90,Default,,0000,0000,0000,,这些关联中包含许多非单调性的多模性 Dialogue: 0,0:07:05.30,0:07:08.46,Default,,0000,0000,0000,,就这些关联性来说,机器学习是很有力的工具 Dialogue: 0,0:07:08.92,0:07:11.79,Default,,0000,0000,0000,,不过我仍坚信 Dialogue: 0,0:07:12.47,0:07:17.61,Default,,0000,0000,0000,,经济学家能从这些方法中获益良多 Dialogue: 0,0:07:17.61,0:07:21.70,Default,,0000,0000,0000,,对未来前景影响甚钜 Dialogue: 0,0:07:21.89,0:07:22.98,Default,,0000,0000,0000,,♪ [音乐] ♪ Dialogue: 0,0:07:23.38,0:07:25.91,Default,,0000,0000,0000,,- [Isaiah] 机器学习在这方面\N似乎还有很多有趣的议题 Dialogue: 0,0:07:25.91,0:07:30.91,Default,,0000,0000,0000,,所以可否请Guido就当前既有的应用 Dialogue: 0,0:07:30.91,0:07:32.60,Default,,0000,0000,0000,,再举些例子? Dialogue: 0,0:07:32.63,0:07:34.15,Default,,0000,0000,0000,,其中一个例子就是 Dialogue: 0,0:07:34.67,0:07:39.56,Default,,0000,0000,0000,,我们目前舍弃一般的因果关系\N转向寻求个别化的估计 Dialogue: 0,0:07:41.49,0:07:43.43,Default,,0000,0000,0000,,来预测因果关系 Dialogue: 0,0:07:43.43,0:07:47.57,Default,,0000,0000,0000,,这方面机器学习的演算非常有用 Dialogue: 0,0:07:47.93,0:07:51.50,Default,,0000,0000,0000,,以往的传统途径是内核方法 Dialogue: 0,0:07:51.50,0:07:53.94,Default,,0000,0000,0000,,理论上成效不错 Dialogue: 0,0:07:53.94,0:07:57.29,Default,,0000,0000,0000,,不过有些人辩解道这已经是最好的了 Dialogue: 0,0:07:57.55,0:07:59.58,Default,,0000,0000,0000,,不过此法的实务表现不甚理想 Dialogue: 0,0:08:00.90,0:08:02.97,Default,,0000,0000,0000,,Stefan Wager\N和 Susan Athey Dialogue: 0,0:08:02.98,0:08:06.64,Default,,0000,0000,0000,,两位学者持续耕耘的\N随机与因果森林这类推断法 Dialogue: 0,0:08:06.92,0:08:09.43,Default,,0000,0000,0000,,应用非常广泛 Dialogue: 0,0:08:09.55,0:08:15.56,Default,,0000,0000,0000,,这些方法在这类情境中\N推断基于共变项的因果效应 Dialogue: 0,0:08:15.56,0:08:19.15,Default,,0000,0000,0000,,效果其实很不错 Dialogue: 0,0:08:20.60,0:08:23.82,Default,,0000,0000,0000,,我想这些推断方法才刚起步 Dialogue: 0,0:08:23.82,0:08:25.70,Default,,0000,0000,0000,,但很多情况下 Dialogue: 0,0:08:27.35,0:08:31.60,Default,,0000,0000,0000,,这些演算法在搜索广泛空间时 Dialogue: 0,0:08:31.72,0:08:37.02,Default,,0000,0000,0000,,以及找出适合的函数方面帮助很大 Dialogue: 0,0:08:37.27,0:08:40.95,Default,,0000,0000,0000,,其运作方式是我们无法事先备妥的 Dialogue: 0,0:08:41.50,0:08:43.02,Default,,0000,0000,0000,,就因果推论而言 Dialogue: 0,0:08:43.02,0:08:47.30,Default,,0000,0000,0000,,我并不清楚机器学习的洞见\N是否有吸引我关注的例子 Dialogue: 0,0:08:47.77,0:08:51.21,Default,,0000,0000,0000,,我知道一些很可能会误导的例子 Dialogue: 0,0:08:51.21,0:08:53.78,Default,,0000,0000,0000,,因此我和 Brigham Frandsen\N合作过一些相关研究 Dialogue: 0,0:08:54.02,0:08:59.90,Default,,0000,0000,0000,,例如,在需要界定共变量的工具变量问题中 Dialogue: 0,0:09:00.19,0:09:03.46,Default,,0000,0000,0000,,使用随机森林来建立共变量效应模型 Dialogue: 0,0:09:04.29,0:09:08.20,Default,,0000,0000,0000,,对此,你不会对其功能形式有特别强烈的感受 Dialogue: 0,0:09:08.20,0:09:12.92,Default,,0000,0000,0000,,因此或许需作决策曲线分析\N并对弹性曲线拟合分析持开放的态度 Dialogue: 0,0:09:12.92,0:09:16.76,Default,,0000,0000,0000,,这会引导你进入一种\N模型中包含许多非线性的情况 Dialogue: 0,0:09:17.31,0:09:19.93,Default,,0000,0000,0000,,这对工具变量来说很危险 Dialogue: 0,0:09:19.93,0:09:22.89,Default,,0000,0000,0000,,因为任何所排除的非线性 Dialogue: 0,0:09:23.23,0:09:25.84,Default,,0000,0000,0000,,都有可能导致因果效应的谬误 Dialogue: 0,0:09:25.84,0:09:29.29,Default,,0000,0000,0000,,我想我和Brigham已就这点提出有力证明 Dialogue: 0,0:09:29.29,0:09:35.16,Default,,0000,0000,0000,,所用的例子是我和Bill Evans\N合着的论文中所用的两项分析工具 Dialogue: 0,0:09:35.16,0:09:38.75,Default,,0000,0000,0000,,其中若将两阶段最小二乘法 Dialogue: 0,0:09:38.76,0:09:42.37,Default,,0000,0000,0000,,换成某种随机森林分析法 Dialogue: 0,0:09:42.90,0:09:46.81,Default,,0000,0000,0000,,便会得出精算过的虚假推估 Dialogue: 0,0:09:48.96,0:09:51.94,Default,,0000,0000,0000,,我认为这是一大警讯 Dialogue: 0,0:09:51.94,0:09:54.66,Default,,0000,0000,0000,,考量我使用简单分析工具 Dialogue: 0,0:09:54.67,0:09:58.98,Default,,0000,0000,0000,,就自身研究兴趣的案例中\N所得到的这些验证过的见解 Dialogue: 0,0:09:59.27,0:10:01.09,Default,,0000,0000,0000,,让我对此有所怀疑 Dialogue: 0,0:10:02.86,0:10:06.28,Default,,0000,0000,0000,,非线性和工具变量并不是很契合 Dialogue: 0,0:10:06.33,0:10:09.98,Default,,0000,0000,0000,,- 不是的,这听起来好像变成更复杂的层面 Dialogue: 0,0:10:10.05,0:10:11.80,Default,,0000,0000,0000,,- 我们谈的是工具变量...\N- 是的 Dialogue: 0,0:10:12.54,0:10:14.09,Default,,0000,0000,0000,,...所以才设法厘清 Dialogue: 0,0:10:14.40,0:10:15.90,Default,,0000,0000,0000,,[笑声] Dialogue: 0,0:10:15.91,0:10:17.29,Default,,0000,0000,0000,,有道理 Dialogue: 0,0:10:17.29,0:10:18.41,Default,,0000,0000,0000,,♪ [音乐] ♪ Dialogue: 0,0:10:18.41,0:10:22.13,Default,,0000,0000,0000,,- [Guido] 身为{\i1}Econometrica{\i0}的编辑\N我收到很多相关领域的论文 Dialogue: 0,0:10:22.64,0:10:26.82,Default,,0000,0000,0000,,不过其动机并不明确 Dialogue: 0,0:10:27.58,0:10:29.52,Default,,0000,0000,0000,,事实上是无从得知 Dialogue: 0,0:10:29.76,0:10:34.92,Default,,0000,0000,0000,,这些投稿论文并非传统的\N半母数估计的那种论文 Dialogue: 0,0:10:35.32,0:10:37.04,Default,,0000,0000,0000,,这是一大问题 Dialogue: 0,0:10:38.50,0:10:42.34,Default,,0000,0000,0000,,相关的一个问题是计量经济学有种惯例 Dialogue: 0,0:10:42.66,0:10:46.56,Default,,0000,0000,0000,,那就是非常专注于\N形式变量渐近后的趋近结果 Dialogue: 0,0:10:48.80,0:10:53.31,Default,,0000,0000,0000,,很多论文是作者提出一种方法后 Dialogue: 0,0:10:53.31,0:10:59.42,Default,,0000,0000,0000,,然后以一种非常标准化的方式建构出渐近的特性 Dialogue: 0,0:11:00.90,0:11:02.08,Default,,0000,0000,0000,,- 那样不好吗? Dialogue: 0,0:11:02.82,0:11:09.04,Default,,0000,0000,0000,,我想这多少会排挤掉许多框架外的研究 Dialogue: 0,0:11:09.04,0:11:13.58,Default,,0000,0000,0000,,毕竟机器学习的相关文献\N很多是比较偏向演算法的 Dialogue: 0,0:11:13.81,0:11:18.43,Default,,0000,0000,0000,,是基于演算法而得出预测 Dialogue: 0,0:11:18.74,0:11:23.46,Default,,0000,0000,0000,,结果证明这种方式的成效\N优于非参数内核回归 Dialogue: 0,0:11:23.65,0:11:24.68,Default,,0000,0000,0000,,长期以来 Dialogue: 0,0:11:24.68,0:11:28.64,Default,,0000,0000,0000,,计量经济学都在处理非参数\N大家用的都是内核回归 Dialogue: 0,0:11:29.04,0:11:31.20,Default,,0000,0000,0000,,这很适合用来证明定理 Dialogue: 0,0:11:31.21,0:11:34.68,Default,,0000,0000,0000,,可藉此得出置信区间、一致性和渐近正态性 Dialogue: 0,0:11:34.68,0:11:36.92,Default,,0000,0000,0000,,一切都很棒,但却不太实用 Dialogue: 0,0:11:37.26,0:11:40.76,Default,,0000,0000,0000,,机器学习的研究方式却好很多 Dialogue: 0,0:11:40.84,0:11:42.56,Default,,0000,0000,0000,,但又不会有这样的问题… Dialogue: 0,0:11:42.56,0:11:45.87,Default,,0000,0000,0000,,我不认为因为机器学习,所以理论是薄弱的 Dialogue: 0,0:11:45.87,0:11:47.14,Default,,0000,0000,0000,,[笑声] Dialogue: 0,0:11:47.14,0:11:52.39,Default,,0000,0000,0000,,不,我的意思是机器学习更擅于预测 Dialogue: 0,0:11:52.39,0:11:54.50,Default,,0000,0000,0000,,-机器学习是更好的曲线拟合工具 Dialogue: 0,0:11:54.86,0:11:57.70,Default,,0000,0000,0000,,但机器学习的研究分析方式 Dialogue: 0,0:11:57.70,0:12:00.46,Default,,0000,0000,0000,,因为并非证明事物的形式 Dialogue: 0,0:12:01.49,0:12:06.28,Default,,0000,0000,0000,,一开始无法为计量经济学期刊所轻易接受 Dialogue: 0,0:12:06.86,0:12:11.17,Default,,0000,0000,0000,,Breiman研发回归树的时候也是不符正统 Dialogue: 0,0:12:12.92,0:12:18.40,Default,,0000,0000,0000,,我想他当时投稿计量经济学期刊\N也必定遇到不少困难 Dialogue: 0,0:12:19.97,0:12:23.66,Default,,0000,0000,0000,,我认为我们画地自限 Dialogue: 0,0:12:24.66,0:12:27.83,Default,,0000,0000,0000,,因此难有突破 Dialogue: 0,0:12:27.92,0:12:31.15,Default,,0000,0000,0000,,毕竟很多机器学习的方法实际上很实用 Dialogue: 0,0:12:31.16,0:12:34.00,Default,,0000,0000,0000,,我认为总的来说 Dialogue: 0,0:12:34.91,0:12:40.17,Default,,0000,0000,0000,,计算机科学家在相关研究文献上\N贡献了大量的这类演算法 Dialogue: 0,0:12:40.58,0:12:43.89,Default,,0000,0000,0000,,也提出诸多很实用的演算法 Dialogue: 0,0:12:43.89,0:12:48.96,Default,,0000,0000,0000,,而这也会影响我们进行实证研究的方式 Dialogue: 0,0:12:49.75,0:12:52.07,Default,,0000,0000,0000,,不过我们对此尚未完全内化 Dialogue: 0,0:12:52.07,0:12:57.75,Default,,0000,0000,0000,,因为我们仍相当专注于\N获得点估计和标准误差 Dialogue: 0,0:12:58.48,0:13:00.21,Default,,0000,0000,0000,,还有P值 Dialogue: 0,0:13:00.27,0:13:06.18,Default,,0000,0000,0000,,某种程度上,我们得摆脱局限\N以善用机器学习的能力 Dialogue: 0,0:13:06.49,0:13:10.70,Default,,0000,0000,0000,,以及相关文献的有益贡献 Dialogue: 0,0:13:11.40,0:13:13.55,Default,,0000,0000,0000,,- 我一方面颇能理解你的观点 Dialogue: 0,0:13:13.55,0:13:16.85,Default,,0000,0000,0000,,也就是传统的计量经济学框架 Dialogue: 0,0:13:16.85,0:13:23.61,Default,,0000,0000,0000,,是在类似趋近的设定下\N提出一种方法来证明极限定理 Dialogue: 0,0:13:24.24,0:13:27.06,Default,,0000,0000,0000,,因此论文出版有所局限 Dialogue: 0,0:13:27.27,0:13:28.71,Default,,0000,0000,0000,,且在某种意义上 Dialogue: 0,0:13:28.71,0:13:33.21,Default,,0000,0000,0000,,藉由放宽对论文学理论述的想像 Dialogue: 0,0:13:33.48,0:13:38.30,Default,,0000,0000,0000,,机器学习的研究文献\N就很多问题都有很实用的见解 Dialogue: 0,0:13:38.30,0:13:41.08,Default,,0000,0000,0000,,而且目前对计量经济学也有重大影响 Dialogue: 0,0:13:41.43,0:13:47.55,Default,,0000,0000,0000,,有个我很感兴趣的问题是你如何定位理论… Dialogue: 0,0:13:48.61,0:13:51.26,Default,,0000,0000,0000,,你是否认为理论部分毫无价值可言? Dialogue: 0,0:13:51.60,0:13:56.75,Default,,0000,0000,0000,,因为见到机器学习工具的产出时,我常有个疑问 Dialogue: 0,0:13:56.77,0:14:01.65,Default,,0000,0000,0000,,你所提到的几种方式\N实际上都已开发出推论结果 Dialogue: 0,0:14:02.54,0:14:05.56,Default,,0000,0000,0000,,我想知道的是不确定性量化之类的方法 Dialogue: 0,0:14:05.56,0:14:08.00,Default,,0000,0000,0000,,我有自身的先验 Dialogue: 0,0:14:08.00,0:14:10.89,Default,,0000,0000,0000,,我有既定的观点,并观察到事务的结果 Dialogue: 0,0:14:10.89,0:14:12.30,Default,,0000,0000,0000,,那要怎样就此更新呢? Dialogue: 0,0:14:12.30,0:14:13.33,Default,,0000,0000,0000,,而在某种意义上 Dialogue: 0,0:14:13.33,0:14:17.14,Default,,0000,0000,0000,,若身处事物常态分布的世界,我也清楚怎样处理 Dialogue: 0,0:14:17.15,0:14:18.30,Default,,0000,0000,0000,,但此处却不然 Dialogue: 0,0:14:18.30,0:14:20.86,Default,,0000,0000,0000,,因此我想知道你对此有何看法 Dialogue: 0,0:14:20.86,0:14:26.43,Default,,0000,0000,0000,,- 我不认为这些结果并无特别之处 Dialogue: 0,0:14:26.43,0:14:30.16,Default,,0000,0000,0000,,但这类结果通常很难达成 Dialogue: 0,0:14:30.16,0:14:32.16,Default,,0000,0000,0000,,我们可能无法办到 Dialogue: 0,0:14:32.49,0:14:34.94,Default,,0000,0000,0000,,可能得分阶段来做 Dialogue: 0,0:14:34.94,0:14:36.50,Default,,0000,0000,0000,,得有人率先提出 Dialogue: 0,0:14:36.51,0:14:42.23,Default,,0000,0000,0000,,“看,我有个特定功能的有趣演算法 Dialogue: 0,0:14:42.23,0:14:44.70,Default,,0000,0000,0000,,且以特定标准而言 Dialogue: 0,0:14:45.48,0:14:49.80,Default,,0000,0000,0000,,这种演算法在这组数据集的功效良好 Dialogue: 0,0:14:50.90,0:14:52.60,Default,,0000,0000,0000,,所以我们应该提出来 Dialogue: 0,0:14:52.60,0:14:59.46,Default,,0000,0000,0000,,未来也许有人会有办法\N在特定条件下以此进行推论 Dialogue: 0,0:14:59.46,0:15:03.80,Default,,0000,0000,0000,,然后发现达成条件不是很实际,那就再研究 Dialogue: 0,0:15:03.90,0:15:10.54,Default,,0000,0000,0000,,我觉得当我们过去始终认为\N所投入的类型必须有所限制时 Dialogue: 0,0:15:10.54,0:15:13.18,Default,,0000,0000,0000,,这是在自我设限 Dialogue: 0,0:15:13.18,0:15:14.50,Default,,0000,0000,0000,,就某种意义而言 Dialogue: 0,0:15:15.70,0:15:21.72,Default,,0000,0000,0000,,这又回到Josh和我\N对局部平均处理效应的看法 Dialogue: 0,0:15:21.91,0:15:25.17,Default,,0000,0000,0000,,以前人们并非这样看待这个问题的