[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:00.01,0:00:01.05,Default,,0000,0000,0000,,♪ [音乐] ♪ Dialogue: 0,0:00:03.62,0:00:06.42,Default,,0000,0000,0000,,[讲解员] 欢迎观看《诺奖得主畅谈系列》 Dialogue: 0,0:00:07.00,0:00:10.04,Default,,0000,0000,0000,,在本集中,Josh Angrist\N和Guido Imbens Dialogue: 0,0:00:10.04,0:00:14.72,Default,,0000,0000,0000,,与Isaiah Andrews就机器学习\N在应用计量经济学中的作用 Dialogue: 0,0:00:14.72,0:00:16.59,Default,,0000,0000,0000,,展开讨论和争辩 Dialogue: 0,0:00:18.26,0:00:21.22,Default,,0000,0000,0000,,- [Isaiah] 有很多议题\N两位大致上都意见一致 Dialogue: 0,0:00:21.22,0:00:24.24,Default,,0000,0000,0000,,但我想换个两位有异议的话题 Dialogue: 0,0:00:24.24,0:00:26.88,Default,,0000,0000,0000,,我想听听您们对机器学习的看法 Dialogue: 0,0:00:26.88,0:00:29.90,Default,,0000,0000,0000,,还有就经济学而言\N它在当前和未来所起的作用 Dialogue: 0,0:00:30.07,0:00:33.71,Default,,0000,0000,0000,,- [Guido] 我看过一些\N专论之类的数据 Dialogue: 0,0:00:33.72,0:00:35.24,Default,,0000,0000,0000,,但并无相关出版文献 Dialogue: 0,0:00:36.11,0:00:39.31,Default,,0000,0000,0000,,我看到有人做了搜索算法之类的实验 Dialogue: 0,0:00:39.67,0:00:41.74,Default,,0000,0000,0000,,不过问题在于 Dialogue: 0,0:00:42.83,0:00:45.62,Default,,0000,0000,0000,,该实验是关于排序与改变排序的 Dialogue: 0,0:00:45.84,0:00:50.56,Default,,0000,0000,0000,,所以当中显然存在许多异质性 Dialogue: 0,0:00:52.16,0:00:56.03,Default,,0000,0000,0000,,比方说若要搜寻的是 Dialogue: 0,0:00:57.83,0:01:00.62,Default,,0000,0000,0000,,Britney Spears的照片 Dialogue: 0,0:01:00.62,0:01:05.50,Default,,0000,0000,0000,,那么,排序并不重要\N因为你会自行判断结果 Dialogue: 0,0:01:06.14,0:01:09.72,Default,,0000,0000,0000,,排第一、第二,还是第三都无所谓 Dialogue: 0,0:01:10.09,0:01:12.95,Default,,0000,0000,0000,,但若找的是最好的计量经济学专业书籍 Dialogue: 0,0:01:13.14,0:01:18.20,Default,,0000,0000,0000,,结果排序是第一还是第十,差别就很大了 Dialogue: 0,0:01:18.54,0:01:20.92,Default,,0000,0000,0000,,因为这关系到点阅率 Dialogue: 0,0:01:21.83,0:01:23.42,Default,,0000,0000,0000,,所以… Dialogue: 0,0:01:23.42,0:01:27.26,Default,,0000,0000,0000,,- [Josh] 为什么需要\N机器学习来发现这点? Dialogue: 0,0:01:27.26,0:01:29.20,Default,,0000,0000,0000,,似乎我自己来就行了 Dialogue: 0,0:01:29.20,0:01:30.44,Default,,0000,0000,0000,,- 总的来说… Dialogue: 0,0:01:30.44,0:01:32.10,Default,,0000,0000,0000,,- 这有很多可能性 Dialogue: 0,0:01:32.10,0:01:37.26,Default,,0000,0000,0000,,- 因为设想到事物的诸多特性 Dialogue: 0,0:01:37.68,0:01:43.29,Default,,0000,0000,0000,,你会想了解造成异质性的驱力及其影响 Dialogue: 0,0:01:43.32,0:01:45.01,Default,,0000,0000,0000,,- 但你只是在预测 Dialogue: 0,0:01:45.01,0:01:47.66,Default,,0000,0000,0000,,某种意义上来说,这是在解决营销问题 Dialogue: 0,0:01:47.67,0:01:49.19,Default,,0000,0000,0000,,- 不,这有因果关系 Dialogue: 0,0:01:49.27,0:01:51.91,Default,,0000,0000,0000,,- 这是因果关系,但缺乏科学内涵 Dialogue: 0,0:01:51.91,0:01:53.27,Default,,0000,0000,0000,,不妨这样想 Dialogue: 0,0:01:53.66,0:01:57.31,Default,,0000,0000,0000,,- 不是的,在医疗界也有类似的例子 Dialogue: 0,0:01:57.86,0:01:59.50,Default,,0000,0000,0000,,如果做个实验 Dialogue: 0,0:01:59.50,0:02:03.70,Default,,0000,0000,0000,,你可能对治疗是否对\N某些群体有效非常感兴趣 Dialogue: 0,0:02:03.83,0:02:07.89,Default,,0000,0000,0000,,这当中牵涉各种特性\N因此需要系统性地搜寻… Dialogue: 0,0:02:07.89,0:02:10.49,Default,,0000,0000,0000,,- 没错,但我怀疑的是这种观点: Dialogue: 0,0:02:10.49,0:02:13.56,Default,,0000,0000,0000,,我应关注的某种因果关系 Dialogue: 0,0:02:13.69,0:02:17.26,Default,,0000,0000,0000,,可以通过一些有用的机器学习来发现 Dialogue: 0,0:02:17.26,0:02:20.04,Default,,0000,0000,0000,,我对学校进行了许多研究 Dialogue: 0,0:02:20.05,0:02:22.84,Default,,0000,0000,0000,,包括公办特许学校 Dialogue: 0,0:02:22.84,0:02:25.17,Default,,0000,0000,0000,,公共资助的私立学校 Dialogue: 0,0:02:25.22,0:02:29.40,Default,,0000,0000,0000,,校方实际上可视需要自由安排课程 Dialogue: 0,0:02:29.53,0:02:33.39,Default,,0000,0000,0000,,有些特许学校的教学成效卓著 Dialogue: 0,0:02:33.79,0:02:37.66,Default,,0000,0000,0000,,而在产生这类结果的数据集中包含许多共变量 Dialogue: 0,0:02:37.66,0:02:43.21,Default,,0000,0000,0000,,包括基线分数、家庭背景、家长教育程度 Dialogue: 0,0:02:43.34,0:02:45.80,Default,,0000,0000,0000,,学生性别和种族 Dialogue: 0,0:02:45.93,0:02:49.80,Default,,0000,0000,0000,,一旦我将其中的数个项目整合后 Dialogue: 0,0:02:49.80,0:02:51.90,Default,,0000,0000,0000,,便会产生高维空间 Dialogue: 0,0:02:52.24,0:02:56.40,Default,,0000,0000,0000,,我对那种班级特征的处理效应很感兴趣 Dialogue: 0,0:02:56.46,0:03:02.05,Default,,0000,0000,0000,,比如是否对出身低收入家庭者较有利 Dialogue: 0,0:03:02.41,0:03:06.04,Default,,0000,0000,0000,,但令我较难信服的应用是 Dialogue: 0,0:03:07.27,0:03:09.87,Default,,0000,0000,0000,,非常高维的这类资料 Dialogue: 0,0:03:09.87,0:03:14.97,Default,,0000,0000,0000,,我发现例如高收入家庭的非白人儿童 Dialogue: 0,0:03:14.97,0:03:17.80,Default,,0000,0000,0000,,但基线分数落在第三个四分位数 Dialogue: 0,0:03:18.17,0:03:22.93,Default,,0000,0000,0000,,且只在公立学校念到三年级而非六年级 Dialogue: 0,0:03:22.93,0:03:25.72,Default,,0000,0000,0000,,因此衍生高维分析 Dialogue: 0,0:03:25.72,0:03:28.02,Default,,0000,0000,0000,,条件陈述也很复杂 Dialogue: 0,0:03:28.22,0:03:30.68,Default,,0000,0000,0000,,我认为刚才那种排序有两大问题 Dialogue: 0,0:03:30.68,0:03:34.00,Default,,0000,0000,0000,,首先是分析难以执行 Dialogue: 0,0:03:34.60,0:03:36.41,Default,,0000,0000,0000,,也不明白这样做的理由 Dialogue: 0,0:03:36.59,0:03:41.14,Default,,0000,0000,0000,,我还知道有些替代模型就有几乎同样的作用 Dialogue: 0,0:03:41.67,0:03:42.88,Default,,0000,0000,0000,,这就完全不同了 Dialogue: 0,0:03:43.12,0:03:48.64,Default,,0000,0000,0000,,对吧?因为机器学习\N无法指出真正重要的预测因子 Dialogue: 0,0:03:48.64,0:03:51.02,Default,,0000,0000,0000,,只能找出不错的预测因子 Dialogue: 0,0:03:51.49,0:03:57.59,Default,,0000,0000,0000,,所以我认为就社会科学而言,情况有些不同 Dialogue: 0,0:03:57.78,0:04:00.98,Default,,0000,0000,0000,,- [Guido] 我想你提到的\N社会科学应用 Dialogue: 0,0:04:01.51,0:04:08.09,Default,,0000,0000,0000,,是处理效应中异质性显着的例子 Dialogue: 0,0:04:09.78,0:04:13.41,Default,,0000,0000,0000,,- [Josh] 若可填补模型空间可能会有 Dialogue: 0,0:04:13.41,0:04:15.68,Default,,0000,0000,0000,,- 不是这样的! Dialogue: 0,0:04:15.74,0:04:18.79,Default,,0000,0000,0000,,我想就多数那些干扰因子来讲 Dialogue: 0,0:04:18.79,0:04:22.76,Default,,0000,0000,0000,,你会期望对所有人来说,效果意涵是一样的 Dialogue: 0,0:04:24.36,0:04:26.91,Default,,0000,0000,0000,,或许当中存在些许强度差异 Dialogue: 0,0:04:26.91,0:04:31.60,Default,,0000,0000,0000,,不过许多教育上的论辩\N认为这对大家都有好处 Dialogue: 0,0:04:34.17,0:04:37.38,Default,,0000,0000,0000,,并非只对某些人不好,对其他人就有益 Dialogue: 0,0:04:37.47,0:04:40.81,Default,,0000,0000,0000,,当然其中会有一小部分不好 Dialogue: 0,0:04:40.87,0:04:43.88,Default,,0000,0000,0000,,程度上会有落差 Dialogue: 0,0:04:43.95,0:04:46.96,Default,,0000,0000,0000,,但得有非常庞大的数据集才能发现 Dialogue: 0,0:04:47.14,0:04:51.42,Default,,0000,0000,0000,,我同意这类例子的分析难度不低 Dialogue: 0,0:04:51.70,0:04:56.46,Default,,0000,0000,0000,,但我想还有很多异质性更高的情境 Dialogue: 0,0:04:57.25,0:04:59.10,Default,,0000,0000,0000,,- 我不否认有那种可能 Dialogue: 0,0:04:59.10,0:05:04.92,Default,,0000,0000,0000,,我认为你所举的例子,本质上是营销案例 Dialogue: 0,0:05:06.32,0:05:10.63,Default,,0000,0000,0000,,不,这是有其意涵的,那就是组织机构 Dialogue: 0,0:05:10.63,0:05:14.39,Default,,0000,0000,0000,,亦即实际上是否得顾虑… Dialogue: 0,0:05:15.47,0:05:17.90,Default,,0000,0000,0000,,- 好吧,那我得读那篇论文了 Dialogue: 0,0:05:18.34,0:05:21.01,Default,,0000,0000,0000,,所以感觉上 Dialogue: 0,0:05:21.47,0:05:23.100,Default,,0000,0000,0000,,- 某部份我们仍有意见分歧\N- 没错 Dialogue: 0,0:05:23.100,0:05:25.44,Default,,0000,0000,0000,,并非全然达成共识 Dialogue: 0,0:05:25.44,0:05:27.20,Default,,0000,0000,0000,,我也感觉到了 Dialogue: 0,0:05:27.20,0:05:30.83,Default,,0000,0000,0000,,- 这方面我们实际上有不同看法\N是因为现在才有这些争论题材 Dialogue: 0,0:05:30.83,0:05:32.34,Default,,0000,0000,0000,,[笑声] Dialogue: 0,0:05:33.04,0:05:34.75,Default,,0000,0000,0000,,现在是不是比较热闹了? Dialogue: 0,0:05:35.82,0:05:37.88,Default,,0000,0000,0000,,热络起来好啊 Dialogue: 0,0:05:38.02,0:05:39.69,Default,,0000,0000,0000,,Josh,听来你的意思是 Dialogue: 0,0:05:39.69,0:05:45.24,Default,,0000,0000,0000,,你并非全盘否认这类分析可能有的应用价值 Dialogue: 0,0:05:45.24,0:05:49.49,Default,,0000,0000,0000,,而是对当前应用抱持保留的态度 Dialogue: 0,0:05:49.92,0:05:51.59,Default,,0000,0000,0000,,- 可以这样说\N- 我是很有信心的 Dialogue: 0,0:05:51.98,0:05:53.66,Default,,0000,0000,0000,,[笑声] Dialogue: 0,0:05:54.16,0:05:55.19,Default,,0000,0000,0000,,- 就此而言 Dialogue: 0,0:05:55.19,0:05:56.75,Default,,0000,0000,0000,,我认为Josh说的有道理 Dialogue: 0,0:05:57.99,0:06:04.97,Default,,0000,0000,0000,,即使是机器学习大放异彩的预测模型用例 Dialogue: 0,0:06:04.99,0:06:06.95,Default,,0000,0000,0000,,还是存在许多异质性 Dialogue: 0,0:06:07.30,0:06:10.41,Default,,0000,0000,0000,,你不太在意这其中的细节对吧? Dialogue: 0,0:06:10.77,0:06:11.84,Default,,0000,0000,0000,,- [Guido] 是的 Dialogue: 0,0:06:11.84,0:06:15.00,Default,,0000,0000,0000,,并无牵涉政策角度之类的 Dialogue: 0,0:06:15.13,0:06:20.09,Default,,0000,0000,0000,,机器学习更擅长辨识数字纪录之类的 Dialogue: 0,0:06:20.09,0:06:24.00,Default,,0000,0000,0000,,而非建构复杂的模型 Dialogue: 0,0:06:24.40,0:06:28.08,Default,,0000,0000,0000,,但是有很多社会科学,很多的经济应用 Dialogue: 0,0:06:28.22,0:06:31.90,Default,,0000,0000,0000,,事实上,我们很了解所属变数间的关联 Dialogue: 0,0:06:31.91,0:06:34.70,Default,,0000,0000,0000,,这些关联有很多是单调(monotone)的 Dialogue: 0,0:06:37.13,0:06:39.38,Default,,0000,0000,0000,,教育会提升收入 Dialogue: 0,0:06:39.70,0:06:41.95,Default,,0000,0000,0000,,不分是人口特性 Dialogue: 0,0:06:41.95,0:06:44.93,Default,,0000,0000,0000,,任何教育程度都一样 Dialogue: 0,0:06:44.93,0:06:46.08,Default,,0000,0000,0000,,直到获得博士学位 Dialogue: 0,0:06:46.08,0:06:47.96,Default,,0000,0000,0000,,研究所教育也一样吗? Dialogue: 0,0:06:47.96,0:06:49.23,Default,,0000,0000,0000,,[笑声] Dialogue: 0,0:06:49.23,0:06:55.60,Default,,0000,0000,0000,,合理的范围内还不至于大幅下滑 Dialogue: 0,0:06:56.04,0:06:59.69,Default,,0000,0000,0000,,许多情况下,这类机器学习的方法表现亮眼 Dialogue: 0,0:07:00.10,0:07:04.90,Default,,0000,0000,0000,,这些关联中包含许多非单调性的多模性 Dialogue: 0,0:07:05.30,0:07:08.46,Default,,0000,0000,0000,,就这些关联性来说,机器学习是很有力的工具 Dialogue: 0,0:07:08.92,0:07:11.79,Default,,0000,0000,0000,,不过我仍坚信 Dialogue: 0,0:07:12.47,0:07:17.61,Default,,0000,0000,0000,,经济学家能从这些方法中获益良多 Dialogue: 0,0:07:17.61,0:07:21.70,Default,,0000,0000,0000,,对未来前景影响甚钜 Dialogue: 0,0:07:21.89,0:07:22.98,Default,,0000,0000,0000,,♪ [音乐] ♪ Dialogue: 0,0:07:23.38,0:07:25.91,Default,,0000,0000,0000,,- [Isaiah] 机器学习在这方面\N似乎还有很多有趣的议题 Dialogue: 0,0:07:25.91,0:07:30.91,Default,,0000,0000,0000,,所以可否请Guido就当前既有的应用 Dialogue: 0,0:07:30.91,0:07:32.60,Default,,0000,0000,0000,,再举些例子? Dialogue: 0,0:07:32.63,0:07:34.15,Default,,0000,0000,0000,,其中一个例子就是 Dialogue: 0,0:07:34.67,0:07:39.56,Default,,0000,0000,0000,,我们目前舍弃一般的因果关系\N转向寻求个别化的估计 Dialogue: 0,0:07:41.49,0:07:43.43,Default,,0000,0000,0000,,来预测因果关系 Dialogue: 0,0:07:43.43,0:07:47.57,Default,,0000,0000,0000,,这方面机器学习的演算非常有用 Dialogue: 0,0:07:47.93,0:07:51.50,Default,,0000,0000,0000,,以往的传统途径是内核方法 Dialogue: 0,0:07:51.50,0:07:53.94,Default,,0000,0000,0000,,理论上成效不错 Dialogue: 0,0:07:53.94,0:07:57.30,Default,,0000,0000,0000,,不过认真说来,有人说这已是极致了 Dialogue: 0,0:07:57.55,0:07:59.58,Default,,0000,0000,0000,,不过此法的实务表现不甚理想 Dialogue: 0,0:08:00.90,0:08:02.97,Default,,0000,0000,0000,,Stefan Wager\N和 Susan Athey Dialogue: 0,0:08:02.98,0:08:06.64,Default,,0000,0000,0000,,两位学者持续耕耘的\N随机与因果森林这类推断法 Dialogue: 0,0:08:06.92,0:08:09.43,Default,,0000,0000,0000,,应用非常广泛 Dialogue: 0,0:08:09.55,0:08:15.56,Default,,0000,0000,0000,,这些方法在这类情境中\N推断基于共变项的因果效应 Dialogue: 0,0:08:15.56,0:08:19.15,Default,,0000,0000,0000,,效果其实很不错 Dialogue: 0,0:08:20.60,0:08:23.82,Default,,0000,0000,0000,,我想这些推断方法才刚起步 Dialogue: 0,0:08:23.82,0:08:25.70,Default,,0000,0000,0000,,但很多情况下 Dialogue: 0,0:08:27.35,0:08:31.60,Default,,0000,0000,0000,,这些演算法在搜索广泛空间时 Dialogue: 0,0:08:31.72,0:08:37.02,Default,,0000,0000,0000,,以及找出适合的函数方面帮助很大 Dialogue: 0,0:08:37.27,0:08:40.95,Default,,0000,0000,0000,,其运作方式是我们无法事先备妥的 Dialogue: 0,0:08:41.50,0:08:43.02,Default,,0000,0000,0000,,就因果推论而言 Dialogue: 0,0:08:43.02,0:08:47.30,Default,,0000,0000,0000,,我并不清楚机器学习的洞见\N是否有吸引我关注的例子 Dialogue: 0,0:08:47.77,0:08:51.21,Default,,0000,0000,0000,,我知道一些很可能会误导的例子 Dialogue: 0,0:08:51.21,0:08:53.78,Default,,0000,0000,0000,,因此我和 Brigham Frandsen\N合作过一些相关研究 Dialogue: 0,0:08:54.02,0:08:59.90,Default,,0000,0000,0000,,例如,在需要界定共变量的工具变量问题中 Dialogue: 0,0:09:00.19,0:09:03.46,Default,,0000,0000,0000,,使用随机森林来建立共变量效应模型 Dialogue: 0,0:09:04.29,0:09:08.20,Default,,0000,0000,0000,,对此,你不会对其功能形式有特别强烈的感受 Dialogue: 0,0:09:08.20,0:09:12.92,Default,,0000,0000,0000,,因此或许需作决策曲线分析\N并对弹性曲线拟合分析持开放的态度 Dialogue: 0,0:09:12.92,0:09:16.76,Default,,0000,0000,0000,,这会引导你进入一种\N模型中包含许多非线性的情况 Dialogue: 0,0:09:17.31,0:09:19.93,Default,,0000,0000,0000,,这对工具变量来说很危险 Dialogue: 0,0:09:19.93,0:09:22.89,Default,,0000,0000,0000,,因为任何所排除的非线性 Dialogue: 0,0:09:23.23,0:09:25.84,Default,,0000,0000,0000,,都有可能导致因果效应的谬误 Dialogue: 0,0:09:25.84,0:09:29.29,Default,,0000,0000,0000,,我想我和Brigham已就这点提出有力证明 Dialogue: 0,0:09:29.29,0:09:35.16,Default,,0000,0000,0000,,所用的例子是我和Bill Evans\N合着的论文中所用的两项分析工具 Dialogue: 0,0:09:35.16,0:09:38.75,Default,,0000,0000,0000,,其中若将两阶段最小二乘法 Dialogue: 0,0:09:38.76,0:09:42.37,Default,,0000,0000,0000,,换成某种随机森林分析法 Dialogue: 0,0:09:42.90,0:09:46.81,Default,,0000,0000,0000,,便会得出精密估算过的虚假推估 Dialogue: 0,0:09:48.96,0:09:51.94,Default,,0000,0000,0000,,我认为这是一大警讯 Dialogue: 0,0:09:51.94,0:09:54.66,Default,,0000,0000,0000,,考量我使用简单分析工具 Dialogue: 0,0:09:54.67,0:09:58.98,Default,,0000,0000,0000,,就自身研究兴趣的案例中\N所得到的这些验证过的见解 Dialogue: 0,0:09:59.27,0:10:01.09,Default,,0000,0000,0000,,让我对此有所怀疑 Dialogue: 0,0:10:02.86,0:10:06.28,Default,,0000,0000,0000,,非线性和工具变量并不是很契合 Dialogue: 0,0:10:06.33,0:10:09.98,Default,,0000,0000,0000,,- 不是的,这听起来好像变成更复杂的层面 Dialogue: 0,0:10:10.05,0:10:11.80,Default,,0000,0000,0000,,- 我们谈的是工具变量...\N- 是的 Dialogue: 0,0:10:12.54,0:10:14.09,Default,,0000,0000,0000,,...所以才设法厘清 Dialogue: 0,0:10:14.40,0:10:15.90,Default,,0000,0000,0000,,[笑声] Dialogue: 0,0:10:15.91,0:10:17.29,Default,,0000,0000,0000,,有道理 Dialogue: 0,0:10:17.29,0:10:18.41,Default,,0000,0000,0000,,♪ [音乐] ♪ Dialogue: 0,0:10:18.41,0:10:22.13,Default,,0000,0000,0000,,- [Guido] 身为{\i1}Econometrica{\i0}的编辑\N我收到很多相关领域的论文 Dialogue: 0,0:10:22.64,0:10:26.82,Default,,0000,0000,0000,,不过其动机并不明确 Dialogue: 0,0:10:27.58,0:10:29.52,Default,,0000,0000,0000,,事实上是无从得知 Dialogue: 0,0:10:29.76,0:10:34.92,Default,,0000,0000,0000,,这些投稿论文并非传统的\N半母数估计的那种论文 Dialogue: 0,0:10:35.32,0:10:37.04,Default,,0000,0000,0000,,这是一大问题 Dialogue: 0,0:10:38.50,0:10:42.34,Default,,0000,0000,0000,,相关的一个问题是计量经济学有种惯例 Dialogue: 0,0:10:42.66,0:10:47.47,Default,,0000,0000,0000,,那就是非常专注于\N形式变量渐近后的趋近结果 Dialogue: 0,0:10:48.80,0:10:53.31,Default,,0000,0000,0000,,很多论文是作者提出一种方法后 Dialogue: 0,0:10:53.31,0:10:59.42,Default,,0000,0000,0000,,然后以一种非常标准化的方式建构出渐近的特性 Dialogue: 0,0:11:00.90,0:11:02.08,Default,,0000,0000,0000,,- 那样不好吗? Dialogue: 0,0:11:02.82,0:11:09.04,Default,,0000,0000,0000,,我想这多少会排挤掉许多框架外的研究 Dialogue: 0,0:11:09.04,0:11:13.58,Default,,0000,0000,0000,,毕竟机器学习的相关文献\N很多是比较偏向演算法的 Dialogue: 0,0:11:13.81,0:11:18.43,Default,,0000,0000,0000,,是基于演算法而得出预测 Dialogue: 0,0:11:18.74,0:11:23.46,Default,,0000,0000,0000,,结果证明这种方式的成效\N优于非参数内核回归 Dialogue: 0,0:11:23.65,0:11:24.68,Default,,0000,0000,0000,,长期以来 Dialogue: 0,0:11:24.68,0:11:28.64,Default,,0000,0000,0000,,计量经济学都在处理非参数\N大家用的都是内核回归 Dialogue: 0,0:11:29.04,0:11:31.20,Default,,0000,0000,0000,,这很适合用来证明定理 Dialogue: 0,0:11:31.21,0:11:34.68,Default,,0000,0000,0000,,可藉此得出置信区间、一致性和渐近正态性 Dialogue: 0,0:11:34.68,0:11:36.92,Default,,0000,0000,0000,,一切都很棒,但却不太实用 Dialogue: 0,0:11:37.26,0:11:40.76,Default,,0000,0000,0000,,机器学习的研究方式却好很多 Dialogue: 0,0:11:40.84,0:11:42.56,Default,,0000,0000,0000,,但又不会有这样的问题… Dialogue: 0,0:11:42.56,0:11:45.87,Default,,0000,0000,0000,,我不认为因为机器学习,所以理论是薄弱的 Dialogue: 0,0:11:45.87,0:11:47.14,Default,,0000,0000,0000,,[笑声] Dialogue: 0,0:11:47.14,0:11:52.39,Default,,0000,0000,0000,,不,我的意思是机器学习更擅于预测 Dialogue: 0,0:11:52.39,0:11:54.50,Default,,0000,0000,0000,,- 机器学习是更好的曲线拟合工具 Dialogue: 0,0:11:54.86,0:11:57.70,Default,,0000,0000,0000,,但机器学习的研究分析方式 Dialogue: 0,0:11:57.70,0:12:00.46,Default,,0000,0000,0000,,因为并非证明事物的形式 Dialogue: 0,0:12:01.49,0:12:06.28,Default,,0000,0000,0000,,一开始无法为计量经济学期刊所轻易接受 Dialogue: 0,0:12:06.86,0:12:11.17,Default,,0000,0000,0000,,Breiman研发回归树的时候也是不符正统 Dialogue: 0,0:12:12.92,0:12:18.40,Default,,0000,0000,0000,,我想他当时投稿计量经济学期刊\N也必定遇到不少困难 Dialogue: 0,0:12:19.97,0:12:23.66,Default,,0000,0000,0000,,我认为我们画地自限 Dialogue: 0,0:12:24.66,0:12:27.83,Default,,0000,0000,0000,,因此难有突破 Dialogue: 0,0:12:27.92,0:12:31.15,Default,,0000,0000,0000,,毕竟很多机器学习的方法实际上很实用 Dialogue: 0,0:12:31.16,0:12:34.00,Default,,0000,0000,0000,,我认为总的来说 Dialogue: 0,0:12:34.91,0:12:40.17,Default,,0000,0000,0000,,计算机科学家在相关研究文献上\N贡献了大量的这类演算法 Dialogue: 0,0:12:40.58,0:12:43.89,Default,,0000,0000,0000,,也提出诸多很实用的演算法 Dialogue: 0,0:12:43.89,0:12:48.96,Default,,0000,0000,0000,,而这也会影响我们进行实证研究的方式 Dialogue: 0,0:12:49.75,0:12:52.07,Default,,0000,0000,0000,,不过我们对此尚未完全内化 Dialogue: 0,0:12:52.07,0:12:57.75,Default,,0000,0000,0000,,因为我们仍相当专注于\N获得点估计和标准误差 Dialogue: 0,0:12:58.48,0:13:00.21,Default,,0000,0000,0000,,还有P值 Dialogue: 0,0:13:00.27,0:13:06.18,Default,,0000,0000,0000,,某种程度上,我们得摆脱局限\N以善用机器学习的能力 Dialogue: 0,0:13:06.49,0:13:10.70,Default,,0000,0000,0000,,以及相关文献的有益贡献 Dialogue: 0,0:13:11.40,0:13:13.55,Default,,0000,0000,0000,,- 我一方面颇能理解你的观点 Dialogue: 0,0:13:13.55,0:13:16.85,Default,,0000,0000,0000,,也就是传统的计量经济学框架 Dialogue: 0,0:13:16.85,0:13:23.61,Default,,0000,0000,0000,,是在类似趋近的设定下\N提出一种方法来证明极限定理 Dialogue: 0,0:13:24.24,0:13:27.06,Default,,0000,0000,0000,,因此论文出版有所局限 Dialogue: 0,0:13:27.27,0:13:28.71,Default,,0000,0000,0000,,且在某种意义上 Dialogue: 0,0:13:28.71,0:13:33.21,Default,,0000,0000,0000,,藉由放宽对论文学理论述的想像 Dialogue: 0,0:13:33.48,0:13:38.30,Default,,0000,0000,0000,,机器学习的研究文献\N就很多问题都有很实用的见解 Dialogue: 0,0:13:38.30,0:13:41.08,Default,,0000,0000,0000,,而且目前对计量经济学也有重大影响 Dialogue: 0,0:13:41.43,0:13:47.55,Default,,0000,0000,0000,,有个我很感兴趣的问题是你如何定位理论… Dialogue: 0,0:13:48.61,0:13:51.26,Default,,0000,0000,0000,,你是否认为理论部分毫无价值可言? Dialogue: 0,0:13:51.60,0:13:56.75,Default,,0000,0000,0000,,因为见到机器学习工具的产出时,我常有个疑问 Dialogue: 0,0:13:56.77,0:14:01.65,Default,,0000,0000,0000,,你所提到的几种方式\N实际上都已开发出推论结果 Dialogue: 0,0:14:02.54,0:14:05.56,Default,,0000,0000,0000,,我想知道的是不确定性量化之类的方法 Dialogue: 0,0:14:05.56,0:14:08.00,Default,,0000,0000,0000,,我有自身的先验 Dialogue: 0,0:14:08.00,0:14:10.89,Default,,0000,0000,0000,,我有既定的观点,并观察到对应结果 Dialogue: 0,0:14:10.89,0:14:12.30,Default,,0000,0000,0000,,那要怎样就此更新呢? Dialogue: 0,0:14:12.30,0:14:13.33,Default,,0000,0000,0000,,而在某种意义上 Dialogue: 0,0:14:13.33,0:14:17.14,Default,,0000,0000,0000,,若身处常态分布的世界,我也清楚怎样处理 Dialogue: 0,0:14:17.15,0:14:18.30,Default,,0000,0000,0000,,但此处却不然 Dialogue: 0,0:14:18.30,0:14:20.86,Default,,0000,0000,0000,,因此我想知道你对此有何看法 Dialogue: 0,0:14:20.86,0:14:26.43,Default,,0000,0000,0000,,- 我不认为这些结果并无特别之处 Dialogue: 0,0:14:26.43,0:14:30.16,Default,,0000,0000,0000,,但这类结果通常很难达成 Dialogue: 0,0:14:30.16,0:14:32.16,Default,,0000,0000,0000,,我们可能无法办到 Dialogue: 0,0:14:32.49,0:14:34.94,Default,,0000,0000,0000,,可能得分阶段来做 Dialogue: 0,0:14:34.94,0:14:36.50,Default,,0000,0000,0000,,得有人率先提出 Dialogue: 0,0:14:36.51,0:14:42.23,Default,,0000,0000,0000,,“看,我有个特定功能的有趣演算法 Dialogue: 0,0:14:42.23,0:14:44.70,Default,,0000,0000,0000,,且以特定标准而言 Dialogue: 0,0:14:45.48,0:14:49.80,Default,,0000,0000,0000,,这种演算法在这组数据集的功效良好 Dialogue: 0,0:14:50.90,0:14:52.60,Default,,0000,0000,0000,,所以我们应该提出来 Dialogue: 0,0:14:52.60,0:14:59.46,Default,,0000,0000,0000,,未来也许有人会有办法\N在特定条件下以此进行推论 Dialogue: 0,0:14:59.46,0:15:03.80,Default,,0000,0000,0000,,然后发现达成条件不是很实际,那就再研究 Dialogue: 0,0:15:03.90,0:15:10.54,Default,,0000,0000,0000,,我觉得当我们过去始终认为\N所投入的类型必须有所限制时 Dialogue: 0,0:15:10.54,0:15:13.18,Default,,0000,0000,0000,,这是在自我设限 Dialogue: 0,0:15:13.18,0:15:14.50,Default,,0000,0000,0000,,就某种意义而言 Dialogue: 0,0:15:15.70,0:15:21.72,Default,,0000,0000,0000,,这又回到Josh和我\N对局部平均处理效应的看法 Dialogue: 0,0:15:21.91,0:15:25.17,Default,,0000,0000,0000,,以前人们并非这样看待这个问题的 Dialogue: 0,0:15:25.90,0:15:29.09,Default,,0000,0000,0000,,某种层面而言,有人会说 Dialogue: 0,0:15:29.50,0:15:33.84,Default,,0000,0000,0000,,这类工作的必要处理\N就是先厘清需要估计的对象 Dialogue: 0,0:15:34.13,0:15:37.50,Default,,0000,0000,0000,,然后尽力估计 Dialogue: 0,0:15:38.03,0:15:44.16,Default,,0000,0000,0000,,但是你们这些人却倒行逆施 Dialogue: 0,0:15:44.30,0:15:46.55,Default,,0000,0000,0000,,你可能会说,“你看看,我有个估计器 Dialogue: 0,0:15:47.20,0:15:50.64,Default,,0000,0000,0000,,我要看看它所估计的内容是什么?” Dialogue: 0,0:15:50.64,0:15:55.14,Default,,0000,0000,0000,,然后我猜你可能会说\N“这有啥特别的”之类的回应 Dialogue: 0,0:15:55.14,0:15:58.45,Default,,0000,0000,0000,,并且说这样做不合理 Dialogue: 0,0:15:58.95,0:16:03.00,Default,,0000,0000,0000,,我认为我们看待问题的方式 Dialogue: 0,0:16:03.49,0:16:06.83,Default,,0000,0000,0000,,应该更灵活一点 Dialogue: 0,0:16:06.83,0:16:11.17,Default,,0000,0000,0000,,因为过去未曾尝试,我们已错失一些机会 Dialogue: 0,0:16:11.30,0:16:12.35,Default,,0000,0000,0000,,♪ [音乐] ♪ Dialogue: 0,0:16:12.91,0:16:14.75,Default,,0000,0000,0000,,- [Josh] Isaiah\N你听到我们的观点了 Dialogue: 0,0:16:14.75,0:16:18.27,Default,,0000,0000,0000,,也了解我们有一些意见分歧 Dialogue: 0,0:16:18.27,0:16:20.40,Default,,0000,0000,0000,,为何不为我们评评理呢? Dialogue: 0,0:16:20.95,0:16:22.39,Default,,0000,0000,0000,,[笑声] Dialogue: 0,0:16:22.50,0:16:24.100,Default,,0000,0000,0000,,- 哦,你问的小问题好棒喔 Dialogue: 0,0:16:25.06,0:16:26.28,Default,,0000,0000,0000,,[笑声] Dialogue: 0,0:16:26.48,0:16:32.97,Default,,0000,0000,0000,,我想一方面是我很认同\NGuido提到的一些观点 Dialogue: 0,0:16:34.10,0:16:35.71,Default,,0000,0000,0000,,[笑声] Dialogue: 0,0:16:35.91,0:16:40.16,Default,,0000,0000,0000,,有一点就机器学习来说似乎是比较清楚的 Dialogue: 0,0:16:40.16,0:16:45.02,Default,,0000,0000,0000,,就某种我们有兴趣投入的非参数预测问题来说 Dialogue: 0,0:16:45.02,0:16:49.62,Default,,0000,0000,0000,,无论是有条件的期望或条件概率 Dialogue: 0,0:16:49.92,0:16:53.54,Default,,0000,0000,0000,,过去这得跑内核回归 Dialogue: 0,0:16:53.55,0:16:57.31,Default,,0000,0000,0000,,得运行序列回归之类的分析 Dialogue: 0,0:16:57.67,0:17:00.44,Default,,0000,0000,0000,,所以目前为止,我们似乎明白了一件事 Dialogue: 0,0:17:00.44,0:17:02.96,Default,,0000,0000,0000,,在广泛的应用层面上 Dialogue: 0,0:17:03.10,0:17:07.46,Default,,0000,0000,0000,,像是估计有条件的平均函数、条件概率 Dialogue: 0,0:17:07.46,0:17:09.81,Default,,0000,0000,0000,,或其他各种非参数对象 Dialogue: 0,0:17:09.81,0:17:12.00,Default,,0000,0000,0000,,机器学习的方法 Dialogue: 0,0:17:12.00,0:17:15.88,Default,,0000,0000,0000,,似乎比计量经济学和统计学\N惯用的非参数分析法 Dialogue: 0,0:17:15.88,0:17:17.29,Default,,0000,0000,0000,,表现得更好 Dialogue: 0,0:17:17.30,0:17:19.11,Default,,0000,0000,0000,,尤其是在高维空间观察数据 Dialogue: 0,0:17:19.50,0:17:22.98,Default,,0000,0000,0000,,你是在说倾向得分之类的? Dialogue: 0,0:17:22.98,0:17:25.06,Default,,0000,0000,0000,,- 正是\N- 滋扰函数 Dialogue: 0,0:17:25.06,0:17:27.22,Default,,0000,0000,0000,,- 对,倾向得分之类的 Dialogue: 0,0:17:27.84,0:17:30.58,Default,,0000,0000,0000,,甚至是直接相关的对象 Dialogue: 0,0:17:30.58,0:17:35.10,Default,,0000,0000,0000,,像是条件平均处理效应\N这种区别两种条件期望函数者 Dialogue: 0,0:17:35.10,0:17:36.51,Default,,0000,0000,0000,,这类的可能 Dialogue: 0,0:17:36.51,0:17:38.10,Default,,0000,0000,0000,,当然,即便如此 Dialogue: 0,0:17:38.87,0:17:45.82,Default,,0000,0000,0000,,有关如何解读的理论推论\N和这类项目的大规模样本陈述 Dialogue: 0,0:17:45.82,0:17:47.27,Default,,0000,0000,0000,,相对而言较不成熟 Dialogue: 0,0:17:47.27,0:17:50.10,Default,,0000,0000,0000,,这还得看机器学习所用的估计器而定 Dialogue: 0,0:17:50.10,0:17:53.16,Default,,0000,0000,0000,,所以吊诡的是 Dialogue: 0,0:17:53.17,0:17:57.96,Default,,0000,0000,0000,,机器学习的某些分析方法\N就特定目的而言似乎更好用 Dialogue: 0,0:17:57.96,0:18:03.26,Default,,0000,0000,0000,,但我们得谨慎带入,并慎重解读结果的陈述 Dialogue: 0,0:18:03.54,0:18:07.67,Default,,0000,0000,0000,,但这无疑是当今显学,也不乏相关研究 Dialogue: 0,0:18:07.67,0:18:12.80,Default,,0000,0000,0000,,因此我全然可以预期\N未来会有更多相关进展 Dialogue: 0,0:18:12.91,0:18:16.69,Default,,0000,0000,0000,,因此机器学习有个需要警惕的问题是-- Dialogue: 0,0:18:16.69,0:18:22.14,Default,,0000,0000,0000,,这一方面是危机\N而有时是减损应用价值的问题 Dialogue: 0,0:18:22.14,0:18:26.62,Default,,0000,0000,0000,,那便是当人们着手一项自身跃跃欲试 Dialogue: 0,0:18:26.62,0:18:28.68,Default,,0000,0000,0000,,ˊ而非问题导向的方法时 Dialogue: 0,0:18:28.89,0:18:35.22,Default,,0000,0000,0000,,与其就自身感兴趣的对象及参数来切入 Dialogue: 0,0:18:35.49,0:18:39.50,Default,,0000,0000,0000,,让我想一下要如何分辨特定事物 Dialogue: 0,0:18:39.50,0:18:41.89,Default,,0000,0000,0000,,如何在庞大的数据中将其涵盖 Dialogue: 0,0:18:41.90,0:18:47.06,Default,,0000,0000,0000,,“噢,这是有条件的期望函数\N我来插入对应的机器学习的估计器” Dialogue: 0,0:18:47.06,0:18:48.70,Default,,0000,0000,0000,,这样做似乎是很合理的 Dialogue: 0,0:18:48.90,0:18:53.08,Default,,0000,0000,0000,,反观若根据价格来回归数量 Dialogue: 0,0:18:53.59,0:18:55.77,Default,,0000,0000,0000,,然后辩称是采用机器学习的方法 Dialogue: 0,0:18:56.22,0:18:58.77,Default,,0000,0000,0000,,或许我很满意这解决了内生性问题 Dialogue: 0,0:18:58.79,0:19:01.20,Default,,0000,0000,0000,,对此我们通常会顾虑,但也可能不会 Dialogue: 0,0:19:01.49,0:19:06.29,Default,,0000,0000,0000,,但同样的,这让厘清问题的方法更明确了 Dialogue: 0,0:19:06.50,0:19:09.78,Default,,0000,0000,0000,,也就是先决定研究兴趣,再思索一下… Dialogue: 0,0:19:09.78,0:19:11.62,Default,,0000,0000,0000,,- 就是带入经济学… Dialogue: 0,0:19:11.62,0:19:12.74,Default,,0000,0000,0000,,- 没错 Dialogue: 0,0:19:12.74,0:19:14.57,Default,,0000,0000,0000,,- 并考量异质性 Dialogue: 0,0:19:14.57,0:19:20.19,Default,,0000,0000,0000,,并就部分因子来善用机器学习的方法 Dialogue: 0,0:19:20.29,0:19:21.39,Default,,0000,0000,0000,,- 正是如此 Dialogue: 0,0:19:21.39,0:19:25.80,Default,,0000,0000,0000,,所以引发兴趣的问题向来都是一样的 Dialogue: 0,0:19:25.80,0:19:28.48,Default,,0000,0000,0000,,但现在我们有一些更好的估计方法 Dialogue: 0,0:19:28.86,0:19:32.70,Default,,0000,0000,0000,,而难以预测之处 Dialogue: 0,0:19:32.70,0:19:37.20,Default,,0000,0000,0000,,就是机器学习的文献资料相当庞杂 Dialogue: 0,0:19:37.45,0:19:42.72,Default,,0000,0000,0000,,而我提到的带入方式毕竟有限 Dialogue: 0,0:19:42.93,0:19:45.48,Default,,0000,0000,0000,,因而衍生许多其他有趣的问题 Dialogue: 0,0:19:45.48,0:19:49.30,Default,,0000,0000,0000,,例如这类交互的未来发展\N及能从中汲取的其他经验 Dialogue: 0,0:19:49.30,0:19:54.35,Default,,0000,0000,0000,,这些我相信仍有许多颇具前景的开发空间 Dialogue: 0,0:19:54.41,0:19:56.40,Default,,0000,0000,0000,,但我没有确切答案 Dialogue: 0,0:19:56.94,0:20:00.16,Default,,0000,0000,0000,,我完全同意 Dialogue: 0,0:20:00.39,0:20:03.54,Default,,0000,0000,0000,,这很令人期待 Dialogue: 0,0:20:03.60,0:20:06.16,Default,,0000,0000,0000,,我认为这方面只需再稍加把劲 Dialogue: 0,0:20:06.60,0:20:08.35,Default,,0000,0000,0000,,所以这点Isaiah跟我看法一致 Dialogue: 0,0:20:08.72,0:20:10.04,Default,,0000,0000,0000,,[笑声] Dialogue: 0,0:20:10.17,0:20:11.63,Default,,0000,0000,0000,,- 我没这么说喔 Dialogue: 0,0:20:12.93,0:20:14.42,Default,,0000,0000,0000,,♪ [音乐] ♪ Dialogue: 0,0:20:14.42,0:20:16.83,Default,,0000,0000,0000,,若你想观看更多《诺贝尔对话》的节目 Dialogue: 0,0:20:16.83,0:20:18.01,Default,,0000,0000,0000,,点击此处 Dialogue: 0,0:20:18.02,0:20:20.31,Default,,0000,0000,0000,,或你若想多学一点计量经济学 Dialogue: 0,0:20:20.47,0:20:23.07,Default,,0000,0000,0000,,那就看看Josh的\N《精通剂量经济学》系列视频 Dialogue: 0,0:20:23.60,0:20:26.57,Default,,0000,0000,0000,,若想多加认识\NGuido、Josh和Isaiah Dialogue: 0,0:20:26.69,0:20:28.55,Default,,0000,0000,0000,,请参考视频描述中的链接 Dialogue: 0,0:20:28.80,0:20:30.30,Default,,0000,0000,0000,,♪ [音乐] ♪