< Return to Video

AI 101 For Teachers: Fireside Chat with Sal Khan and Hadi Partovi

  • 0:00 - 0:02
    [음악]
  • 0:02 - 0:05
    교사를 위한 AI 101
  • 0:09 - 0:12
    안녕하세요 저는 제스입니다.
  • 0:12 - 0:14
    저는 전직 교사이고 지금은
  • 0:14 - 0:16
    평생교육
  • 0:16 - 0:18
    전문가입니다. 이 전문 학습 시리즈의
  • 0:18 - 0:20
    가이드가 되어 드리겠습니다.
  • 0:20 - 0:22
    인공지능이 최근 교육계에서
  • 0:22 - 0:24
    뜨거운 이슈가 되면서
  • 0:24 - 0:26
    많은 교육자분들이
  • 0:26 - 0:29
    AI는 무엇인지
  • 0:29 - 0:32
    학생들이 AI를 사용해 컨닝을 하지는 않을지
  • 0:32 - 0:34
    AI가 교사의 자리를 대체할 것인지
  • 0:34 - 0:36
    AI에 대해 학생들에게 무엇을
  • 0:36 - 0:38
    가르쳐야 할 지 등에 대해 우려하고 있죠.
  • 0:38 - 0:40
    이 전문학습시리즈에 대한 우리의 목표는
  • 0:40 - 0:43
    이러한 질문에 답하고 이처럼 새로운 지평에서
  • 0:43 - 0:45
    갖추어야 할 지식과 기술을
  • 0:45 - 0:47
    습득하도록 돕는 것입니다
  • 0:47 - 0:50
    이 세션에서 code.org의 창립자인
  • 0:50 - 0:53
    하디 파트로비와 칸 아카데미의
  • 0:53 - 0:56
    설립자인 살콘의 얘기를 들어봅니다
  • 0:56 - 0:59
    하티와 살이 교육에서의 AI와 관련된
  • 0:59 - 1:01
    중대한 질문들에 대해 뭐라고 얘기하는지
  • 1:01 - 1:05
    들어보세요.
  • 1:06 - 1:09
    [음악]
  • 1:12 - 1:14
    AI를 연구해온 지는 꽤 되었습니다만
  • 1:14 - 1:16
    아주 최근에 ChatGPT와 유사한 도구들이
  • 1:16 - 1:19
    출시되면서
  • 1:19 - 1:21
    AI가 실제로 정보를 생성하고
  • 1:21 - 1:23
    동영상과 같은 창의적인 이미지도
  • 1:23 - 1:28
    만들게 됨으로써
  • 1:28 - 1:29
    예전에는 패턴 매칭에나 사용되던 도구가
  • 1:29 - 1:32
    이제는 새로운 아이디어와
  • 1:32 - 1:35
    새로운 생각을 실제 만들 수 있게 되었습니다.
  • 1:35 - 1:37
    이것이 교육에 있어서 매우 중요한 이유는
  • 1:37 - 1:39
    교사가 하는 일 또는 학생들이 하는 일 등의
  • 1:39 - 1:41
    교육 작업의 많은 측면이 이제는
  • 1:41 - 1:43
    생성형 AI로 자동으로
  • 1:43 - 1:45
    할 수 있게 되었다는 점입니다.
  • 1:45 - 1:47
    그래서 이제 우리와 같은
  • 1:47 - 1:49
    테크 전문가들도 오랫 동안
  • 1:49 - 1:51
    생성형 AI에 관심을 기울여왔고
  • 1:51 - 1:54
    일론 머스크가 어떤 면에서는
  • 1:54 - 1:56
    GPT2를 통제해야 한다는
  • 1:56 - 1:58
    유명한 말을 하게 되기에 이르렀죠
  • 1:58 - 1:59
    왜냐하면 AI가 매우 설득력 있는 글을
  • 1:59 - 2:02
    쓸 수 있지만 말이 안되는 경우가 있기 때문이에요
  • 2:02 - 2:04
    따라서 AI가 작성하는 글이
  • 2:04 - 2:07
    가짜 뉴스를 생성하게 될 수 있어요.
  • 2:07 - 2:09
    GPT3도 마찬가지예요.
  • 2:09 - 2:11
    어떤 면에서는 개선되었지만
  • 2:11 - 2:13
    사람들은 복제양보다 더 걱정을 하죠
  • 2:13 - 2:16
    사람이 그릴 수 있는 그림을
  • 2:16 - 2:18
    그릴 수 있다는 것을 보여주었어요.
  • 2:18 - 2:19
    모나리자에 대해 모두 아시겠지만
  • 2:19 - 2:22
    컴퓨터나 생성형 AI에게
  • 2:22 - 2:24
    모나리자의 뒤가 어떻게 생겼는지
  • 2:24 - 2:26
    또는 나머지 장면이 어떤지에 대해
  • 2:26 - 2:28
    얘기할 수 있어요
  • 2:28 - 2:29
    저는 이러한 모든 것을 오랫동안
  • 2:29 - 2:31
    모니터해왔고 이것이 멋진 일이지만
  • 2:31 - 2:34
    실제로는 기이한 일이예요
  • 2:34 - 2:36
    곧 유용해질리는 없어요
  • 2:36 - 2:39
    특히 교육 면에서요
  • 2:39 - 2:42
    정말로 변하는 것은
  • 2:42 - 2:45
    GPT3부터의 변환이라고 할 수 있죠
  • 2:45 - 2:49
    GBT 또는 GPT4가 될 GPT3.5에서는
  • 2:49 - 2:51
    정말로 인상적이었던 것이
  • 2:51 - 2:53
    지난 몇 년간 보아 왔던 것 중에서
  • 2:53 - 2:54
    신선한 것이었어요.
  • 2:54 - 2:58
    이제는 부적절하게 인식되고
  • 2:58 - 3:00
    겉으로는 정보를 이해하고
  • 3:00 - 3:03
    말이 되며 질문에 답할 뿐만 아니라
  • 3:03 - 3:05
    그 답변을 선택한 이유를 설명하고
  • 3:05 - 3:08
    다른 선택이 답이 아닌지를
  • 3:08 - 3:10
    설명하죠.
  • 3:10 - 3:13
    생성형 AI는 그와 같이
  • 3:13 - 3:17
    다른 질문을 생성할 수 있고
  • 3:17 - 3:19
    창을 띄워서 선생님처럼 행동할 수 있고
  • 3:19 - 3:20
    보조 교사처럼 행동할 수 있으므로
  • 3:20 - 3:22
    우리가 이것을 인정한다면
  • 3:22 - 3:24
    세계는 달라질 것입니다
  • 3:24 - 3:27
    이는 교육에 타당할 뿐만 아니라
  • 3:27 - 3:28
    상당히 중요한 방법으로
  • 3:28 - 3:30
    교육을 변화시키게
  • 3:30 - 3:33
    될겁니다.
  • 3:34 - 3:37
    ChatGPT 또는 다른 도구를 사용할 때
  • 3:37 - 3:39
    텍스트나 코드를 생성하며
  • 3:39 - 3:41
    AI는 대규모 언어 모델이라 불리는
  • 3:41 - 3:43
    기술을 기반으로 하며
  • 3:43 - 3:46
    대규모 언어 모델은
  • 3:46 - 3:49
    인터넷에서 찾을 수 있는
  • 3:49 - 3:51
    모든 책이나 기사 또는 코드 등
  • 3:51 - 3:54
    온갖 종류의 정보로 학습되는
  • 3:54 - 3:56
    거대 신경망이고 이것이
  • 3:56 - 3:58
    새로운 정보, 새로운 에세이,
  • 3:58 - 4:02
    심지어 새로운 코드를 생성할 수 있죠.
  • 4:02 - 4:03
    이 기술을 이해하는 것이 중요해요
  • 4:03 - 4:06
    진정한 지능은 아니고
  • 4:06 - 4:08
    통계와 확률을 사용하여
  • 4:08 - 4:10
    새로운 정보를 생성하죠.
  • 4:10 - 4:12
    code.org에서 우리는
  • 4:12 - 4:15
    대규모 언어 모델의 작동 방법을
  • 4:15 - 4:17
    설명하는 비디오 시리즈를 만들고 있어요
  • 4:17 - 4:19
    개방형 AI의 기술담당 최고 책임자인
  • 4:19 - 4:21
    미라 무라티씨가 이 비디오의
  • 4:21 - 4:23
    등장 인물 중 한 명으로
  • 4:23 - 4:25
    대규모 언어 모델에 대해
  • 4:25 - 4:26
    설명합니다.
  • 4:26 - 4:28
    한 가지 말씀 드릴 것은
  • 4:28 - 4:29
    사람들이 그냥 통계적으로
  • 4:29 - 4:32
    다음에 올 최고의 단어를 파악하고
  • 4:32 - 4:34
    많은 면에서 우리 자신에 대해
  • 4:34 - 4:35
    약간 가르치려 한다고 말하죠.
  • 4:35 - 4:37
    지금 말하는 이 순간에도
  • 4:37 - 4:39
    구두로 말하고 있지만
  • 4:39 - 4:41
    여러 가지 생각을 표현하는 것이지
  • 4:41 - 4:43
    다음에 올 단어를 의식적으로
  • 4:43 - 4:46
    결정하는 것은 아니죠.
  • 4:46 - 4:48
    무엇이든 다음에 올 단어를 그냥 생각하는거죠.
  • 4:48 - 4:51
    대규모 언어 모델도
  • 4:51 - 4:52
    언급했듯이 대규모 신경망이예요
  • 4:52 - 4:54
    신경망이란 것은
  • 4:54 - 4:56
    뉴런과 시냅스의
  • 4:56 - 4:58
    컴퓨터 시뮬레이션입니다
  • 4:58 - 5:00
    인간의 두뇌의 대규모 말모듬의
  • 5:00 - 5:02
    복잡성에 접근하고 있죠
  • 5:02 - 5:04
    AI가 의식적인지
  • 5:04 - 5:07
    자체의 동기가 있는지
  • 5:07 - 5:09
    우리가 요청하는 것 이외를 바라는지는
  • 5:09 - 5:12
    따지지 않지만
  • 5:12 - 5:14
    이 확률과 통계 그리고 AI 내부의 숫자는
  • 5:14 - 5:16
    주목할 만하죠.
  • 5:16 - 5:19
    일반적으로 대규모 언어 모델은
  • 5:19 - 5:21
    말 그대로 시냅스 그리고
  • 5:21 - 5:25
    우리 두뇌의 신경이 연결된 것과
  • 5:25 - 5:26
    동일한 컴퓨터이죠.
  • 5:26 - 5:29
    우리 두뇌에는 수 조개의 신경이 있고
  • 5:29 - 5:30
    기억을 형성하는 그러한 모든 시냅스의
  • 5:30 - 5:32
    장점은 생각을 만들고
  • 5:32 - 5:34
    지능을 선사한다는 것이예요.
  • 5:34 - 5:36
    대규모 언어 모델에서는
  • 5:36 - 5:38
    말 그대로 수 백만 대의 컴퓨터에서
  • 5:38 - 5:40
    시뮬레이션되죠.
  • 5:40 - 5:44
    이것이 지능일까요?
  • 5:44 - 5:47
    적어도 두뇌 작동의 표현이라고 해두죠.
  • 5:47 - 5:49
    AI는 수학으로 작동하고
  • 5:49 - 5:51
    인간의 두뇌는 뉴런으로 작동하지만
  • 5:51 - 5:54
    대규모 언어 모델이 제공하는 결과는
  • 5:54 - 5:56
    인간이 하는 것과
  • 5:56 - 6:00
    상당히 유사하다는 점은 흥미로운 일이예요.
  • 6:01 - 6:03
    교육계의 모든 사람이 놀라고 있어요.
  • 6:03 - 6:05
    AI에게 독립전쟁에 관한 에세이를
  • 6:05 - 6:06
    써달라고 요청하거나
  • 6:06 - 6:09
    광합성에 대해 설명해달라고 하거나
  • 6:09 - 6:13
    화성에 살고 있는 공주에 대해
  • 6:13 - 6:15
    단편을 창작해달라고 하거나
  • 6:15 - 6:19
    카드를 섞기 위한 코드를 작성하는 방법에 대해
  • 6:19 - 6:21
    물어볼 수 있다는 사실에 대해서요.
  • 6:21 - 6:23
    무엇이든 이러한 것이
  • 6:23 - 6:25
    숙제나 시험이 될 수도 있고
  • 6:25 - 6:27
    교사에게는 강의 계획이나
  • 6:27 - 6:30
    역사의 일정 주제에 대한
  • 6:30 - 6:33
    프레젠테이션 제작이 될 수도 있죠
  • 6:33 - 6:34
    무엇이든 다 할 수 있다는 점에서
  • 6:34 - 6:37
    교육의 방법에 대해
  • 6:37 - 6:38
    다시 생각해 볼 필요가 있게 되었어요.
  • 6:38 - 6:40
    더욱 놀라운 것은
  • 6:40 - 6:42
    이러한 질문에 답할 수 있고
  • 6:42 - 6:44
    과제를 수행하지만
  • 6:44 - 6:46
    역할을 해달라고 요청할 수도 있다는 것이예요
  • 6:46 - 6:48
    죽은 시인의 사회에 나오는 로빈 윌리엄스의
  • 6:48 - 6:50
    페르소나를 예로 들 수 있겠죠.
  • 6:50 - 6:52
    문학에 관한 영감을 얻을 수도 있고
  • 6:52 - 6:55
    실제 그렇게 했어요.
  • 6:55 - 6:57
    이것은 점점 빠르게
  • 6:57 - 6:59
    기묘해진다는 걸 의미하죠.
  • 7:01 - 7:03
    숙제를 할 때 어떤 도구를 사용하고
  • 7:03 - 7:05
    어떤 도구를 사용하지 말지를 결정하기가
  • 7:05 - 7:09
    어려워집니다. 오늘날 대부분의 학교에서
  • 7:09 - 7:11
    가르치거나 배정하는 숙제를
  • 7:11 - 7:13
    AI를 통해 자동으로 할 수 있게 되었어요.
  • 7:13 - 7:17
    ChatGBT가 처음 나왔을 때
  • 7:17 - 7:19
    제 아들에게 처음 보여주었죠.
  • 7:19 - 7:22
    그때 16세였던 아들의 첫 번째 질문은
  • 7:22 - 7:23
    이것을 숙제할 때 사용해도 되냐는 것이었어요.
  • 7:23 - 7:26
    제가 대답을 하려 할 때
  • 7:26 - 7:28
    그는 AI가 모든 것을 해버리면
  • 7:28 - 7:30
    학교가 무슨 소용이 있냐고 말했어요.
  • 7:30 - 7:32
    이러한 두 가지 질문은
  • 7:32 - 7:34
    교육자가 생각해봐야 하는
  • 7:34 - 7:37
    일종의 두 가지 경계입니다.
  • 7:37 - 7:39
    왜냐하면 만약 우리가 지금까지 해온대로
  • 7:39 - 7:42
    숙제를 계속 배정한다면
  • 7:42 - 7:43
    AI를 사용해 할 수 있게 되고
  • 7:43 - 7:46
    그러면 부정 행위라고 주장할 수 있게 되기 때문이예요.
  • 7:46 - 7:48
    하지만 학생들이 집에서 해야 하는 학업에 대해
  • 7:48 - 7:50
    그리고 우리의 관점에 대해
  • 7:50 - 7:52
    생각을 진화시킬 필요가 있습니다.
  • 7:52 - 7:54
    지금의 현상에 대해 통제할 수가 없지만
  • 7:54 - 7:56
    어떤 점에서는 건전한 방향을
  • 7:56 - 7:57
    비추고 있다고 생각해요.
  • 7:57 - 8:01
    왜냐하면 ChatGPT 이전에는
  • 8:01 - 8:03
    누나나 부모 또는 개인 교사가 있었고
  • 8:03 - 8:05
    이러한 도움을 받을 수 없는 가난한 아이의 경우
  • 8:05 - 8:07
    학교 시스템에서 불평등을 겪었었기 때문이죠.
  • 8:07 - 8:08
    학교 이외의 장소에서 이런 일이 생겼죠.
  • 8:08 - 8:10
    학교에서 숙제를 내면
  • 8:10 - 8:12
    우리가 자녀의 숙제를 돕거나
  • 8:12 - 8:15
    가족 중의 누군가에게 도와달라고 하거나
  • 8:15 - 8:17
    아니면 개인교사를
  • 8:17 - 8:19
    고용했을 거예요.
  • 8:19 - 8:21
    이럴만한 여유가 없는 가정에서는
  • 8:21 - 8:24
    불평등을 겪게 되죠
  • 8:24 - 8:27
    학교에서 더 많이 공부해야 더 좋은 시스템이죠.
  • 8:28 - 8:30
    평등과 AI에 대해 생각해볼 때
  • 8:30 - 8:32
    두 가지의 거의 정반대되는 일이 생깁니다.
  • 8:32 - 8:36
    한 가지 측면에서는 AI가 평등의 격차를
  • 8:36 - 8:39
    메우게 됩니다. AI를 이용하는 모든 학생은
  • 8:39 - 8:43
    낮은 비용으로 개인교사를 얻는 것과 마찬가지죠.
  • 8:43 - 8:45
    많은 것을 수행할 수 있게 됩니다.
  • 8:45 - 8:47
    과거에는 이를 하려면
  • 8:47 - 8:50
    비용이 많이 들었죠.
  • 8:50 - 8:51
    AI는 이용하는 누구에게나
  • 8:51 - 8:54
    강력한 힘을 제공합니다.
  • 8:54 - 8:55
    다른 한편으로는 인터넷을 이용할 수 없고
  • 8:55 - 8:57
    전화나 컴퓨터가 없는 학생들은
  • 8:57 - 8:59
    이제 훨씬 더 뒤처지게 됩니다.
  • 8:59 - 9:02
    왜냐하면
  • 9:02 - 9:04
    컴퓨터가 없다는 격차가
  • 9:04 - 9:07
    이전보다 더 비용이 커지게 되기 때문이죠.
  • 9:07 - 9:08
    또 다른 강력한 수단을
  • 9:08 - 9:12
    갖지 못하기 때문이라고 할 수 있죠.
  • 9:15 - 9:17
    우리가 말했던 것처럼 AI 기술은
  • 9:17 - 9:19
    전체적으로 장점과 혜택이 있지만
  • 9:19 - 9:21
    또한 단점과 리스크가 있습니다.
  • 9:21 - 9:23
    실수를 하고 잘못된 정보를 생성할 수 있으며
  • 9:23 - 9:27
    정치적 또는 인종적 편견 또는 성차별과 같은
  • 9:27 - 9:30
    차별을 하게 될 수도 있고
  • 9:30 - 9:33
    모든 종류의 함정이 포함된
  • 9:33 - 9:35
    위험한 콘텐츠를
  • 9:35 - 9:38
    만들게 될 수도 있어요.
  • 9:38 - 9:41
    바로 이러한 점에서
  • 9:41 - 9:44
    학교와 교육자들이
  • 9:44 - 9:45
    너무 빨리 빠져들지 말자고
  • 9:45 - 9:47
    브레이크를 밟고 있죠.
  • 9:47 - 9:50
    하지만 AI는 단 하나의 도구가 아닙니다.
  • 9:50 - 9:52
    다양한 도구로 나타나고 있어요.
  • 9:52 - 9:54
    18세 미만의 학생이 사용할 때도
  • 9:54 - 9:57
    허가를 받지 않는
  • 9:57 - 9:59
    일반적 용도의 ChatGPT가 있는 반면
  • 9:59 - 10:02
    칸 아카데미 교육의
  • 10:02 - 10:04
    목적으로 특별히
  • 10:04 - 10:06
    만들어진 도구가 수도 없이 많아요.
  • 10:06 - 10:08
    con Migo는 그 훌륭한 예이죠.
  • 10:08 - 10:11
    이러한 위험과 단점을
  • 10:11 - 10:14
    방지하면서 특정한 목적을
  • 10:14 - 10:15
    수행하는 도구입니다
  • 10:15 - 10:18
    잘못된 정보나
  • 10:18 - 10:19
    환영 또는 편견 또는
  • 10:19 - 10:21
    위험한 콘텐츠 생성을 방지하여
  • 10:21 - 10:24
    학생의 프라이버시를 보호합니다
  • 10:24 - 10:26
    교육자나 교육용 IT부서가
  • 10:26 - 10:28
    생각해야 하는 가장 중요한 업무는
  • 10:28 - 10:31
    AI를 금지할 것이나 허용할 것이냐가 아니라
  • 10:31 - 10:33
    교육을 위해 준비가 되어 있는
  • 10:33 - 10:36
    도구를 선택하여
  • 10:36 - 10:38
    이러한 단점을 해결하는 것이 되어야 합니다
  • 10:38 - 10:40
    저는 편견이나 잘못된 정보
  • 10:40 - 10:43
    그리고 환영을 불러일으키는 실수에 대해
  • 10:43 - 10:45
    동의할 수 없습니다.
  • 10:45 - 10:47
    또한 저는 항상
  • 10:47 - 10:50
    이미 준비가 되어 있는 것
  • 10:50 - 10:52
    편견이 있는 것을 비교해야 한다고
  • 10:52 - 10:54
    지적합니다. 인터넷에는
  • 10:54 - 10:57
    이러한 모든 문제가 있고요
  • 10:57 - 10:59
    다른 사람들에게도 이러한 모든
  • 10:59 - 11:00
    문제가 있지요. 감사를 시행할 수 있는 곳
  • 11:00 - 11:03
    알려진 것이나 도입해야 되는 것에
  • 11:03 - 11:05
    투명성이 없는 경우가 많습니다
  • 11:05 - 11:07
    이것은 2022년 중반부터
  • 11:07 - 11:09
    생성형 AI와 대규모 언어 모델에 대해
  • 11:12 - 11:16
    작업해오고 있는 것의
  • 11:16 - 11:18
    연장선일 뿐입니다.
  • 11:18 - 11:21
    우리 모두는 11월 말에
  • 11:21 - 11:23
    ChatGPT가 출시되었고
  • 11:23 - 11:24
    세계를 휩쓸었다는 것을 알고 있죠
  • 11:24 - 11:26
    ChatGPT와 채팅을 하면
  • 11:26 - 11:28
    마법과도 같은 느낌이예요.
  • 11:28 - 11:31
    우리 모두가 기억하지만
  • 11:31 - 11:32
    교육계와 교사들은 올바른 측면에서 봅니다
  • 11:32 - 11:34
    이것이 에세이를 쓸 수 있다면
  • 11:34 - 11:36
    많은 학생들이 이것이 에세이를
  • 11:36 - 11:39
    쓸 수 있다는 것을 알게 될 것이고
  • 11:39 - 11:40
    이는 부정 행위의 도구가 되고
  • 11:40 - 11:43
    부정행위의 도구가 되면
  • 11:43 - 11:44
    무척 걱정스러울 것입니다.
  • 11:44 - 11:47
    ChatGBT는 교육용이 아니므로
  • 11:47 - 11:49
    3월에 Conmigo라는 것을
  • 11:49 - 11:52
    출시했을 때
  • 11:52 - 11:54
    학생들이 하는 것의 모든 것에 대해
  • 11:54 - 11:55
    가드 레일이 있는 생성형 AIS를
  • 11:55 - 11:57
    만듦으로써 이를 완화할 수 있음을
  • 11:57 - 12:00
    보여주었습니다.
  • 12:00 - 12:02
    두 번째 AI 모니터로 학생이 하는 것을
  • 12:02 - 12:03
    모니터함으로써
  • 12:03 - 12:06
    수상한 행동을 할 경우
  • 12:06 - 12:07
    학부모에게 통지하거나
  • 12:07 - 12:10
    교사에게 통보하여
  • 12:10 - 12:12
    생성 방법에 우선하여
  • 12:12 - 12:15
    AI가 당신을 위해 일하는 것이 아니라
  • 12:15 - 12:17
    당신과 함께 일하게 함으로써
  • 12:17 - 12:19
    만약 시험지를 쓸 수 있냐고 요청하면
  • 12:19 - 12:20
    그렇게 하지 않지만
  • 12:20 - 12:22
    글쓰기 코치가 될 수 있다고 말합니다.
  • 12:22 - 12:23
    따라서 미래에는 실제
  • 12:23 - 12:25
    특정 과제가 있을 것이고
  • 12:25 - 12:27
    여기서 교사들은 원하는 도구는 무엇이든
  • 12:27 - 12:29
    사용할 것입니다. 왜냐하면
  • 12:29 - 12:30
    이러한 도구를 사용하고자 하는 경우
  • 12:30 - 12:32
    실제 일어나는 일이고
  • 12:32 - 12:35
    일부를 작성하거나
  • 12:35 - 12:38
    수정을 하거나 우리 작업의
  • 12:38 - 12:39
    일부를 수행하지만
  • 12:39 - 12:41
    교사들이 학생들에게
  • 12:41 - 12:41
    본인이 직접 작성해야 한다고
  • 12:41 - 12:43
    말할 때 우리 측에서 하는 일은
  • 12:43 - 12:44
    이러한 도구를 만드는 것이고
  • 12:44 - 12:47
    교사들이 AI를 통해서
  • 12:47 - 12:49
    배정할 때, AI는 학생들과 함께
  • 12:49 - 12:50
    작성하며 AI가 다시 교사에게
  • 12:50 - 12:52
    제출할 수 있습니다.
  • 12:52 - 12:53
    우린 개요를 수립했고
  • 12:53 - 12:55
    브레인스토밍을 했으며
  • 12:55 - 12:57
    일부 피드백을 주었습니다
  • 12:57 - 12:58
  • 12:58 - 13:01
  • 13:02 - 13:04
  • 13:04 - 13:06
  • 13:06 - 13:09
  • 13:09 - 13:10
  • 13:10 - 13:13
  • 13:13 - 13:15
  • 13:15 - 13:18
  • 13:18 - 13:20
  • 13:20 - 13:22
  • 13:22 - 13:25
  • 13:25 - 13:27
  • 13:27 - 13:28
  • 13:28 - 13:31
  • 13:31 - 13:32
  • 13:32 - 13:35
  • 13:35 - 13:37
  • 13:37 - 13:39
  • 13:39 - 13:42
  • 13:42 - 13:44
  • 13:44 - 13:46
  • 13:46 - 13:47
  • 13:47 - 13:49
  • 13:49 - 13:51
  • 13:51 - 13:53
  • 13:53 - 13:55
  • 13:55 - 13:57
  • 13:57 - 14:00
  • 14:00 - 14:02
  • 14:02 - 14:04
  • 14:04 - 14:07
  • 14:07 - 14:09
  • 14:09 - 14:12
  • 14:12 - 14:14
  • 14:14 - 14:16
  • 14:16 - 14:18
  • 14:18 - 14:20
  • 14:20 - 14:21
  • 14:21 - 14:22
  • 14:22 - 14:25
  • 14:25 - 14:26
  • 14:26 - 14:28
  • 14:28 - 14:31
  • 14:32 - 14:34
  • 14:34 - 14:36
  • 14:36 - 14:39
  • 14:39 - 14:41
  • 14:41 - 14:43
  • 14:43 - 14:45
  • 14:45 - 14:48
  • 14:48 - 14:50
  • 14:50 - 14:53
  • 14:53 - 14:56
  • 14:56 - 14:58
  • 14:58 - 15:00
  • 15:00 - 15:01
  • 15:01 - 15:03
  • 15:03 - 15:05
  • 15:05 - 15:08
  • 15:08 - 15:10
  • 15:10 - 15:12
  • 15:12 - 15:15
  • 15:15 - 15:16
  • 15:16 - 15:19
  • 15:19 - 15:20
  • 15:20 - 15:22
  • 15:22 - 15:25
  • 15:25 - 15:27
  • 15:27 - 15:30
  • 15:30 - 15:32
  • 15:32 - 15:34
  • 15:34 - 15:37
  • 15:37 - 15:39
  • 15:39 - 15:41
  • 15:41 - 15:43
  • 15:43 - 15:46
  • 15:46 - 15:49
  • 15:49 - 15:51
  • 15:51 - 15:53
  • 15:53 - 15:55
  • 15:55 - 15:58
  • 15:58 - 16:01
  • 16:01 - 16:03
  • 16:03 - 16:05
  • 16:05 - 16:06
  • 16:06 - 16:08
  • 16:08 - 16:10
  • 16:10 - 16:12
  • 16:12 - 16:13
  • 16:13 - 16:15
  • 16:15 - 16:17
  • 16:17 - 16:18
  • 16:18 - 16:20
  • 16:20 - 16:22
  • 16:22 - 16:25
  • 16:25 - 16:27
  • 16:27 - 16:29
  • 16:29 - 16:31
  • 16:31 - 16:32
  • 16:32 - 16:35
  • 16:35 - 16:36
  • 16:36 - 16:37
  • 16:37 - 16:39
  • 16:39 - 16:40
  • 16:40 - 16:42
  • 16:42 - 16:45
  • 16:48 - 16:52
  • 16:52 - 16:53
  • 16:53 - 16:54
  • 16:54 - 16:55
  • 16:55 - 16:58
  • 16:58 - 17:00
  • 17:00 - 17:03
  • 17:03 - 17:04
  • 17:04 - 17:07
  • 17:07 - 17:09
  • 17:09 - 17:10
  • 17:10 - 17:12
  • 17:12 - 17:15
  • 17:15 - 17:17
  • 17:17 - 17:21
  • 17:21 - 17:23
  • 17:23 - 17:25
  • 17:25 - 17:29
  • 17:29 - 17:32
  • 17:32 - 17:34
  • 17:34 - 17:37
  • 17:37 - 17:39
  • 17:39 - 17:41
  • 17:41 - 17:44
  • 17:44 - 17:46
  • 17:46 - 17:49
  • 17:49 - 17:51
  • 17:51 - 17:54
  • 17:54 - 17:56
  • 17:56 - 17:57
  • 17:57 - 18:00
  • 18:00 - 18:02
  • 18:02 - 18:04
  • 18:04 - 18:07
  • 18:07 - 18:08
  • 18:08 - 18:10
  • 18:10 - 18:11
  • 18:11 - 18:14
  • 18:14 - 18:16
  • 18:16 - 18:18
  • 18:18 - 18:22
  • 18:22 - 18:25
  • 18:25 - 18:26
  • 18:26 - 18:29
  • 18:29 - 18:31
  • 18:31 - 18:34
  • 18:34 - 18:35
  • 18:35 - 18:37
  • 18:37 - 18:39
  • 18:39 - 18:42
  • 18:42 - 18:44
  • 18:44 - 18:47
  • 18:47 - 18:49
  • 18:49 - 18:51
  • 18:51 - 18:52
  • 18:52 - 18:56
  • 18:56 - 18:59
  • 18:59 - 19:01
  • 19:01 - 19:03
  • 19:03 - 19:05
  • 19:05 - 19:08
  • 19:08 - 19:11
  • 19:12 - 19:13
  • 19:13 - 19:16
  • 19:16 - 19:18
  • 19:18 - 19:21
  • 19:21 - 19:24
  • 19:24 - 19:28
  • 19:28 - 19:30
  • 19:30 - 19:32
  • 19:32 - 19:34
  • 19:34 - 19:36
  • 19:36 - 19:38
  • 19:38 - 19:40
  • 19:40 - 19:41
  • 19:41 - 19:44
  • 19:44 - 19:46
  • 19:46 - 19:48
  • 19:48 - 19:49
  • 19:49 - 19:51
  • 19:51 - 19:52
  • 19:52 - 19:54
  • 19:54 - 19:55
  • 19:55 - 19:57
  • 19:57 - 19:59
  • 19:59 - 20:01
  • 20:01 - 20:03
  • 20:03 - 20:04
  • 20:04 - 20:07
  • 20:07 - 20:10
  • 20:10 - 20:12
  • 20:12 - 20:15
  • 20:15 - 20:16
  • 20:16 - 20:18
  • 20:18 - 20:21
  • 20:21 - 20:22
  • 20:22 - 20:24
  • 20:24 - 20:26
  • 20:26 - 20:27
  • 20:27 - 20:28
  • 20:28 - 20:29
  • 20:29 - 20:31
  • 20:31 - 20:33
  • 20:33 - 20:34
  • 20:34 - 20:36
  • 20:36 - 20:38
  • 20:38 - 20:39
  • 20:39 - 20:41
  • 20:41 - 20:45
  • 20:45 - 20:48
  • 20:48 - 20:50
  • 20:50 - 20:52
  • 20:52 - 20:53
  • 20:53 - 20:56
  • 20:59 - 21:02
  • 21:02 - 21:03
  • 21:03 - 21:05
  • 21:05 - 21:07
  • 21:07 - 21:09
  • 21:09 - 21:11
  • 21:11 - 21:13
  • 21:13 - 21:16
  • 21:16 - 21:20
  • 21:20 - 21:22
  • 21:22 - 21:23
  • 21:23 - 21:25
  • 21:25 - 21:27
  • 21:27 - 21:29
  • 21:29 - 21:31
  • 21:31 - 21:34
  • 21:34 - 21:37
  • 21:37 - 21:39
  • 21:39 - 21:41
  • 21:41 - 21:43
  • 21:43 - 21:45
  • 21:45 - 21:45
  • 21:45 - 21:47
  • 21:47 - 21:49
  • 21:49 - 21:51
  • 21:51 - 21:53
  • 21:53 - 21:54
  • 21:54 - 21:56
  • 21:56 - 21:57
  • 21:57 - 21:58
  • 21:58 - 21:59
  • 21:59 - 22:01
  • 22:01 - 22:02
  • 22:02 - 22:04
  • 22:04 - 22:06
  • 22:06 - 22:08
  • 22:08 - 22:10
  • 22:10 - 22:11
  • 22:11 - 22:12
  • 22:12 - 22:14
  • 22:14 - 22:16
  • 22:16 - 22:18
  • 22:18 - 22:19
  • 22:19 - 22:20
  • 22:20 - 22:23
  • 22:23 - 22:25
  • 22:25 - 22:27
  • 22:27 - 22:29
  • 22:29 - 22:31
  • 22:31 - 22:32
  • 22:32 - 22:34
  • 22:34 - 22:37
  • 22:37 - 22:39
  • 22:39 - 22:41
  • 22:41 - 22:43
  • 22:43 - 22:46
  • 22:46 - 22:47
  • 22:47 - 22:49
  • 22:49 - 22:52
  • 22:52 - 22:54
  • 22:54 - 22:57
  • 22:57 - 22:59
  • 22:59 - 23:01
  • 23:01 - 23:03
  • 23:03 - 23:06
  • 23:06 - 23:07
  • 23:07 - 23:09
  • 23:09 - 23:11
  • 23:11 - 23:13
  • 23:13 - 23:16
  • 23:16 - 23:18
  • 23:18 - 23:20
  • 23:20 - 23:23
  • 23:23 - 23:25
  • 23:25 - 23:26
  • 23:26 - 23:29
  • 23:29 - 23:30
  • 23:30 - 23:32
  • 23:32 - 23:33
  • 23:33 - 23:35
  • 23:35 - 23:38
  • 23:38 - 23:40
  • 23:40 - 23:42
  • 23:42 - 23:44
  • 23:44 - 23:47
  • 23:47 - 23:48
  • 23:48 - 23:50
  • 23:50 - 23:51
  • 23:51 - 23:53
  • 23:53 - 23:55
  • 23:55 - 23:57
  • 23:57 - 23:59
  • 23:59 - 24:01
  • 24:01 - 24:03
  • 24:03 - 24:06
  • 24:06 - 24:08
  • 24:08 - 24:10
  • 24:10 - 24:11
  • 24:11 - 24:13
  • 24:13 - 24:15
  • 24:15 - 24:18
  • 24:18 - 24:21
  • 24:21 - 24:22
  • 24:22 - 24:24
  • 24:24 - 24:26
  • 24:26 - 24:27
  • 24:27 - 24:29
  • 24:29 - 24:32
  • 24:32 - 24:34
  • 24:34 - 24:36
  • 24:36 - 24:37
  • 24:37 - 24:38
  • 24:38 - 24:40
  • 24:40 - 24:43
  • 24:43 - 24:46
  • 24:46 - 24:48
  • 24:48 - 24:51
  • 24:51 - 24:53
  • 24:53 - 24:54
  • 24:54 - 24:56
  • 24:56 - 24:57
  • 24:57 - 25:00
  • 25:00 - 25:02
  • 25:02 - 25:04
  • 25:04 - 25:06
  • 25:06 - 25:08
  • 25:08 - 25:09
  • 25:09 - 25:10
  • 25:10 - 25:12
  • 25:12 - 25:14
  • 25:14 - 25:16
  • 25:16 - 25:18
  • 25:18 - 25:20
  • 25:20 - 25:21
  • 25:21 - 25:22
  • 25:22 - 25:24
  • 25:24 - 25:26
  • 25:26 - 25:29
  • 25:29 - 25:31
  • 25:31 - 25:33
  • 25:33 - 25:34
  • 25:34 - 25:36
  • 25:36 - 25:38
  • 25:38 - 25:40
  • 25:40 - 25:42
  • 25:42 - 25:45
  • 25:45 - 25:47
  • 25:47 - 25:49
  • 25:49 - 25:50
  • 25:50 - 25:52
  • 25:52 - 25:55
  • 25:55 - 25:57
  • 25:57 - 25:59
  • 25:59 - 26:01
  • 26:01 - 26:03
  • 26:03 - 26:04
  • 26:04 - 26:06
  • 26:06 - 26:07
  • 26:07 - 26:11
  • 26:11 - 26:13
  • 26:13 - 26:14
  • 26:14 - 26:16
  • 26:16 - 26:18
  • 26:18 - 26:21
  • 26:21 - 26:23
  • 26:23 - 26:25
  • 26:25 - 26:28
  • 26:28 - 26:31
  • 26:31 - 26:34
  • 26:34 - 26:35
  • 26:35 - 26:37
  • 26:37 - 26:39
  • 26:39 - 26:40
  • 26:40 - 26:42
  • 26:42 - 26:44
  • 26:44 - 26:46
  • 26:46 - 26:48
  • 26:48 - 26:50
  • 26:50 - 26:52
  • 26:52 - 26:54
  • 26:54 - 26:55
  • 26:55 - 26:57
  • 26:57 - 26:58
  • 26:58 - 27:00
  • 27:00 - 27:03
  • 27:03 - 27:05
  • 27:05 - 27:06
  • 27:06 - 27:08
  • 27:08 - 27:09
  • 27:09 - 27:12
  • 27:12 - 27:15
  • 27:15 - 27:17
  • 27:17 - 27:19
  • 27:19 - 27:20
  • 27:20 - 27:22
  • 27:22 - 27:24
  • 27:24 - 27:26
  • 27:26 - 27:28
  • 27:28 - 27:29
  • 27:29 - 27:32
  • 27:32 - 27:34
  • 27:34 - 27:36
  • 27:36 - 27:38
  • 27:38 - 27:40
  • 27:40 - 27:41
  • 27:41 - 27:43
  • 27:43 - 27:45
  • 27:45 - 27:46
  • 27:46 - 27:49
  • 27:49 - 27:50
  • 27:50 - 27:51
  • 27:51 - 27:54
  • 27:54 - 27:55
  • 27:55 - 27:57
  • 27:57 - 27:58
  • 27:58 - 27:59
  • 27:59 - 28:01
  • 28:01 - 28:03
  • 28:03 - 28:05
  • 28:05 - 28:08
  • 28:08 - 28:09
  • 28:09 - 28:11
  • 28:11 - 28:13
  • 28:13 - 28:15
  • 28:15 - 28:18
  • 28:18 - 28:20
  • 28:20 - 28:22
  • 28:22 - 28:25
  • 28:25 - 28:28
  • 28:28 - 28:31
  • 28:31 - 28:32
  • 28:32 - 28:35
  • 28:35 - 28:38
  • 28:38 - 28:40
  • 28:40 - 28:41
  • 28:41 - 28:44
  • 28:44 - 28:46
  • 28:46 - 28:49
  • 28:49 - 28:51
  • 28:51 - 28:53
  • 28:53 - 28:55
  • 28:55 - 28:57
  • 28:57 - 29:00
  • 29:00 - 29:03
  • 29:03 - 29:05
  • 29:05 - 29:08
  • 29:08 - 29:09
  • 29:09 - 29:11
  • 29:11 - 29:14
  • 29:14 - 29:16
  • 29:16 - 29:18
  • 29:18 - 29:21
  • 29:21 - 29:23
  • 29:23 - 29:26
  • 29:26 - 29:28
  • 29:28 - 29:31
  • 29:31 - 29:34
  • 29:34 - 29:35
  • 29:35 - 29:38
  • 29:38 - 29:40
  • 29:40 - 29:43
  • 29:43 - 29:46
  • 29:46 - 29:51
  • 29:51 - 29:54
  • 29:54 - 29:58
  • 29:58 - 30:00
  • 30:00 - 30:01
  • 30:01 - 30:04
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
  • Not Synced
Title:
AI 101 For Teachers: Fireside Chat with Sal Khan and Hadi Partovi
Description:

more » « less
Video Language:
English
Team:
Code.org
Project:
AI 101 for teachers
Duration:
30:08

Korean subtitles

Revisions Compare revisions