YouTube

Got a YouTube account?

New: enable viewer-created translations and captions on your YouTube channel!

Japanese subtitles

← 13-36 Conclusion

Unit 13 36 Conclusion.mp4

Get Embed Code
2 Languages

Showing Revision 1 created 11/29/2014 by Udacity.

  1. これまで学習したことをまとめましょう
  2. まずは評価関数です
    あらゆる状態での値を教えてくれます
  3. その状態からの最適な行動を選べるのです
  4. まず終端の状態と最大値の状態を得ました
  5. プレーヤーが1人の
    決定論的なゲームに有効な方法です
  6. これは以前に見たA*探索や深さ優先探索と
    同じ方法を使っていると分かりました
  7. 次に2プレーヤー
    またはマルチプレーヤーのゲームを調べました
  8. ここでは最小化を試みることで
    ゲームの展開を確認しましたね
  9. その次に学んだのは
    木全体を探索することができない時の最適化です
  10. 深さの削減と評価関数の利用も行いました
  11. そのことで木を完璧に
    評価できなくなるということが分かったので
  12. 推定を行いました
  13. またアルファベータ法を用いて
  14. より有効な計算方法を試みました
  15. それはMAXとMINにおいて
    これまで取ってきた最適値をたどる方法です
  16. 解が最適にならないと思われる範囲外の枝は
  17. 木から削除していきます
  18. これらのパラメータを通して調べていきました
  19. 最後に確率論的ゲームを紹介しました
  20. そのゲームには確率、運、サイコロを振るといった
    要素があります
  21. それらのノードを評価するために
  22. 最小値や最大値ではなく
    期待値を取る必要があると分かりました
  23. 今回扱ってきたのは一般的な種類のゲームです
  24. 切り落としのタイミングはいつ分かるか
    そして正しい評価関数は何かがポイントでした
  25. それらは複雑な分野です
  26. 多くの人工知能の研究はこの方法で行われています
  27. しかしそれは理論のためというよりは
    特定のゲームのために行われています