And remember that we,
when we started with all the data, the entropy of the parent was 1.0.
Now let's use information gain to decide which variable to use when splitting.
We'll start by doing an information gain calculation for the grade.
So here's my parent node, with all four examples in it.
Now I split based on the grade.
So the first question for
you is how many examples are going to go in the steep branch?
Write your answer in the box.
تذكروا أننا
.عندما بدأنا بجميع البيانات، كانت قيمة الإنتروبي للأصل هي 1.0
.والآن دعونا نستخدم "الحصول على المعلومات" لتقرير أي المتغيرات نستخدمها عند التقسيم
.وسوف نبدأ بتنفيذ عملية حساب "الحصول على المعلومات" بالنسبة للدرجة
.وها هي العقدة الأصلية الخاصة بي، وبها أربعة أمثلة كاملة
.والآن سأقوم بالتقسيم استنادًا إلى الدرجة
والسؤال الأول الذي سأطرحه عليكم هو
كم عدد الأمثلة التي ستكون متوفرة في فرع steep؟
.ليكتب كل منك إجابته في المربع
以前の計算で、
すべてのデータにおいて親のエントロピーは1.0になることをご説明しました。
それでは、情報ゲインを計算しながらどの変数で分割するべきかを決めていきましょう。
まず、勾配に関する情報ゲインを計算してみます。
ここに親ノードがあり、4つの例を含みます。
そして勾配で分割を行います。
そこで質問です。
急勾配の枝には幾つの例が入るでしょう?
ボックスに答えを記入してください。
E lembre-se de que,
quando começamos com todos os dados, a entropia do pai era 1.0.
Agora vamos usar o ganho de informações para decidir que variável usar na divisão.
Vamos começar fazendo cálculo de ganho de informações para a inclinação.
Então, este aqui é meu nó pai, com os quatro exemplos nele.
Agora eu faço a divisão com base na inclinação.
Então, a primeira pergunta para
você é: quantos exemplos entram no branch íngreme?
Escreva sua resposta na caixa.
请注意
在我们刚开始处理所有数据时 父项熵是1.0
现在我们用信息增益来确定分拆时使用哪个变量
我们先利用信息增益计算级别这一项
这是我的父节点 其中共有四个样本
现在我按照不同坡度进行分拆
你要回答的第一个问题是
陡坡的分支上有多少个样本?
在框内写下答案