In the last segment, I showed you how
return maps work,
how to go back and forth between
them and the time domain,
and how they help you understand the
dynamics, as well as
how to understand bifurcations in the
dynamics as the parameter value changes.
I finished up with a 3rd representation,
the bifurcation diagram.
Here's a bifurcation diagram of
the logistic map.
On the vertical axis is a set of iterates
of the logistic map,
at some parameter value R, which is
graphed on the horizontal axis.
Just to remind you of the correspondence
between this kind of plot
and the time domain, and the return map,
I'm gonna draw a few pictures.
Here's a time domain plot of an orbit of
the logistic map
at a low value of the parameter R
that is converging to a fixed point.
On a return map, this orbit would look
like this.
To construct a bifurcation diagram,
you remove the transient;
that is, you iterate a bunch of times,
and throw those points away,
and then you iterate a bunch more times,
and you plot those points
as if you were looking at that top plot
edge-on from the side.
In this case, those points would all fall
on top of each other, there.
So again, each vertical slice of the
bifrucation diagram
is one time-domain plot like this, with
the transient removed,
viewed from the side.
If we turn R up a little bit, the time-
domain plot will look like this,
the return map will look like this,
and the point on the bifurcation diagram
will look like 2 dots.
Again, three different representations
bring out three different things:
the time-domain plot on the top left
brings out the overall behavior of
the iterates;
the return map on the lower left
brings out the geometry of why
the iterates go where they go, & also the
correlation between successive iterates;
the bifurcation plot brings out what
changes about the asymptotic behavior
of the trajectory as R changes,
including bifurcations.
Now if you repeat the procedure that we
just went through at a much finer grain,
but using a computer instead of tablet
and a stylus, what you'll see is this.
There's actually one more step in there
which we'll circle back to
at the end of this segment.
Now, you can see all sorts of structure
in this plot.
That's the main focus of this segment.
First of all, you see the fixed point
coming along for low R, here,
and then bifurcating into a 2-cycle
right here,
bifurcating into a 4-cycle right here,
and then eventually,
getting into a chaotic regime. That's
what this gray banded behavior is.
That's what this right-hand plot would
look like if you looked at it edge-on
from the right-hand side of the screen.
Within the chaotic regimes, you also see
these "veils":
areas where the attractor is darker
than in other areas.
Those veils are related to what are called
"unstable periodic orbits",
and we'll talk more about them later.
As we've seen, there's this bifurcation
sequence
from a fixed point, to a 2-cycle, to a 4-
cycle, to an 8-cycle, & so on & so forth.
That's called a "period-doubling cascade"
for the obvious reason.
I also showed you in the last segment
that there were regions of order
within the chaos; that is, for some
R-value, there was chaos,
but then if you raised R a little bit, you
went back into a periodic regime.
This particular periodic regime starts out
with a 3-cycle, and then goes to a 6-cycle
and a 12-cycle, and so on and so forth.
So it's another period-doubling
bifurcation sequence.
You may remember, in the very first
segment of this course,
I showed you the title page of a paper
called "Period-3 Implies Chaos".
The fact there is a period-3 orbit
in this map is very, very significant.
And if people are interested in that, I
can record an auxiliary video about that.
Another interesting thing to note about
this structure
is that it contains small
copies of itself.
If you were to zoom in on that piece of
the structure inside the red circle,
it would look like the whole structure.
That is, this is a fractal object.
I'm sure many of you have heard about fractals.
Fractals are sets that have non-integer
Hausdorff dimension
(mathematically, that's the formal term).
Informally, they're "self-similar".
The second row of images here show
something called the Koch curve.
The way you construct this fractal is by
taking an equilateral triangle,
and then taking 3 equilateral triangles,
1/3 the size in the sense of edge-length,
and sticking them to each exposed face
of that thing.
Then you iterate; you take little
triangles
and stick them to the sides of each of
those pointy faces, and keep going.
Eventually, you'll get this beautiful
structure that looks alot like a snowflake
Fractals play an interesting role
in mathematics.
There are also lots of examples of frac-
tals & fractal-like structures in nature.
Here's an example.
Fractals are also useful analogs
for nature in computer graphics.
Here's a beautiful fractal called
the Mandelbrot set,
and this video is showing you that if you
zoom in on the Mandelbrot set,
you keep seeing more and more structure;
in fact, you keep seeing structure that is
self-similar.
There's a whole new Mandelbrot set
way down in the tendrils of the old one.
And you can keep zooming in
and zooming in,
and you'll keep seeing
self-similar structure.
I've included a link to that video on the
supplementary materials section
of the Complexity Explorer website
for this course,
right here, under the section for this
segment of this unit.
Remember, this is where you should go
for links to materials that you might need
to do the homework,
like this Logistic Map app,
for materials like this paper, which you
would look at
if you wanted to learn more about the
concepts that I talked about
in that segment.
And I've also included some links to
tutorial materials
and other sorts of things that might help
you if you need some background to fill in
And here's an important thing: the
connection between fractals and chaos.
There is a connection, but it is not an
"if-and-only-if".
Many chaotic systems have some
fractal structure,
but it is by no means the case that all
chaotic systems have fractal structure;
that is, there are chaotic systems that
do not have fractal structure,
there are certainly tons of fractals
that have nothing to do with chaos,
but the popular science press has
conflated these two topics.
If you want to learn more about fractals,
you can take a look at Dave Feldman's
course on the Complexity Explorer MOOC.
One last point here, relating to
transient length:
remember that for some R-values,
the transient was really long?
How do you think that will manifest
in a bifurcation diagram?
That is, there is some fixed point here,
but the trajectory is taking
a really long time to get there.
What that will look like on a slice of the
bifurcation diagram is this.
That's hard to see, but I'm trying to draw
a series of points coming up from the axis
and slowly getting closer and closer and
closer, but taking forever to get there.
So if we want to see the asymptotic
behavior,
we want to throw out the transient, but
how many points do we need to throw out
if we want to get rid
of the transient here?
To get rid of the transient, we actually
need another step in our code here.
Really what we need to do is iterate a
whole bunch of times,
but not plot those points,
and then from the ending point of
that orbit,
iterate a bunch more times, and plot
those points.
That amounts to omitting the transient.
But the question is, these words: how do
you pick how many points to iterate
to get rid of the transient, and how do
you pick how many points to plot
so that you get a really nice picture?
Those are both tricky.
You want the red bunch number to be
large enough so that you see the structure
but not so large that the finite size of
the plotted points obscures the structure.
And you want to throw out enough points
so the transient has really died out,
but how long is that? There's no way to
know, really.
And they tend to get longer just before
a bifurcation.
In practice, what you do is increase the
number of points that you throw away
before plotting, until the periodic orbits
are crisp on your plots.
That amount of thrown-away points is
overkill far away from the bifurcations,
of course, where the transient is short,
but otherwise, your orbits will thicken
up near the bifurcation point.
All of that will play a role in the next
segment, where we'll dig into the pattern
behind the shrinking widths and heights
of the pitchforks in the bifurcation plot.
لقد أريتكم في القسم الماضي،
كيف تعمل تطبيقات الإرجاع،
كيف تتحرك ذهاباً وإياباً
بينها وبين المجال الزمني،
وكيف تساعدك على فهم الديناميكا،
كما تساعدك أيضاً على فهم التشعبات في
الديناميكا عندما تتغير قيمة الوسيط.
لقد أنهيت مع التمثيل الثالث،
رسم التشعب البياني.
ها هنا رسم تشعب بياني للتطبيق اللوجيستي.
يوجد على المحور العمودي مجموعة
من تكرارات التطبيق اللوجيستي،
عند قيمة ما للوسيط R ، والتي مُثّلت
برسم بياني على المحور الأفقي.
فقط لأذكّركم بالتوافق بين هذه
الأنواع من الرسوم البيانية
والمجال الزمني، وبين تطبيق
الإرجاع، سوف أرسم بضعة صور.
ها هنا رسم المجال الزمني البياني
لمدار التطبيق اللوجيستي
عند قيمة منخفضة للوسيط R
الذي يقترب من نقطة ثابتة.
على تطبيق الإرجاع، سيبدو هذا المدار هكذا.
لتنشأ رسم تشعب بياني، تزيل العابر:
ذلك هو، تكرر مجموعة من الأزمنة،
وترمي بهؤلاء بعيداً،
ومن ثمّ تكرر مجموعة من الأزمنة الإضافية،
وترسم هذه النقاط بيانياً
كما لو أنّك تنظر إلى الرسم البياني
في الحافة العلوية من الجانب.
في هذه الحالة، ستقع كل هذه النقاط
فوق بعضها البعض، هناك.
إذاً، مجدداً، كل شريحة عمودية
من رسم التشعب البياني
هي رسم مجال زمني بياني واحد
كهذا، والعابر المُزال،
مُشاهد من الجانب.
إذا رفعنا R قليلاً، سيبدو رسم
المجال الزمني البياني هكذا
سيبدو تطبيق الإرجاع هكذا،
عند النقطة على رسم التشعب
البياني سيبدو كنقطتين.
مجدداً، ثلاث تمثيلات مختلفة،
تأتي بثلاثة أشياء مختلفة:
رسم المجال الزمني في أعلى اليسار
يأتي بالسلوك الشامل للتكرارات:
تطبيق الإرجاع في أدنى اليسار
يأتي بالهندسة التي
تسبب ذهاب التكرارات إلى حيث تذهب،
وأيضاً الترابط بين التكرارات المتتالية:
يأتي رسم التشعب البياني بماهية
التغييرات حول السلوك المقارب
للمسار بينما يتغير R، بما فيها التشعبات
الآن، إذا كررت الإجراء الذي
مررنا به للتو، على حبّة أدقة بكثير،
لكن باستخدام حاسوب بدلاً من
جهاز لوحي وقلم، هذا ما ستراه.
في الواقع يوجد خطوة إضافية هناك،
والتي سنعود لها
في نهاية هذا القسم.
الآن، يمكنك أن ترى كل أنواع
البنيات في الرسم البياني هذا.
ذلك التركيز الرئيسي لهذا القسم.
أولاً، ترى النقطة الثابتة
تتقدّم لـ R منخفضة، هنا،
ومن ثمّ تتشعب إلى دورة-2 هنا،
تتشعب إلى دورة-4 هنا،
ومن ثمّ في آخر الأمر،
تدخل في نظام مشوش. ذلك
ما هو السلوك الرمادي المطوّق.
ذلك ما سيبدو عليه رسم الجهة
اليمنى هذا إذا نظرت إلى حافته
الجهة اليمنى على الشاشة.
ترى أيضاً داخل الأنظمة
المشوشة هذه "الأحجبة":
مناطق حيث فيها الجاذب
أغمق من المناطق الأخرى.
هذه الأحجبة متصلة بما يدعى
"مدارات دورية غير مستقرة"،
وسنتحدث عنهم أكثر لاحقاً.
كما رأينا، هناك تسلسل التشعب هذا
من نقطة ثابتة، إلى دورة-2،
إلى دورة-4، إلى دورة-8، وهكذا..
يدعى ذلك بـ "تتالي دوري مضاعف"
للسبب الواضح.
ولقد أريتك أيضاً في القسم الماضي
أنّه قد كان يوجد مناطق نظام
داخل الشواش: وذلك لقيمة R ما،
لقد كان هناك شواش،
لكن بعدئذٍ إذا رفعت R قليلاً،
عدت إلى نظام دوري.
هذا النظام الدوري خاصةً يبدأ بدورة-3،
ومن ثمّ يذهب إلى دورة-6
ودورة-12، وهكذا.
إذاً، إنّه تسلسل تشعب مضاعف الدورة آخر.
قد تتذكر، في القسم الأول من هذه الدورة،
لقد أريتك عنوان صفحة من بحث
يدعى "دورة-3 تدل على الشواش".
في الواقع يوجد هناك مدار دورة-3
في هذا التطبيق وهو هام جداً.
وإن كان الناس مهتمين بذلك، أستطيع
أن أسجّل فيديو مساعد إضافي حول ذلك.
شيءٌ آخر مثير للاهتمام
لتلاحظه حول هذه البنية
هو أنّها تحتوي على نسخ صغيرة من نفسها.
إن كنت ستكبّر على ذلك الجزء
من بنية داخل الدائرة الحمراء،
سيبدو مثل البنية كاملةً.
ذلك هو، هذا شيء كُسيري.
أنا متأكد أنّ العديد منكم قد سمع بالكسيريات.
الكُسيريات هي مجموعات لديها بعد
Hausdorff عدد غير صحيح
(رياضياً، ذلك المصطلح الرسمي).
وبشكلٍ غير رسمي، أنّهم "متشابهين ذاتياً".
يُظهر الصف الثاني من الصور
هنا شيئاً ما يدعى منحني Koch.
الطريقة التي أنشأت بها هذا الكُسير
هي من خلال أخذ مثلث متساوي الأضلاع،
ومن ثمّ أحذ ثلاث مثلثات متساوي الأضلاع،
1/3 الحجم، بمعنى طول الحافة،
وإلصاقهم إلى كل سطح مكشوف من ذلك الشيء.
ثمّ تكرر: تأخذ مثلثات صغيرة
وتلصقهم على جوانب كلٍّ من هذه
السطوح المدببة، وتستمر بذلك.
في آخر الأمر، سوف تحصل على هذه
البنية الجميلة التي تشبه ندفة الثلج كثيراً.
تلعب الكُسيريات دوراً مثيراً
للاهتمام في الرياضيات.
يوجد أيضاً الكثير من الأمثلة لهياكل
الكُسيريات وأشباه الكُسيريات في الطبيعة.
ها هنا مثال.
الكُسيريات أيضاً نظائر مفيدة للطبيعة
في الرسوم البيانية الحاسوبية.
ها هنا كُسير جميل يدعى بمجموعة Mandelbrot،
ويريك هذا الفيديو أنّه إذا كبّرت
على مجموعة Mandelbrot،
تستمر برؤية هياكل أكثر وأكثر:
في الواقع، تستمر برؤية أنّه متشابه ذاتياً.
هناك مجموعة Mandelbrot كاملة جديدة
بنهاية المحالق من المجموعة القديمة.
ويمكنك أن تستمر بالتكبير،
وتستمر برؤية هيكل مشابه ذاتياً.
لقد ضمّنت رابط لذلك الفيديو في
قسم المواد المساعدة الأضافي
لموقع المستكشف المعقد لهذه الدورة،
هنا، تحت القسم لهذا الجزء من هذه الوحدة.
تذكر، هنا حيث يجب أن تذهب
للروابط للمواد التي قد
تحتاجها لتقوم بالواجب،
مثل التطبيق Map اللوجيستي هذا،
لمواد مثل هذا البحث، والذي قد تبحث عن
إذا أردت أن تتعلم أكثر عن
المفاهيم التي تحدثت عنها
في ذلك القسم.
ولقد ضمّنت أيضاً بعض الروابط مواد دروس
وأنواع أخرى من الأمور التي
قد تساعدك إذا احتجت خلفيةً ما لتكملها.
وها هنا أمرٌ هام: الارتباط
بين الكُسيريات والشواش.
هناك ارتباط، لكنه ليس " إذا وفقط إذا".
الكثير من الأنظمة المشوشة لديها بنية كُسير،
لكن ذلك لا يعني أنّ كل أنظمة
المشوشة لديها بنية كُسيرية:
وذلك أنّه يوجد أنظمة مشوشة
ليست لديها بنية كُسيرية،
وبالتأكيد هناك الأطنان من الأنظمة
التي ليس لها أي علاقة بالشواش،
لكن الصحافة العلمية الشعبية
قد دمجت بي هذين الموضوعين.
إن كنت تريد أن تتعلم المزيد عن الكُسيريات،
يمكنك أن تلقي نظرة على دورة Dave Feldman
في الدورة الألكترونية المفتوحة على Complexity Explorer.
نقطة أخيرة هنا، فيما يتعلق بطول العابر:
هل تذكر أنّه لبعض قيم R،
لقد كان العابر طويلاً جداً؟
كيف تعتقد سيبدو ذلك في
رسم التشعب البياني؟
حيث يوجد نقطة ثابتة ما هنا، لكن المسار يأخذ
وقتاً طويلاً جداً ليصل إلى هناك.
ماذا سيبدو ذلك على شريحة من
رسم التشعب البياني هو هذا.
من الصعب رؤية ذلك، لكنني أحاول
أن أرسم سلسلة من النقاط قادمة من المحور
وتقترب ببطئ أكثر وأكثر، لكنها
تأخذ وقتاً طويلاً جداً لتصل لهناك.
إذاً، إذا أردت أن ترى سلوك مقارب،
نريد أن نرمي العابر، لكن
كم من النقاط نحتاج لنرمي
إذا أردنا أن نتخلص من العابر هنا؟
لنتخلص من العابر، نحتاج في الواقع
إلى خطوة أخرى في ترميزنا هنا.
ما نحتاج لفعله حقاً هو تكرار
مجموعة كاملة من التكرارات،
لكن ليس لتمثيل هذه النقاط برسم بياني،
ومن ثمّ من نقطة نهاية المدار،
نكرر مجموعة أزمنة إضافية،
ونمثّل هذه النقاط برسم بياني.
يؤدي ذلك إلى حذف العابر.
لكن السؤال هو، هذه الكلمات:
كيف تختار كم نقطة لتكررها،
لتتخلص من العابر، وكيف تختار
كم من النقاط لتمثلها برسم بياني
لكي تحصل على صورة جيدة جداً؟
كلاهما يتطلب براعة.
تريد مجموعة الأعداد الحمراء أن
تكون كبيرة كفاية لكي ترى الهيكل
لكن ليست كبيرة كفاية بحيث يخفي الحجم
المحدود للنقاط الممثلة برسم بياني الهيكل.
وتريد أن ترمي نقاط كفاية
لكي يُحذف العابر تماماً،
لكن كم طول ذلك؟ لا يوجد أي طريقة لمعرفة ذلك، حقاً.
ويميلوا ليصبحوا أطول قبل التشعب تماماً.
في التمرين، ما تفعله هو زيادة
عدد النقاط التي ترميها
قبل تمثيلهم برسم بياني، حتى تصبح
المدارات الدورية مموجة على رسمك البياني.
كمية النقاط المرمية هي مبالغة
بعيدة جداً عن التشعبات،
بالطبع، حيث يكون العابر قصيراً،
لكن على خلاف ذلك، سوف تزداد
سماكة مداراتك بالقرب من نقطة التشعب.
سيلعب كل ذلك دوراً في القسم التالي،
حيث سنتعمق في الأنماط
خلف تقلّص عرض وارتفاعات
المعزقات في رسم التشعب البياني.
在最后一部分中,我向您展示了返回地图的工作原理,
如何在它们和时域之间来回切换,
以及它们如何帮助您了解动力学,
以及如何在参数值变化时理解动力学中的分叉。
我完成了第三次表示,分叉图。
这是逻辑图的分岔图。
在纵轴上是一组逻辑映射的迭代,
在一些参数值R处,其在水平轴上绘制。
只是为了提醒你这种情节和时域之间的对应关系,
以及返回地图,我要画几张照片。
这是逻辑映射的轨道的时域图,
其在参数R的低值处收敛到固定点。
在返回地图上,此轨道看起来像这样。
要构建分岔图,可以消除瞬态;
也就是说,你迭代了很多次,把这些点扔掉了,
然后再迭代一堆,然后你绘制这些点,
好像你正在从侧面看那个顶部的边缘。
在这种情况下,那些点将全部落在彼此之上。
同样分支图的每个垂直切片
都是这样的一个时域图,
从侧面看, 瞬态被移除。
如果我们将R调高一点,时域图将如下所示,
返回图将如下所示,
分叉图上的点将看起来像2个点。
同样,三种不同的表示形式提出了三种不同的东西:
左上角的时域图表显示了迭代的整体行为;
左下方的返回映射表示
迭代进入原点的几何形状,
以及连续迭代之间的相关性;
分岔图表示随着R变化(包括分叉),
轨迹的渐近行为会发生什么变化。
现在,如果你重复我们刚刚完成的程序更精细,
但使用计算机而不是平板电脑和手写笔,你会看到的是这个。
实际上还有一个步骤,
我们将在这个细分市场结束时再回来。
现在,您可以在此图中看到各种结构。
这是该细分市场的主要焦点。
首先,你看到低R的固定点出现在这里,
然后在这里分成2个周期,
在这里分成4个循环,然后最终进入一个
混沌。这就是这种灰色的带状行为。
如果你从屏幕的右侧边缘看它,
这就是右边的划分。
在混沌的区域,你也会看到这些“面纱”:
吸引区域比其它区域更灰暗。
那些面纱与所谓的“不稳定的周期轨道”有关,
我们稍后会详细讨论它们。
正如我们所见,这个分叉序列
从固定点到2个周期,到4个周期,到8个周期,依此类推。
由于显而易见的原因,这被称为“倍周期级联”。
我还在最后一段向你展示了混乱中有秩序区域;
也就是说,对于某些R值,存在混沌,
但如果你稍微提高了R,那么你又回到了一个周期性的区域。
这个特定的周期性制度以3个周期开始,然后进入6个周期
和12个周期,依此类推。
所以这是另一个倍周期分岔序列。
您可能还记得,在本课程的第一部分,
看了篇名为的论文的标题“周期-3意味着混乱”。
在这张地图中有一个3期轨道的事实是非常非常重要的。
如果人们对此感兴趣,我可以录制一个辅助视频。
关于这个结构的另一个有趣的事情是
它包含自身。
如果要放大红色圆圈内的那块结构,
它看起来就像是整个结构。
也就是说,这是一个分形对象。
我相信很多人都听说过分形。
分形是具有非整数的集合豪斯多夫维
(数学上,这是正式术语)。
非正式地说,是“自相似的”。
第二行图像显示了一个叫做Koch曲线的东西。
构造这个分形的方法是采用等边三角形,
然后取3个等边三角形,边长为1/3,
并将它们粘贴在那个物体的每个暴露面上。
然后你迭代; 你拿小三角形
把它们粘在每个尖尖的面的两侧
最终你会得到一个看起来很像雪花的美丽结构。
分形在数学中起着有趣的作用。
在自然界中也存在许多分形和分形结构的例子。
这是一个例子。
分形也是计算机图形中与自然有用的类比。
这是美丽的分形,称Mandelbrot set (曼德博集) 。
这段视频告诉你,如果放大曼德博集,
你会看到越来越多的结构;
事实上你会看到自相似的结构。
有一个全新的Mandelbrot曼德博集。
你可以继续放大和放大,
你会看到自相似的结构。
我在本课程的Complexity Explorer网站
的补充材料部分添加了该视频的链接,
就在这里,在本单元的这一部分的部分下。
您应该去那里找到
您可能需要做的功课的链接,
像这个Logistic Map应用程序,
对于像这篇论文的材料,你会看到
如果你想了解更多有关这些概念的信息
我在那个部分谈过的。
我还提供了一些教程材料的链接
以及其他可能对你有帮助的事情,如果你需要一些背景来补充
这是一个重要的事情:分形和混沌之间的联系。
有一种联系,但不是当且仅当
许多混沌系统都有一些分形结构,
但并非所有混沌系统都具有分形结构的情况;
也就是说,有些混乱的系统没有分形结构,
肯定有大量的分形与混乱无关,
但科普出版社已将这两个主题混为一谈。
如果您想了解有关分形的更多信息,
你可以看一下 Dave Feldman (戴夫费尔德曼) 在MOOC上的课程。
最后一点,与瞬态长度有关:
对于某些R值,瞬态真的很长?
您认为这将如何在分叉图中体现出来?
也就是说,这里有一些固定点,但轨迹是
用很长时间才到达这些点。
在分叉图上看起来像是这样的。
我试图从轴上画出一系列的点,
然后慢慢地越来越近,但是要永远地到达那里。
因此如果我们想要看到渐近行为,
我们想要抛弃瞬态,
但是如果我们
想在这里摆脱瞬态,我们需要抛出多少点?
我们真正需要做的是很多次迭代
但没有绘制这些点,
然后从那个轨道的终点,
很多次迭代,并绘制这些点。
这相当于省略了瞬态。
但问题是,这些:
你如何选择要迭代多少点才能摆脱瞬态,
你如何选择要绘制的点以便获得非常好的图片?这些都很棘手。
您希望红色束数足够大,以便您可以看到结构
但不是很大,以至于绘制点的有限大小会遮挡结构。
你想扔出足够多的点,因此瞬态真的已经消失了,
但这有多长? 真的,没有办法知道。
它们往往在分叉之前变长。
在练习中你所做的是增加你在绘图之前扔掉的点数,
直到周期轨道清晰。
那些扔掉的点远远超过了分叉,
当然,瞬态很短,
但除此之外,你的轨道会在分叉点附近变厚。
所有这些都将在下一部分中发挥作用,
我们将深入研究分岔图中收缩宽度和高度背后的模式。