Return to Video

Intro to Channel Capacity (information theory)

  • 0:01 - 0:03
    Stało się również jasne
  • 0:03 - 0:04
    że istnieje inny sposób
  • 0:04 - 0:08
    zwiększenia wydajności
    systemu komunikacji
  • 0:08 - 0:10
    Możemy zwiększyć ilość
  • 0:10 - 0:13
    różnych zdarzeń sygnałów
  • 0:13 - 0:17
    Na przykład, w systemie
    komunikacji strunowej Alice i Boba
  • 0:17 - 0:21
    odkryli oni, że zróżnicowanie
    typów szarpnięć
  • 0:21 - 0:24
    pozwoliło im wysyłać
    wiadomości szybciej
  • 0:24 - 0:26
    Na przykład
  • 0:26 - 0:29
    silne, średnie i delikatne szarpnięcia.
  • 0:29 - 0:33
    Albo szarpnięcia o
    wyższym i niższym tonie
  • 0:33 - 0:35
    poprzez napinanie drutu w różnym stopniu
  • 0:35 - 0:37
    Był to pomysł zastosowany przez
  • 0:37 - 0:39
    Tomasza Edisona, który wykorzystał go do
  • 0:39 - 0:42
    systemu kodu Morse'a
  • 0:42 - 0:44
    Wykorzystywał on pomysł
  • 0:44 - 0:46
    użycia słabych i silnych baterii
  • 0:46 - 0:50
    do uzyskania sygnałów o różnej sile
  • 0:50 - 0:52
    Użył on również dwóch kierunków
  • 0:52 - 0:53
    tak jak Gauss i Weber
  • 0:53 - 0:56
    przepływu prądu w jednym lub drugim kierunku
  • 0:56 - 0:58
    i dwóch natężeń
  • 0:58 - 0:59
    uzyskał więc +3 wolty
  • 0:59 - 1:01
    +1 wolt
  • 1:01 - 1:04
    -1 wolt i -3 wolty
  • 1:04 - 1:06
    cztery różne wartości napięcia,
  • 1:06 - 1:07
    służące do wymiany informacji
  • 1:07 - 1:11
    Pozwoliło to firmie Western
    Union zaoszczędzić pieniądze
  • 1:11 - 1:14
    znacznie zwiększając ilość wiadomości,
    które firma mogła wysłać.
  • 1:14 - 1:16
    bez budowania nowych linii.
  • 1:16 - 1:20
    Urządzenie to nazwano
    telegrafem kwadrupleksowym
  • 1:20 - 1:23
    i kontynuowano jego użycie do XX w.
  • 1:23 - 1:28
    Podobnie tutaj, im bardziej
    rozszerzano ilość zdarzeń sygnałowych
  • 1:28 - 1:30
    napotykano kolejny problem.
  • 1:30 - 1:34
    Np. dlaczego nie wysyłać
    tysiąca albo miliona
  • 1:34 - 1:37
    różnych poziomów napięcia
    w postaci impulsów
  • 1:37 - 1:39
    Można się spodziewać,
  • 1:39 - 1:41
    Niewielkie różnice
  • 1:41 - 1:44
    prowadzą do problemów
    po stronie odbiorczej
  • 1:44 - 1:46
    W przypadku systemów elektrycznych
  • 1:46 - 1:48
    rozdzielczość tych różnic
  • 1:48 - 1:51
    jest zawsze ograniczona
    przez szum elektryczny.
  • 1:51 - 1:55
    Jeżeli podłączymy miernik do
    dowolnego przewodu elektrycznego,
  • 1:55 - 1:57
    [stłumione dźwięki pianina]
  • 1:57 - 2:01
    I powiększymy (wykres) odpowiednio mocno.
  • 2:02 - 2:06
    zawsze ujrzymy drobne niepożądane prądy.
  • 2:06 - 2:10
    Jest to nieunikniony efekt
    naturalnych zjawisk
  • 2:10 - 2:11
    takich jak ciepło
  • 2:11 - 2:13
    lub burze geomagnetyczne
  • 2:13 - 2:15
    a nawet ukryte oddziaływanie
    wielkiego wybuchu
  • 2:15 - 2:18
    Więc różnice między zdarzeniami sygnału
  • 2:18 - 2:20
    muszą być wystarczająco duże
  • 2:20 - 2:23
    tak by szum nie mógł
    wytrącić zdarzenia sygnału
  • 2:23 - 2:25
    z jednego typu w inny.
  • 2:27 - 2:30
    Teraz możemy się zatrzymać
  • 2:30 - 2:34
    i zdefiniować wydajność
    systemu komunikacyjnego.
  • 2:34 - 2:37
    używając dwóch prostych idei.
  • 2:37 - 2:41
    Po pierwsze, ile symboli
    można przesłać na sekundę.
  • 2:41 - 2:44
    co nazywamy prędkością
    (przesyłu) symboli,
  • 2:44 - 2:47
    i dzisiaj jest znane
    po prostu jako Baud
  • 2:47 - 2:48
    ku czci Émila Baudota
  • 2:49 - 2:51
    i możemy opisać jako "n"
  • 2:51 - 2:53
    przesył "n" symboli na sekundę.
  • 2:53 - 2:58
    Po drugie, ile różnic
    przypadających na symbol,
  • 2:58 - 3:01
    co możemy uznać za przestrzeń symboli
  • 3:01 - 3:04
    Spośród ilu symboli możemy
    wybierać w każdym momencie
  • 3:04 - 3:07
    Możemy ją nazwać "s"
  • 3:07 - 3:09
    Jak można było zauważyć wcześniej,
  • 3:09 - 3:11
    parametry te można uznać
  • 3:11 - 3:14
    jako drzewo decyzyjne możliwości.
  • 3:15 - 3:17
    ponieważ każdy symbol
    można uznać za decyzję
  • 3:17 - 3:21
    gdzie ilość odgałęzień
    odpowiada ilości różnic
  • 3:21 - 3:24
    i po "n" symbolach
  • 3:24 - 3:25
    otrzymujemy drzewo
  • 3:25 - 3:29
    z "s" do potęgi "n" listków.
  • 3:29 - 3:32
    Jako że każda ścieżka przez to drzewko
  • 3:32 - 3:34
    może stanowić wiadomość.
  • 3:34 - 3:36
    Możemy uważać ilość liści
  • 3:36 - 3:39
    za rozmiar przestrzeni
    wiadomości.
  • 3:39 - 3:42
    Łatwo jest zobrazować przestrzeń wiadomości
  • 3:42 - 3:43
    jako po prostu szerokość
  • 3:43 - 3:46
    podstawy jednego z takich drzew.
  • 3:46 - 3:49
    Definiuje ona całkowitą
    ilość możliwych wiadomości
  • 3:49 - 3:51
    możliwych do wysłania.
  • 3:51 - 3:55
    dla danych sekwencji
    i zdarzeń symboli.
  • 3:55 - 3:56
    Na przykład
  • 3:56 - 3:59
    Alice wysyła Bobowi wiadomość
  • 3:59 - 4:00
    złożoną z dwóch szarpnięć.
  • 4:00 - 4:03
    Stosują oni silne lub słabsze szarpniecie
  • 4:03 - 4:06
    w ich systemie komunikacji.
  • 4:06 - 4:08
    Oznacza to, że ma ona
    możliwość wysłania
  • 4:08 - 4:12
    jednej z czterech możliwych
    wiadomości do Boba.
  • 4:12 - 4:15
    Zamiast tego, używają oni systemu
  • 4:15 - 4:18
    słabych, średnich i
    słabych szarpnięć.
  • 4:18 - 4:20
    W przypadku trzech (rodzajów) szarpnięć,
  • 4:20 - 4:23
    Ma ona możliwość zdefiniowania jednego z
  • 4:23 - 4:24
    trzech do potęgi 3
  • 4:24 - 4:26
    co daje 9 wiadomości.
  • 4:26 - 4:28
    A w przypadku trzech szarpnięć
  • 4:28 - 4:32
    uzyskamy jedną z 27 wiadomości.
  • 4:32 - 4:35
    Jeżeli zamiast tego, Alice
    i Bob będą wymieniać się
  • 4:35 - 4:37
    pisemnymi notatkami w klasie
  • 4:37 - 4:40
    zawierającymi tylko dwie
    litery na kartce papieru,
  • 4:40 - 4:43
    Jedna notatka mogłaby zawierać
  • 4:43 - 4:46
    26 do potęgi drugiej
  • 4:46 - 4:49
    lub 676 możliwych wiadomości.
  • 4:51 - 4:53
    Należy zdać sobie sprawę,
  • 4:53 - 4:57
    że nie dbamy teraz o
    znaczenie przypisane do tych
  • 4:57 - 4:59
    łańcuchów różnic.
  • 4:59 - 5:03
    a jedynie ile różnych
    wiadomości jest możliwe.
  • 5:03 - 5:06
    Uzyskane sekwencje mogą przedstawiać
  • 5:06 - 5:09
    liczby, nazwy, uczucia, muzykę
  • 5:09 - 5:11
    może nawet alfabet kosmitów,
  • 5:11 - 5:13
    który nigdy nie zrozumiemy.
  • 5:14 - 5:16
    Kiedy spojrzymy teraz na system komunikacji
  • 5:16 - 5:19
    możemy oceniać jego wydajność
  • 5:19 - 5:22
    jak wiele różnych rzeczy można powiedzieć
  • 5:22 - 5:25
    Następnie można użyć
    przestrzeni wiadomości,
  • 5:25 - 5:28
    aby określić jak wiele różnic
    jest możliwych w dowolnej sytuacji.
  • 5:29 - 5:31
    I ten prosty i elegancki koncept tworzy
  • 5:31 - 5:36
    podstawę dla późniejszej
    definicji informacji
  • 5:36 - 5:39
    To jest ostateczny krok
  • 5:39 - 5:41
    który doprowadzi nas do współczesnej
  • 5:41 - 5:42
    teorii informacji.
  • 5:42 - 5:46
    I pojawia się ona
    na początku XX w.
Title:
Intro to Channel Capacity (information theory)
Description:

Intro to Channel Capacity (information theory)

more » « less
Video Language:
English
Duration:
05:54
Blanka Skrzymowska edited Polish subtitles for Intro to Channel Capacity (information theory)
Jacek Kotowski edited Polish subtitles for Intro to Channel Capacity (information theory)
Jacek Kotowski added a translation

Polish subtitles

Revisions