Return to Video

cdn.media.ccc.de/.../35c3-wikipakawg-28-deu-Operation_Mindfuck_2_-_Computer_Kunst_und_Kuriositaeten_hd.mp4

  • 0:00 - 0:16
    Musik
  • 0:16 - 0:24
    Herald: Hallo, hallo! So, jetzt im
    Abendprogramm der Wikipaka WG haben wir
  • 0:24 - 0:29
    ein kleines Potpourri der Kuriositäten.
    Ein bisschen Kunst, ein bisschen
  • 0:29 - 0:34
    Technologie und ich nehme an, ganz viel
    Fusion aus den beiden. Also einen schönen
  • 0:34 - 0:40
    Applaus für Operation Mindfuck Vol. 2 mit
    bleeptrack und blinry!
  • 0:40 - 0:45
    Applaus
  • 0:45 - 0:52
    blinry: Hallo! Also wir fangen an mit ein
    bisschen über künstliche Intelligenz. Da
  • 0:52 - 0:55
    hat man den Eindruck, über die letzten
    Jahre hat sich da viel getan. Und so
  • 0:55 - 0:59
    Programme, die irgendwie kluge Dinge tun,
    sind irgendwie immer klüger geworden. Und
  • 0:59 - 1:02
    ich hab euch ein paar Sachen mitgebracht,
    die je nachdem wie ihr das interpretiert -
  • 1:02 - 1:05
    entweder danach denkt, glaub ich, man
    braucht gar nicht so viel Angst zu haben,
  • 1:05 - 1:08
    dass die wirklich die Welt übernehmen
    oder, dass sie es vielleicht doch
  • 1:08 - 1:12
    schneller tun, als ihr denkt. Gucken wir
    mal rein. Es geht um ein paar
  • 1:12 - 1:17
    Forschungsthemen. Also, eine Gruppe von
    Forschern hat versucht, ein Programm zu
  • 1:17 - 1:22
    basteln, die ein Retro Spiel spielen und
    dabei lernen, wie man das spielt, also von
  • 1:22 - 1:27
    0 auf. Haben die irgendwie vor Donkey Kong
    gesetzt oder so. Und dann hat halt das
  • 1:27 - 1:29
    Programm gelernt, um den Score
    hochzutreiben, muss man irgendwie so ein
  • 1:29 - 1:33
    bisschen rumlaufen und über Dinge springen
    und so und irgendwie Leitern hochklettern.
  • 1:33 - 1:36
    Und das hat das ganze erfolgreich gemacht.
    Und dann haben sie das vor Tetris gesetzt
  • 1:36 - 1:40
    und da ist irgendwie was Komisches
    passiert, wenn sie das angeguckt haben,
  • 1:40 - 1:43
    was das Programm tut. Das hat einfach die
    Kästchen irgendwie so übereinander
  • 1:43 - 1:48
    gestapelt, keine rein gecleart oder sowas,
    und dann total chaotisch irgendwie das
  • 1:48 - 1:52
    Feld gefüllt. Und kurz bevor es oben
    angekommen ist und das nächste Teil
  • 1:52 - 1:56
    gekommen wäre und Game Over gewesen wäre,
    hat es auf Pause gedrückt und ist da
  • 1:56 - 2:00
    einfach geblieben. Was dann dazu führte,
    dass, ja, nach den Kriterien, die dem
  • 2:00 - 2:04
    vorgegeben wurden, hat es halt nicht
    verloren und ist dann da halt... hat
  • 2:04 - 2:11
    unbegrenzt viele Punkte gekriegt auf diese
    Art und Weise. Ja. Oder ein anderes Team
  • 2:11 - 2:15
    wollte einen virtuellen Roboter bauen, der
    sich über eine Spielfläche möglichst
  • 2:15 - 2:20
    schnell bewegt, also der eine Strecke
    möglichst schnell zurücklegt. Und dieser
  • 2:20 - 2:24
    Roboter konnte aus Rechtecken, 3D
    Rechtecken oder Quadern bestehen, die
  • 2:24 - 2:29
    zusammenhängen, die Muskelverbindungen
    haben oder sowas und auf Berührung mit dem
  • 2:29 - 2:33
    Boden irgendwas besonderes tun oder sowas.
    Und die dachten: Okay, wir geben mal die
  • 2:33 - 2:37
    Kriterien vor und lassen da einen
    generativen Algorithmus irgendwie drüber
  • 2:37 - 2:41
    laufen und gucken mal, was da passiert.
    Und was ist passiert? Das Programm hat
  • 2:41 - 2:45
    einen Roboter gebaut, der ein ganz ganz
    langes, dünnes Bein hatte und oben war so
  • 2:45 - 2:49
    ein schwerer Würfel drauf. Das ist dann
    halt zur Seite umgekippt und hat diese
  • 2:49 - 2:53
    Strecke dadurch sehr schnell zurückgelegt.
    Seitlich. Manche haben auch gelernt, noch
  • 2:53 - 2:56
    am Ende so einen kleinen Salto, einen
    Überschlag zu machen, um noch ein bisschen
  • 2:56 - 3:00
    extra Strecke dabei drauf zu kriegen.
    Nicht das, was die Forscher erwartet
  • 3:00 - 3:02
    haben, aber da haben sie dann im Paper
    beschrieben, dass das passiert ist und
  • 3:02 - 3:09
    fanden das wahrscheinlich selber ganz
    witzig. Dann gab es ein Programm, das
  • 3:09 - 3:14
    sollte einen Algorithmus reparieren. Ein
    Algorithmus, der eigentlich eine Liste von
  • 3:14 - 3:18
    Zahlen sortieren sollte. Der Algorithmus
    hat das meistens richtig sortiert.
  • 3:18 - 3:23
    Manchmal gab's aber irgendwie ein paar
    Fehler. Und die Aufgabe für das Programm
  • 3:23 - 3:26
    war, dass es lernen sollte, wie man den
    Algorithmus so fixt, dass es danach immer
  • 3:26 - 3:31
    eine sortierte Liste ausgibt. Was hat das
    Programm gemacht? Es hat immer eine leere
  • 3:31 - 3:37
    Liste ausgegeben, weil es gemerkt hat:
    Okay, dann akzeptiert meine Umgebung das
  • 3:37 - 3:46
    als sortiert. Gut, auch nicht das, was die
    Forscher erwartet haben. Genau, das war so
  • 3:46 - 3:54
    ein Fahrsimulator, wo Leute sich dachten:
    Okay, wir wollen nun ein autonomes Auto
  • 3:54 - 3:57
    simulieren und mal gucken, dass das die
    Rundkurse möglichst schnell zurücklegt.
  • 3:57 - 4:02
    Und deshalb geben wir als Vorgabe, dass
    die Durchschnittsgeschwindigkeit so hoch
  • 4:02 - 4:05
    sein soll wie möglich. Und haben das
    angeworfen, haben irgendwie das wieder
  • 4:05 - 4:10
    selbst lernen lassen und so. Tja, was ist
    passiert? Das Auto hat sich immer im Kreis
  • 4:10 - 4:14
    gedreht. Das GIF spielt gerade nicht, aber
    ihr könnt euch vorstellen, es war einfach
  • 4:14 - 4:18
    auf dieser Strecke irgendwie möglichst
    enge Kreise gefahren. Möglichst schnell,
  • 4:18 - 4:20
    ist da so langgeschlittert, hatte dadurch
    eine super hohe
  • 4:20 - 4:24
    Durchschnittsgeschwindigkeit, aber ist
    halt nicht vorangekommen. Und auch da
  • 4:24 - 4:30
    waren halt die Vorgaben von außen falsch,
    was das Programm eigentlich lernen soll.
  • 4:30 - 4:33
    Genau das war auch... das ist vielleicht
    eines meiner Lieblingsbeispiele. Da ging
  • 4:33 - 4:41
    es darum, virtuelle Agenten zu bauen, die
    Fußball spielen auf einem 3D Feld und die
  • 4:41 - 4:45
    Gruppe dachte sich: Okay, was ist da ein
    gutes Kriterium für einen guten
  • 4:45 - 4:50
    Fußballspieler? Wahrscheinlich, dass man
    irgendwie oft an den Ball kommt. Das ist
  • 4:50 - 4:53
    ein Zeichen dafür, dass man irgendwie am
    Spiel teilnimmt, dass man irgendwie den
  • 4:53 - 5:00
    Ball weitergibt oder so. Und genau. Und
    was hat das Programm dann gemacht? Die
  • 5:00 - 5:05
    Agenten haben sich den Ball gegriffen und
    möglichst schnell dagegen vibriert mit
  • 5:05 - 5:12
    einem ihrer Körperteile, um halt möglichst
    viele Berührungen zu erzeugen dabei. Und,
  • 5:12 - 5:19
    ja. Gut, und hier noch ein letztes
    Beispiel, was mal schiefgegangen ist. Da
  • 5:19 - 5:22
    ging es um Klassifizierung von Bildern.
    Das ist so ein relativ typisches KI-
  • 5:22 - 5:26
    Problem, dass man dem irgendwie ein Bild
    zeigt und das Programm soll entscheiden:
  • 5:26 - 5:33
    Ist da eine Katze drauf? Oder ist da keine
    Katze drauf? Zum Beispiel. Und in dem Fall
  • 5:33 - 5:37
    hat jemand so ein Programm geschrieben und
    irgendwie trainieren lassen und hat
  • 5:37 - 5:41
    festgestellt, dass das total schnell
    supergut wurde. Mit Treffersicherheiten
  • 5:41 - 5:45
    über 90 Prozent oder so. Und aus der
    Vergangenheit und aus alter Forschung
  • 5:45 - 5:49
    wusste die Person, dass das eigentlich
    länger dauert und nicht so zuverlässig
  • 5:49 - 5:53
    funktioniert und hat da irgendwie länger
    rein geguckt, was da wohl geschehen ist.
  • 5:53 - 5:58
    Und der Grund war, dass die beiden Typen
    von Bildern aus zwei verschiedenen
  • 5:58 - 6:02
    Datenbanken kamen. Also die mit Katze aus
    der einen und die ohne Katze aus der
  • 6:02 - 6:05
    anderen. Und die eine hatte ein bisschen
    mehr Delay und das Programm hat dabei
  • 6:05 - 6:09
    irgendwie gelernt, das ist so eine Art
    Timing-Atttacke, die da stattgefunden ist.
  • 6:09 - 6:12
    Also wenn es lange dauert, das Bild zu
    holen, dann ist da offenbar keine Katze
  • 6:12 - 6:18
    drauf. Und daran hat es sich gehalten und
    hat dann super zuverlässig dieses Ding
  • 6:18 - 6:24
    hingekriegt, das zu klassifizieren. Tja.
    Genau. Wenn euch das Spaß gemacht hat,
  • 6:24 - 6:28
    gibt es noch eine ziemlich lange Liste von
    solchen ähnlichen Fällen irgendwie unter
  • 6:28 - 6:33
    dieser URL, wo ich jetzt hier ein paar
    herausgegriffen habe, die ich ganz lustig
  • 6:33 - 6:38
    fand. Aber da gibt es noch viel mehr.
  • 6:38 - 6:43
    Applaus
  • 6:43 - 6:48
    bleeptrack: Ich beschäftige mich momentan
    ganz viel mit Generative Art, also mit
  • 6:48 - 6:52
    Kunst, die irgendwie aus dem Computer
    erzeugt wird und ein Teil davon sind
  • 6:52 - 6:56
    zelluläre Automaten. Und ein Beispiel
    haben wir zum Beispiel hier, das ist das
  • 6:56 - 6:59
    Game of Life. Meldet euch doch mal, wer
    das Game of Life kennt oder vielleicht
  • 6:59 - 7:04
    sogar schon mal programmiert hat, selber.
    Ein bisschen weniger. Also für den Stream:
  • 7:04 - 7:09
    Fast der ganze Saal hat sich jetzt hier...
    der Raum hat sich jetzt gemeldet. Und ja,
  • 7:09 - 7:13
    Game of Life ist ein ganz klassischer
    zellulärer Automat. Man befindet sich in
  • 7:13 - 7:18
    einer Grid World. Man hat also ein Raster
    an Punkten. Und bei Game of Life ist es
  • 7:18 - 7:22
    so, dass ein Punkt eben entweder belebt
    sein kann oder nicht. Wenn er lebt, dann
  • 7:22 - 7:25
    ist er hier schwarz markiert und wenn
    nicht, dann ist er weiß. Und es gibt
  • 7:25 - 7:31
    Regeln, wie sich dieses Leben fortpflanzen
    darf. Wenn es nämlich eine kleine - ich
  • 7:31 - 7:33
    weiß gar nicht, ich kann sie ganz
    auswendig ehrlich gesagt nicht - wenn es
  • 7:33 - 7:38
    eine kleine Anzahl an umliegenden Punkten
    gibt, die schon leben, dann entsteht neues
  • 7:38 - 7:41
    Leben. Und wenn es aber zu viele Punkte
    sind, die außenrum leben, dann stirbt das
  • 7:41 - 7:45
    Leben praktisch ab. Und jetzt kann man
    Schritt für Schritt über diese Grid World,
  • 7:45 - 7:49
    über dieses Raster gehen und sich eben
    anschauen, wo neues Leben entsteht und wo
  • 7:49 - 7:52
    es stirbt. Und dann kann man solche
    Animationen erstellen. Was da ganz witzig
  • 7:52 - 7:58
    ist, was ihr so nach unten rechts
    weglaufen seht, das ist dann eine Form,
  • 7:58 - 8:03
    die dabei entsteht. Die hat man dann
    Glider getauft. Die können sich nämlich so
  • 8:03 - 8:06
    fortbewegen in diesem Raum, das ist ganz
    witzig. So, Game of Life ist
  • 8:06 - 8:10
    wahrscheinlich so der bekannteste
    zellulärer Automat, aber wir können mal
  • 8:10 - 8:13
    noch ein paar andere angucken. Man kann
    nämlich das Grid auch einfach ganz anders
  • 8:13 - 8:18
    definieren, zum Beispiel in Form von
    Hexagons. Da muss man sich halt überlegen,
  • 8:18 - 8:22
    wie man die Regeln anpasst. Aber da kann
    man genauso witzige Lebens... kleine
  • 8:22 - 8:26
    Lebensformen und Animationen draus machen.
    Was mir immer noch besonders gut gefällt,
  • 8:26 - 8:32
    sind solche Sachen hier. Das sind
    eindimensionale zelluläre Automaten und
  • 8:32 - 8:38
    die bauen sich nach so, zum Beispiel so
    eine Regel auf. Das heißt, ich habe in dem
  • 8:38 - 8:43
    Fall als Streifen in der x-Achse den
    momentanen Zustand und die Veränderung
  • 8:43 - 8:46
    über die Zeit mache ich nicht in Form von
    Animationen, also dass ich immer ein neues
  • 8:46 - 8:52
    Bild zeichne, sondern die Zeit läuft
    praktisch nach unten weg. Und hier seht
  • 8:52 - 8:58
    ihr z.B. die Regeln für den rule 30
    eindimensionalen zellulären Automat. Das
  • 8:58 - 9:02
    heißt - sieht man die Maus - genau, wenn
    wir hier ganz rechts gucken. Wenn es
  • 9:02 - 9:04
    praktisch hier im momentanen Zustand kein
    Leben gibt, dann wird es auch weiterhin
  • 9:04 - 9:10
    kein Leben geben. Wenn es bei oberen
    Pixeln einen Lebenspunkt oder hier zwei
  • 9:10 - 9:14
    gibt, dann entsteht halt neues Leben. Und
    wenn es zu viele gibt, nehme ich hier zwei
  • 9:14 - 9:19
    oder mehr Punkte, dann stirbt das Leben
    wieder ab. Und da kann man eben solche
  • 9:19 - 9:24
    hübschen Formen und Muster damit
    produzieren. Und was mich dann sehr
  • 9:24 - 9:28
    überrascht hat, ist: Solche Formen kommen
    natürlich... äh, nicht natürlich, aber
  • 9:28 - 9:32
    solche Formen kommen auch in der Natur
    vor. Es gibt nämlich zum Beispiel hier
  • 9:32 - 9:38
    eine Schneckenart, die praktisch genau
    nach diesem Prinzip die Schale... also das
  • 9:38 - 9:42
    Muster tritt genau so auf dieser Schale
    auf. Und man kann das Spielchen jetzt
  • 9:42 - 9:46
    natürlich auch noch weitertreiben, und
    zwar nicht in der eindimensionalen
  • 9:46 - 9:51
    Variante, sondern in der zweidimensionalen
    Variante. Aber wir können natürlich vom
  • 9:51 - 9:54
    praktisch diskreten Raum, wo es nur eins
    und null gibt, also lebend und nicht
  • 9:54 - 9:59
    lebend in einen größeren Raum gehen, wo es
    noch Zwischenzustände gibt. Und da gibt's
  • 9:59 - 10:04
    ein Projekt, das heißt z.B. Smooth Life.
    Also es ist eine Weiterentwicklung von
  • 10:04 - 10:09
    einem typischen Game of Life und man hat
    noch so graue Zwischenzustände. Und da
  • 10:09 - 10:12
    entstehen dann auf einmal ganz andere
    Formen. Aber was ich besonders witzig
  • 10:12 - 10:17
    ist... äh, witzig finde, ist, dass auch
    solche Glider entstehen. Das sind immer
  • 10:17 - 10:20
    diese Punkte hier. Und wenn wir mal ein
    bisschen abwarten, genau, dann seht ihr,
  • 10:20 - 10:23
    die hier ab und zu schon mal so rum
    flitzen. Also solche sich fort bewegenden
  • 10:23 - 10:28
    Konstrukte entstehen da halt immer noch.
    Und ich finde das sehr faszinierend,
  • 10:28 - 10:33
    solche Animationen anzuschauen.
  • 10:33 - 10:38
    Applaus
  • 10:38 - 10:45
    blinry: Ich hab euch ein paar kleine
    Schriftarten mitgebracht. Das erste
  • 10:45 - 10:51
    Beispiel heißt Mini Text. Hat sich jemand
    ausgedacht: Eine Schriftart, die nur einen
  • 10:51 - 10:57
    Pixel breit ist. Das Alphabet sieht dann
    so aus. Ich glaube, oben ist eine
  • 10:57 - 11:01
    Zahlenreihe. Unten ist das Alphabet von A
    bis Z. Und wenn man das erst mal anguckt,
  • 11:01 - 11:05
    könnte man denken: Ok, so ein bisschen,
    weiß nicht, wie ein Flaggen Alphabet oder
  • 11:05 - 11:08
    so. Muss man halt auswendig lernen, welche
    Farbkombinationen für welchen Buchstaben
  • 11:08 - 11:12
    stehen. Aber tatsächlich steckt da ein
    bisschen mehr hinter. Der Trick ist
  • 11:12 - 11:16
    nämlich, dass vor zehn Jahren, als die
    Person sich das ausgedacht hat, super
  • 11:16 - 11:21
    verbreitet waren LCD Bildschirme, wo
    einzelne Pixel halt aus drei Farbstreifen
  • 11:21 - 11:26
    bestanden: Aus roten, grünen und blauen
    Subpixeln, die dann zusammen irgendwie
  • 11:26 - 11:29
    eine weiße Farbe erzeugen, wenn alle
    angeschaltet sind. Und das führt dann
  • 11:29 - 11:33
    dazu, dass wenn man nur bestimmte Teile
    der Farben anmacht, dann kriegt er halt
  • 11:33 - 11:37
    irgendwie, weiß nicht... wenn ihr jetzt
    einen blauen Pixel anschaltet, dann ist
  • 11:37 - 11:40
    nur der rechte Streifen davon an. Das
    führt dazu, dass wenn man das wirklich auf
  • 11:40 - 11:45
    einem echten LCD Bildschirm tut, auf
    nativer Auflösung, und das mit einem eine
  • 11:45 - 11:49
    Lupe anguckt oder groß fotografiert oder
    sowas, dann ergeben sich halt da die
  • 11:49 - 11:53
    Buchstaben durch, dass man irgendwie
    Kombinationen bauen kann aus diesen drei
  • 11:53 - 11:59
    Spalten. Und das ist ziemlich cool. Ich
    hab das neulich mal vertwittert und Leute
  • 11:59 - 12:04
    haben das bei sich ausprobiert und
    heutzutage ist die Diversität ein bisschen
  • 12:04 - 12:08
    höher. Ja, genau. Ich hatte damals, als
    ich das gefunden habe, kurzfristig meinen
  • 12:08 - 12:12
    Twitteravatar mal so auf einen Mini-Text
    getan, wo dann irgendwie drinstand, dass
  • 12:12 - 12:16
    man mehr als 140 Zeichen im Avatar
    unterbringen kann. Aber es empfiehlt dann,
  • 12:16 - 12:21
    seinen Followern eine Lupe auszuteilen,
    damit die das auch lesen können. Und genau
  • 12:21 - 12:25
    - Leute haben das neulich nochmal
    ausprobiert. Da passierte dann z.B. sowas,
  • 12:25 - 12:30
    wo offenbar Rot und Blau Subpixel
    vertauscht waren, bei dieser Person. Also
  • 12:30 - 12:34
    da sind die Buchstaben im Grunde zu
    erkennen, aber alle sind falschrum. Works
  • 12:34 - 12:41
    for me, könnte man sagen. Oder bei anderen
    Personen passierte das. Das ist eine
  • 12:41 - 12:45
    superweirde Subpixel-Anordnung, so wie sie
    bei Sensoren von digitalen Foto Kameras
  • 12:45 - 12:50
    verwendet wird, zum Beispiel. Da ist es
    halt nicht brauchbar und tja, für die
  • 12:50 - 12:56
    Person ist es dann halt nicht lesbar. Ich
    hab gehört, beim CTF gibt es irgendwie
  • 12:56 - 13:04
    eine Challenge, die mit dieser Font auch
    zu tun hat. Ja, genau. Und dann saßen wir
  • 13:04 - 13:06
    neulich im Hackerspace rum und haben
    nochmal ein bisschen damit gespielt und
  • 13:06 - 13:11
    haben überlegt: Okay, wie viel Text kann
    man auf wie viel Platz darstellen? Und
  • 13:11 - 13:16
    haben mal den ersten Band von Herr der
    Ringe genommen, die Gefährten. Haben uns
  • 13:16 - 13:18
    einen Generator für Mini-Text geschrieben
    und festgestellt, dass tatsächlich der
  • 13:18 - 13:24
    ganze erste Band auf Englisch in ein Bild
    passt mit 3500 Pixel Breite quadratisch.
  • 13:24 - 13:29
    Das ist ziemlich cool. Auf 5k Bildschirmen
    oder so kann man dann quasi das ganze Buch
  • 13:29 - 13:32
    auf einem Bildschirm haben, muss nur
    zwischen den einzelnen Bänden einmal
  • 13:32 - 13:39
    umblättern, sozusagen. Und ja, in dem
    Moment haben wir versucht... Applaus.
  • 13:39 - 13:46
    Viel ist halt wirklich schwer zu lesen und
    das tat unseren Augen weh und so. Und Lena
  • 13:46 - 13:49
    hier meinte dann, wir könnten das ja mal
    an die Wand werfen mit einem Projektor, um
  • 13:49 - 13:52
    näher ran gehen zu können und so. Das war
    aber leider eine Technologie in dem
  • 13:52 - 13:56
    Beamer, die gar nicht mit so Pixeln
    arbeitete. Insofern nützte uns das in dem
  • 13:56 - 14:01
    Moment nichts. Genau, und die zweite
    kleine Schrift, die ich euch mitgebracht
  • 14:01 - 14:07
    habe, ist Dotsies. Auch da sind einzelne
    Buchstaben einen Pixel breit. Das
  • 14:07 - 14:12
    funktioniert nur ein bisschen anders: Das
    ist halt eine Kombination... also ihr habt
  • 14:12 - 14:15
    eine 5-Pixel-Reihe, also 5 Pixel hoch, 1
    Pixel breit und unterschiedlich viele
  • 14:15 - 14:18
    davon sind an oder aus. Das sind dann
    halt... hier muss man wirklich auswendig
  • 14:18 - 14:23
    lernen, welche Buchstaben welche
    Pixelanordnungen sind. Und was cool ist an
  • 14:23 - 14:29
    dieser Schrift ist, dass wenn man daraus
    Wörter zusammen baut, dann haben die einen
  • 14:29 - 14:34
    relativ kleinen visuellen Eindruck. Also
    hier ist der gleiche Text oben und unten.
  • 14:34 - 14:38
    Ihr seht schon, beim einen ist der Text in
    Dotsies viel viel kleiner und viel
  • 14:38 - 14:42
    kompakter. Und außerdem bilden die
    einzelnen Wörter relativ gut visuell
  • 14:42 - 14:47
    erkennbare Muster. Da kann man ein
    bisschen leichter Mustererkennung machen,
  • 14:47 - 14:52
    wenn man Dotsies lesen kann im Vergleich
    zu lateinischen Buchstaben. Genau. Wenn
  • 14:52 - 14:55
    ihr das lernen wollt, kann ich total
    empfehlen: Geht hier auf dotsies.org, da
  • 14:55 - 15:00
    gibt es ein Tutorial, was so funktioniert,
    dass ihr erst einmal einen Text mit
  • 15:00 - 15:04
    lateinischen Buchstaben, die aber schon so
    angeordnet sind wie später die Dotsies.
  • 15:04 - 15:08
    Das heißt, ihr lest diesen Text von oben
    nach unten und gewöhnt euch schon mal ein
  • 15:08 - 15:12
    bisschen an diese Struktur und nach und
    nach werden dann immer mehr Buchstaben
  • 15:12 - 15:17
    durch die Dotsies-Äquivalente ersetzt.
    Also da unten kommt... geht es dann los,
  • 15:17 - 15:20
    das irgendwie ein Wort schon einmal
    exemplarisch in Dotsies gezeigt wird, aber
  • 15:20 - 15:24
    - weiß nicht - das E wird dann als erstes
    komplett ersetzt oder sowas. Man kann
  • 15:24 - 15:26
    immer mit der Maus drüber fahren um
    nochmal zu spicken, quasi, was das jetzt
  • 15:26 - 15:30
    eigentlich für ein Buchstabe war. Und das
    ist ein Text, weiß nicht, das dauert eine
  • 15:30 - 15:33
    Viertelstunde den zu lesen oder sowas.
    Wenn ihr unten auf der Seite angekommen
  • 15:33 - 15:36
    seid, könnt ihr auf einmal Dotsies lesen.
    Das ist eine total coole Erfahrung
  • 15:36 - 15:42
    irgendwie, dass das so flüssig ins Gehirn
    geht. Das ist total irre. Kann ich
  • 15:42 - 15:45
    empfehlen.
  • 15:45 - 15:49
    Applaus
  • 15:49 - 15:53
    bleeptrack: So, ich möchte euch gerne eine
    kleine Anekdote erzählen: Ich war kürzlich
  • 15:53 - 15:57
    eingeladen in die Schweiz, um einen
    Vortrag zu halten über Lernen in Online-
  • 15:57 - 16:00
    Communities. Und die Erfahrung habt ihr
    wahrscheinlich auch alle gemacht, dass ihr
  • 16:00 - 16:03
    euch wahnsinnig viel aus dem Internet
    selber irgendwie beigebracht habt. Und ich
  • 16:03 - 16:07
    hab mich dann gefragt: Was war eigentlich
    meine erste Online-Community, in der ich
  • 16:07 - 16:13
    irgendwie Technicksachen gelernt habe? Und
    mir ist dann eingefallen: Das war ein
  • 16:13 - 16:16
    Online-Forum. So was gibt's ja fast gar
    nicht mehr. Ein Online-Forum zu einem
  • 16:16 - 16:20
    Spiel, das hieß Petz. Das ist eigentlich
    so ein - ja, ihr seht das - ein Tamagotchi
  • 16:20 - 16:25
    Spiel. Ja, man kann da mit kleinen Hunden
    und Katzen spielen und die adoptieren und
  • 16:25 - 16:30
    streicheln und es ist ganz niedlich. Und
    ich hab da mal nach diesem Spiel gesucht
  • 16:30 - 16:36
    und interessante Sachen gefunden. Die
    Community bestand - das war so in meinem
  • 16:36 - 16:40
    Fall zumindest so um die 2000er, da hatte
    die so gerade ihre Hochkultur - bestand
  • 16:40 - 16:45
    hauptsächlich aus jungen Frauen, die sich
    gegenseitig hacken beigebracht haben. Es
  • 16:45 - 16:48
    ist die Frage, was hackt man denn an
    diesem Spiel? Da ging es jetzt gar nicht
  • 16:48 - 16:53
    um Cracken für das Spiel oder so. Das war
    nicht das Problem. Es ging darum, neue
  • 16:53 - 16:57
    Hunderassen zu bauen und es ging halt so
    einfach: Man hat nämlich einfach die
  • 16:57 - 17:00
    Dateien der Rasse genommen, also jede
    Rasse war in einer Datei hinterlegt und
  • 17:00 - 17:04
    hat die im Hex Editor aufgemacht und saß
    dann vor einer Riesenwand an komischen,
  • 17:04 - 17:07
    für mich zumindest damals ziemlich
    kryptischen Zahlen und hat die halt
  • 17:07 - 17:11
    versucht zu verändern um andere Farben zu
    kriegen, um, keine Ahnung, den Hund größer
  • 17:11 - 17:16
    zu machen oder kleiner oder längere Ohren
    und sowas. Und da gab es eine riesige
  • 17:16 - 17:19
    Community, die einfach nur Tutorials
    geschrieben hat, wie ich mit dem Hex
  • 17:19 - 17:25
    Editor Files bearbeite, was ich wo ändern
    muss, damit es funktioniert. Und ja, diese
  • 17:25 - 17:27
    Community bestand halt nur aus jungen
    Frauen. Und das jetzt im Nachhinein zu
  • 17:27 - 17:31
    erfahren fand ich super witzig, dass es
    die gab. Weil ich glaube, so eine
  • 17:31 - 17:34
    Community gibt es heute vermutlich eher
    nicht mehr. Zumindest kenne ich keine.
  • 17:34 - 17:38
    Also sagt mir gerne Bescheid, wenn es da
    was equivalentes gibt. Und es ist sehr
  • 17:38 - 17:42
    witzig, da jetzt Berichte nachzulesen.
    Also sucht gerne mal nach dem Spiel Petz
  • 17:42 - 17:45
    5, da gibt's ein paar sehr spannende
    Artikel von Leuten, die das so
  • 17:45 - 17:49
    Retrospektiven drüber geschrieben haben
    und ich freue mich sehr, dass ich damals
  • 17:49 - 17:54
    Teil dieser Community war.
  • 17:54 - 17:58
    Applaus
  • 17:58 - 18:03
    blinry: Ich möchte euch etwas über
    Lipogramme erzählen. Der Begriff kommt aus
  • 18:03 - 18:09
    dem altgriechischen "Lipogrammatikos",
    bedeutet "leaving out a letter". Und da
  • 18:09 - 18:15
    geht es um Texte, in denen tatsächlich ein
    Buchstabe nicht vorkommt. Es gibt in der
  • 18:15 - 18:20
    Literatur ein paar Beispiele. Das ist
    irgendwie aus den Dreißigern, Gatsby. Ist
  • 18:20 - 18:25
    ein ganzes Buch ohne den Buchstaben E. Und
    irgendwie hab ich gelesen, dass der Autor
  • 18:25 - 18:29
    mal behauptet hätte, er hätte auf seiner
    Tastatur damals die - auf seiner
  • 18:29 - 18:35
    Schreibmaschine - die Taste, den Hebel für
    die Taste E irgendwie fixiert, damit er
  • 18:35 - 18:39
    nicht versehentlich drückt. Trotzdem ist
    es passiert, dass in diesem Buch, ich
  • 18:39 - 18:43
    glaube, vier Vorkommen von E sind. Also
    auf dem Cover offensichtlich auch, in
  • 18:43 - 18:48
    diesem Slogan "Without the letter E". Da
    kommt es natürlich dann vor, aber
  • 18:48 - 18:51
    innerhalb der Seiten gibt es viermal das
    E, was irgendwie versehentlich
  • 18:51 - 18:55
    reingerutscht ist. Es gibt dreimal das
    Wort "the" und einmal das Wort "Officers",
  • 18:55 - 19:01
    glaube ich. Aber sonst ist das, finde ich,
    eine starke Leistung, auf die Art und
  • 19:01 - 19:06
    Weise ein Buch zu schreiben. Das hat dann
    inspiriert noch andere Autoren, das auch
  • 19:06 - 19:11
    zu versuchen. Zum Beispiel hier ist ein
    französisches Werk, das auch genauso ohne
  • 19:11 - 19:15
    E auskommt. Und da finde ich nicht nur
    beeindruckend, dass der Autor es geschafft
  • 19:15 - 19:19
    hat, das zu schreiben, sondern dass das
    auch in viele Sprachen übersetzt wurde,
  • 19:19 - 19:23
    unter Beibehaltung des gleichen
    Constraints. Also es gibt da einen
  • 19:23 - 19:29
    irgendwie auf Englisch "A Void" oder auf
    Deutsch heißt das dann "Anton Yoyles
  • 19:29 - 19:36
    Fortgang" von Verlag "zwi tausnd ins", wie
    ihr seht. Und ich hab euch mal
  • 19:36 - 19:41
    mitgebracht, den allerersten Absatz davon,
    dass ihr ein bisschen Gefühl dafür kriegt,
  • 19:41 - 19:45
    wie das ist, wenn man dieses harte
    Constraints hat. Also, ich lese mal ein
  • 19:45 - 19:50
    bisschen: Kardinal, Rabbi und Admiral als
    Führungsfigur null und nichtig und darum
  • 19:50 - 19:56
    völlig abhängig vom Ami-Trust , tat durch
    Radionachricht und Plakatanschlag kund,
  • 19:56 - 20:00
    dass Nahrungsnot und damit Tod aufs Volk
    zukommt. Zunächst tat man das als
  • 20:00 - 20:04
    Falschinformation ab. Das ist
    Propagandagift, sagt man. Doch bald schon
  • 20:04 - 20:08
    ward spürbar, was man ursprünglich nicht
    glaubt. Das Volk griff zum Stock und zum
  • 20:08 - 20:14
    Dolch. "Gib uns das täglich Brot", hallts
    durchs Land und "pfui auf das Patronat,
  • 20:14 - 20:19
    auf Ordnung, Macht und Staat". Und so
    weiter. Und an dem Ausdruck merkt man
  • 20:19 - 20:23
    schon so ein paar Tricks, die da benutzt
    werden, dass man "jetzt hallts" schreibt
  • 20:23 - 20:26
    statt "hallt es" oder sowas, um irgendwie
    das E zu vermeiden oder hat ganz viele
  • 20:26 - 20:32
    Verbformen wählt, wo die verschiedenen
    Zeitformen, die man hat, halt keine E
  • 20:32 - 20:36
    enthalten. Genau. Gibt noch mindestens
    fünf andere Sprachen, in die das übersetzt
  • 20:36 - 20:41
    wurde. Und ja, den Umstand finde ich
    krass. Ich möchte nicht mit den
  • 20:41 - 20:46
    Übersetzern tauschen, ehrlich gesagt.
    Genau, das ist noch ein Buch, das ich
  • 20:46 - 20:50
    tatsächlich gelesen habe, die ersten
    beiden kenne ich nur vom Hörensagen. "Ella
  • 20:50 - 20:58
    Minnow Pea" heißt das und erzählt die
    Geschichte einer Kleinstadt. Die haben so
  • 20:58 - 21:02
    einen... also die Person, die diese Stadt
    gegründet hat und die irgendwie deren
  • 21:02 - 21:08
    großes Mythos-Vorbild ist, hat dort eine
    Statue stehen, mitten in der Stadt. Und da
  • 21:08 - 21:14
    ist eine Inschrift drunter, die nämlich...
    dieser Satz ist "The quick brown fox jumps
  • 21:14 - 21:19
    over the lazy dog", was jeden Buchstaben
    des Alphabets enthält. Und eines Tages
  • 21:19 - 21:24
    fällt von dieser Inschrift ein Buchstabe
    ab und alle Bewohner sehen das natürlich
  • 21:24 - 21:29
    als Zeichen, dass unbedingt dieser
    Buchstabe vermieden werden muss. Es ist
  • 21:29 - 21:32
    ein Roman, der aus Briefen besteht, den
    sich die Dorfbewohner untereinander
  • 21:32 - 21:35
    schreiben. Und da fangen die dann relativ
    schnell an, das auch konsequent
  • 21:35 - 21:39
    durchzuziehen und halt diesen Buchstaben
    wegzulassen. Und naja, über die Zeit
  • 21:39 - 21:44
    fallen dann mehr Buchstaben ab und dann
    müssen sie mehr Buchstaben vermeiden. Und
  • 21:44 - 21:48
    über den Verlauf dieses Romans eskaliert
    das ziemlich und es bleiben echt wenig
  • 21:48 - 21:57
    Buchstaben übrig. Ja, das kann ich sehr
    empfehlen, dieses Buch. Genau. Und wenn
  • 21:57 - 21:59
    ihr das mal ausprobieren wollte, wie es
    ist, so zu schreiben, gibt es tatsächlich
  • 21:59 - 22:03
    eine Mastodon Instanz, nämlich
    Oulipo.social, wo es verboten ist, den
  • 22:03 - 22:07
    Buchstaben E zu benutzen. Also wenn ihr
    irgendwas schreibt, was ein E enthält,
  • 22:07 - 22:11
    dann kriegt ihr eine Fehlermeldung, dass
    man das nicht abschicken kann und die
  • 22:11 - 22:14
    Leute dahinter haben tatsächlich auch das
    gesamte Interface übersetzt. Ich weiß
  • 22:14 - 22:17
    nicht, ob euch das auffällt, da steht
    jetzt nicht "Nickname" oben links, sondern
  • 22:17 - 22:22
    "Login Alias" und so. Also auf allen
    Knöpfen werdet ihr auch kein E finden und
  • 22:22 - 22:25
    wenn, ist es ein Bug. Es gibt ein paar
    GitHub Issues, wo Leute dann doch ein E
  • 22:25 - 22:28
    gefunden haben. Ich glaub ich hab mal...
    Also ich hab das eine zeitlang mal
  • 22:28 - 22:31
    benutzt, ein bisschen, und habe dann
    später nochmal reingeguckt und dann stand
  • 22:31 - 22:37
    irgendwie in einem Tutoren "year ago" mit
    e in dem "year", was irgendwie die Leute
  • 22:37 - 22:39
    offenbar nicht auf dem Schirm hatten, weil
    das halt so neu war, dass nichts ein Jahr
  • 22:39 - 22:44
    alt war. Aber das hab ich als Bug gemeldet
    und es wurde gefixt und jetzt steht da
  • 22:44 - 22:50
    irgendwie 24 Monate oder so... 12 Monate.
    Genau. Und das ist super witzig irgendwie,
  • 22:50 - 22:54
    da mal eine Zeit drauf zu gehen und
    versuchen, so Texte zu formulieren. Weiß
  • 22:54 - 22:58
    nicht, hier in der rechten Spalte schreibt
    blabla irgendwie darüber, wie ein Film
  • 22:58 - 23:03
    besucht wo... es geht offenbar um "group
    of young individuals that do hacking stuff
  • 23:03 - 23:11
    using computing units and shout 'hack this
    world'". Und das hat auch einen ganz
  • 23:11 - 23:14
    komischen psychischen Effekt, wenn man da
    eine Weile ist, wenn man dann die Seite
  • 23:14 - 23:18
    wieder verlässt und versucht, andere Texte
    zu schreiben, weil man dann immer noch so
  • 23:18 - 23:21
    denkt, ich muss das doch vermeiden. Und
    was könnte ich dann stattdessen benutzen?
  • 23:21 - 23:24
    Oder man liest irgendwie andere Texte, wo
    ganz viele Es drin sind und man denkt: Was
  • 23:24 - 23:31
    ist denn da kaputt? Naja, und zum
    Ausgleich, wo man hier kein e benutzen
  • 23:31 - 23:36
    kann, gibt es auch eine Mastodon Instanz,
    wo man nur Es benutzen kann. Das ist
  • 23:36 - 23:42
    dolphin.town. Also man darf Es und Zahlen
    benutzen als Username und als Inhalt der
  • 23:42 - 23:47
    TUDs. Ich denke, da haben die Leute
    vielleicht auch viel Spaß. Ich weiß es
  • 23:47 - 23:50
    nicht. Da hab ich keinen Account. Aber
    macht euch doch einen.
  • 23:50 - 23:56
    Applaus
  • 23:56 - 24:02
    bleeptrack: Ein sehr anderes spannendes
    Thema, was ich euch näherbringen möchte,
  • 24:02 - 24:07
    ist Sinneserweiterung für den Körper. Und
    ja, so in der Hacking Szene - naja,
  • 24:07 - 24:12
    populär wäre übertrieben, aber was man
    schon öfter mal antrifft, sind so NFC
  • 24:12 - 24:16
    Implantate oder implantierte Magneten oder
    sowas. Ich meine, das hat nichts so sehr
  • 24:16 - 24:19
    mit Sinneserweiterungen zu tun. Wobei
    doch. Wobei der Magnet ist ja schon eine
  • 24:19 - 24:23
    Sinneserweiterung. Man fühlt ja zum Teil
    elektromagnetische Felder. Sowas ist
  • 24:23 - 24:27
    irgendwie gängig. Ich möchte euch aber
    über einem Projekt erzählen, was ich in
  • 24:27 - 24:31
    meinem Masterstudium in der Uni mit zwei
    anderen sehr netten Kommilitonen gemacht
  • 24:31 - 24:36
    habe und ich es damals sehr spannend fand.
    Wir haben eine Smartphone-App geschrieben
  • 24:36 - 24:43
    und wir haben vier Arm-Manschetten gebaut,
    die uns unsere, ja, unsere normalen Sinne
  • 24:43 - 24:47
    erweitern sollten. Und wie ihr schon seht
    okay, eine Manschette war keine richtige
  • 24:47 - 24:50
    Manschette. Wir haben einmal praktisch so
    Elektro-Pads genommen, die ihr kennt von
  • 24:50 - 24:55
    den Muskel Kontraktionen, wenn man Muskeln
    aufbauen möchte. Genau. Also da kann man
  • 24:55 - 24:59
    Strom drauf geben und dann merkt ihr
    selber den Muskel ein bisschen zucken.
  • 24:59 - 25:04
    Dann gab es noch diese zweite Manschette
    hier. Da waren vier Servos drin verbaut.
  • 25:04 - 25:07
    Das heißt, man konnte so eine Art Druck
    erzeugen. Also man hat so ein Kneifen am
  • 25:07 - 25:11
    Arm gespürt, wenn man da was ausgelöst
    hat. Die Dritte hier, die waren ein
  • 25:11 - 25:15
    bisschen schwierig anzulegen, der
    Prototyp. Aber die hatte so zirka zehn
  • 25:15 - 25:19
    kleine Vibrations-Motoren rundrum verbaut,
    die man halt auch einzeln ansteuern konnte
  • 25:19 - 25:24
    im Zweifelsfall, um so Pattern abfahren zu
    lassen. Und die große Arm-Manschette hier,
  • 25:24 - 25:28
    die hatte so vier Pedier-Elemente. Das
    heißt, man konnte praktisch Hitze oder
  • 25:28 - 25:32
    Kälte auf der Haut fühlen. So die konnte
    man auch alle in Reihe schalten und
  • 25:32 - 25:37
    theoretisch alle gleichzeitig tragen, was
    dann sehr futuristisch aussieht. Und man
  • 25:37 - 25:40
    musste ein Täschchen tragen wegen Akku.
    Und der Plan war folgender: Man hat diese
  • 25:40 - 25:44
    Handy-App und man sollte diverse
    Informationsquellen auf diese Manschetten
  • 25:44 - 25:48
    mappen können. Das heißt, ich kann z.B...
    könnte fühlen, wie viele Leute sich im
  • 25:48 - 25:53
    WLAN befinden durch Vibrationen. Oder ich
    könnte fühlen... keine Ahnung, den
  • 25:53 - 25:57
    Herzschlag von meinem Freund... den
    irgendwie auf die Wärme mappen lassen,
  • 25:57 - 26:01
    wenn der Sport treibt, dass das dann warm
    wird oder sowas. Das war ja die Idee und
  • 26:01 - 26:04
    damit haben wir experimentiert. Und wir
    haben natürlich auch ein bisschen selbst
  • 26:04 - 26:09
    Tests damit gemacht. Und ich hab zwei
    Selbsttest gemacht, die ich ganz spannend
  • 26:09 - 26:15
    fand. Wir hatten einmal... haben wir
    versucht, die Location zu mappen, das
  • 26:15 - 26:21
    heißt mein Kommilitone damals, der hatte
    ja sein Smartphone dabei und hat seine GPS
  • 26:21 - 26:25
    Location immer zum Server geschickt. Und
    wenn wir uns nahe gekommen sind, dann hat
  • 26:25 - 26:33
    die Manschette mehr vibriert. Und eines
    Tages fahr ich an die Uni hoch und trug
  • 26:33 - 26:37
    diese Manschette, weil wir eben später an
    der Uni damit experimentieren wollten. Und
  • 26:37 - 26:41
    ich merke es auf einmal vibrieren und
    denke so: Okay, wir haben einen Bug in
  • 26:41 - 26:44
    unserer Software? Irgendwas ist voll
    komisch. Komm an der Uni an, erzähle es
  • 26:44 - 26:47
    meinen Kollegen, meint er irgendwie: Wir
    müssen uns das nochmal angucken. Irgendwas
  • 26:47 - 26:50
    ist nicht richtig. Als ich heute zur Uni
    hochgefahren bin, da die Manschette auf
  • 26:50 - 26:54
    einmal voll vibriert. Irgendwas ist nicht
    okay. Und dann meint mein Kommilitone: Ja,
  • 26:54 - 26:58
    wo seid ihr denn lang gefahren? Ja, hier
    den Standardweg. Ja, an der Bushaltestelle
  • 26:58 - 27:03
    vorbei. Ja, ja, da stand ich. Also ich
    habe einfach gemerkt, dass er da war und
  • 27:03 - 27:06
    wusste es nicht einmal. Das war so ein
    Aha-Erlebnis in dem Moment für uns. Das
  • 27:06 - 27:09
    ist eigentlich eine ziemlich witzige
    Technologie ist und das andere, was ich
  • 27:09 - 27:13
    ausprobiert habe, das ist das, was ihr
    hier seht. Da war das noch so der super
  • 27:13 - 27:18
    super early Prototyp: Nur die Vibrations-
    Manschette, die ich anhatte und ich hab
  • 27:18 - 27:23
    immer abgegriffen, wieviel User grad auf
    meiner Website sind und hab mir das auch
  • 27:23 - 27:26
    durch Vibrationen anzeigen lassen und ich
    bin mir nicht mehr ganz sicher - das Rote
  • 27:26 - 27:31
    müsste praktisch... das Rote ist ground
    truth, also wie viele Leute tatsächlich da
  • 27:31 - 27:35
    waren und das Blaue, was ich vermutet
    habe, wie viele Leute da sind und ihr
  • 27:35 - 27:39
    könnt sehen, dass das relativ gut ist.
    Also ich hab's offensichtlich auch
  • 27:39 - 27:44
    manchmal nicht mitbekommen, gerade wenn es
    leicht vibriert. Also die niedrigste
  • 27:44 - 27:47
    Vibrations Stufe war wirklich schwer zu
    erfühlen überhaupt. Gerade wenn man sich
  • 27:47 - 27:50
    bewegt, dann hat man es eigentlich gar
    nicht gemerkt. Das kann schon sein, dass
  • 27:50 - 27:54
    man das dann einfach nicht mitbekommt. Das
    ist ein ziemlich witziges Gefühl, auf
  • 27:54 - 27:58
    einmal für so digitale Sachen ein Gefühl
    zu bekommen. Also gerade wenn man so
  • 27:58 - 28:02
    Spikes hat und denkt so: Whoa, jetzt sind
    gerade 5 Leute, sind gerade auf meiner
  • 28:02 - 28:07
    Website, so: Ich kann auf einmal fühlen,
    wie Online-Präsenz funktioniert, mit
  • 28:07 - 28:11
    wieviel Leuten ich da virtuell
    interagiere. Also das sind Konzepte, die
  • 28:11 - 28:13
    ich immer noch sehr spannend finde. Und
    ich kann euch, ja, ich würde euch gern
  • 28:13 - 28:17
    ermutigen, auch mal sowas zu bauen. Ich
    glaube es ist jemand am Kongress, wo ich
  • 28:17 - 28:21
    den Twitter-Handle gerade nicht weiß. Der
    hat ein Gerät dabei, wo man... weißt du
  • 28:21 - 28:28
    das, hast du das auch gesehen? Man kann
    was fühlen durch Akustik. Genau. Aber was
  • 28:28 - 28:33
    kann man fühlen? Was meinst du? Ja, WLAN-
    Stärke, genau, man kann oder die Wifi-
  • 28:33 - 28:37
    Auslastung oder so fühlen durch Akustik,
    also halt nicht durch Vibrationen, sondern
  • 28:37 - 28:41
    man kann mit Kopfhörern durch die Gegend
    laufen und hören, wie stark oder wie viele
  • 28:41 - 28:45
    Leute da im Wifi sind. Also solche
    Projekte unbedingt mal ausprobieren. Das
  • 28:45 - 28:49
    ist eine ganz tolle Erfahrung.
  • 28:49 - 28:53
    Applaus
  • 28:53 - 28:59
    blinry: Ich möchte euch noch von der
    Simulationshypothese erzählen. Wenn ihr
  • 28:59 - 29:04
    auf die Webseite geht, findet ihr da auch
    ein Paper darüber, was das sehr lang
  • 29:04 - 29:08
    ausbreitet. Ich versuche es nochmal ein
    bisschen kürzer zusammenzufassen, worum es
  • 29:08 - 29:13
    da geht. Also es ist ein Argument, das
    sagt, dass wir alle wahrscheinlich in
  • 29:13 - 29:19
    einer Simulation leben und die die
    Argumentation geht so, dass man sagt: Wenn
  • 29:19 - 29:24
    man sich so ein Spiel wie Pong anguckt
    z.B., vor ein paar Jahrzehnten, das war
  • 29:24 - 29:28
    super einfache Grafik, so ein paar Pixel
    weiß auf schwarz oder sowas, konnte nicht
  • 29:28 - 29:33
    viel machen und heutige Spiele haben halt
    irgendwie eine hyperrealistische 3D Grafik
  • 29:33 - 29:37
    mit, weiß ich nicht, wo man teilweise in
    VR irgendwie in diese Welt rein kann, die
  • 29:37 - 29:42
    schon super super realistisch aussieht.
    Und wenn man annimmt, dass jedes Jahr es
  • 29:42 - 29:45
    da ein kleines bisschen Verbesserung gibt
    in Richtung einer realistischen
  • 29:45 - 29:50
    Simulation, ist anzunehmen, dass
    irgendwann der Punkt erreicht ist, wo
  • 29:50 - 29:53
    solche Computerspiele so realistisch sind,
    dass wir sie nicht mehr unterscheiden
  • 29:53 - 29:58
    können von der Wirklichkeit. Und zu diesem
    Zeitpunkt könnte es halt, weiß ich nicht,
  • 29:58 - 30:03
    irgendwie so Spielekonsolen geben oder so,
    wo ganz viele kleine Universum Simulatoren
  • 30:03 - 30:06
    drin laufen. Und wenn man sich dann
    überlegt: Okay, es gibt irgendwie eine
  • 30:06 - 30:10
    "echte" Welt und ganz viele dieser
    Konsolen mit einer simulierten Welt drin.
  • 30:10 - 30:14
    Wie wahrscheinlich ist es dann, dass wir
    in der echten Welt leben? Also die
  • 30:14 - 30:18
    Wahrscheinlichkeit wird halt sehr, sehr
    niedrig sein. Das ist die Argumentation,
  • 30:18 - 30:21
    die dahinter steckt. Das ist ein bisschen
    vereinfacht, verglichen mit dem, was der
  • 30:21 - 30:25
    Autor hier schreibt. Aber so in die
    Richtung geht das. Und das finde ich einen
  • 30:25 - 30:30
    interessanten Gedanken. Und ich glaube,
    richtig entkräftbar ist das nicht.
  • 30:30 - 30:33
    Höchstens durch den Gedanken, dass Leute
    beschließen, es ist irgendwie nicht
  • 30:33 - 30:38
    moralisch, solche Simulationen zu starten
    oder die Menschheit wird irgendwie vorher
  • 30:38 - 30:43
    ausgerottet. Ja, irgendwie eine dieser
    Möglichkeiten muss so sein. Und ich habe
  • 30:43 - 30:49
    neulich noch eine interessante Ergänzung
    zu dieser These gelesen, nämlich, dass die
  • 30:49 - 30:54
    Welt über unserer, die unsere simuliert,
    wahrscheinlich total langweilig ist. Aus
  • 30:54 - 30:58
    folgendem Grund: Wenn wir Menschen
    irgendwie ein Computerspiel oder einen
  • 30:58 - 31:01
    Film oder sowas erzeugen, dann machen wir
    da ja auch immer irgendwie
  • 31:01 - 31:06
    hochkonzentriert interessante Dinge rein.
    Warum sollten wir irgendwas machen, was
  • 31:06 - 31:09
    langweiliger ist als unsere echte Welt?
    Und deshalb sind wir vielleicht ganz gut
  • 31:09 - 31:13
    dran, dass wir in der Simulation sind und
    nicht eine Ebene höher, weil wir es hier
  • 31:13 - 31:16
    einfach spannend haben. Und dieses
    Argument stackt natürlich auch beliebig
  • 31:16 - 31:21
    nach oben: Die Welt der Wesen, die uns
    simulieren, könnte simuliert sein und so
  • 31:21 - 31:26
    weiter. Ja, finde ich einen interessanten
    Gedanken. Und ich hab da noch gefunden
  • 31:26 - 31:31
    beim Recherchieren: Tatsächlich haben
    Leute ein Experiment entworfen, mit dem
  • 31:31 - 31:36
    sie testen wollen, ob wir in einer
    Simulation sind. Und ich muss sagen, ich
  • 31:36 - 31:41
    habe die Argumentation dahinter nicht ganz
    verstanden. Ihr könnt gerne auf den Link
  • 31:41 - 31:45
    gehen und das mal selber versuchen zu
    verstehen. Es ist irgendwie eine
  • 31:45 - 31:48
    Argumentation in die Richtung, dass wenn
    man so eine Simulation ausführt des
  • 31:48 - 31:51
    gesamten Universums, dass wir da halt
    super super viel Rechenkapazität
  • 31:51 - 31:55
    verbrauchen. Und deshalb ist es
    wahrscheinlich, dass da irgendwie so ein
  • 31:55 - 31:59
    paar Tricks eingebaut sind. Paar
    Optimierungen irgendwie, die halt nur dann
  • 31:59 - 32:03
    das Fortschritt des Universums simulieren,
    wenn das tatsächlich jemand mitkriegt oder
  • 32:03 - 32:07
    sowas irgendwie. Wenn jemand im Wald ist,
    dann passiert da nichts dran, sozusagen.
  • 32:07 - 32:12
    Und ich glaube, mit diesem Experiment
    wollen die Forscher herausfinden, ob
  • 32:12 - 32:17
    gewisse Dinge... also es ist so eine Art
    Doppelspalt-Experiment, ob das einen
  • 32:17 - 32:22
    Unterschied macht, ob ein Mensch ein
    Ergebnis beobachtet oder eine Maschine.
  • 32:22 - 32:29
    Und ich kann nicht ganz nachvollziehen, ob
    das ein stichhaltiges Experiment ist, weil
  • 32:29 - 32:32
    man ja auch sagen könnte, wenn die die
    Rechenkapazitäten nicht reichen, okay,
  • 32:32 - 32:36
    dann skalieren wir halt irgendwie den
    Computer wieder hoch, der das macht. Das
  • 32:36 - 32:39
    soll uns nicht einschränken. Aber ich
    finde es interessant, dass Leute sich um
  • 32:39 - 32:43
    sowas einen Kopf machen und herausfinden
    wollen, ob wir in einer Simulation sind.
  • 32:43 - 32:48
    Ist ja dann so weit gekommen, dass die
    tatsächlich eine Kickstarter-Kampagne
  • 32:48 - 32:52
    geschaltet haben zur Durchführung dieses
    Experiments, die super erfolgreich war.
  • 32:52 - 32:55
    Und da bin ich mal gespannt auf die
    Ergebnisse.
  • 32:55 - 33:01
    Applaus
  • 33:01 - 33:06
    bleeptrack: Ich habe nochmal einen sehr
    spannenden Algorithmus dabei, wie ich
  • 33:06 - 33:11
    finde. Der heißt Wave Funcion Collapse und
    ich hoffe, dass das Internet funktioniert.
  • 33:11 - 33:20
    Dann schauen wir uns den einfach mal
    funktionierend an. Ja, genau. Sehr gut.
  • 33:20 - 33:26
    Das ist ein Algorithmus aus dem
    Hintergrund der prozeduralen Generierung,
  • 33:26 - 33:29
    der auch im Gamedesign viel Anwendung
    findet. Ihr seht schon, der bekommt immer
  • 33:29 - 33:35
    ein kleines Input Bild und kann daraus
    Texturen generieren. Und ich finde das
  • 33:35 - 33:39
    total spannend, dem beim Arbeiten
    zuzugucken. Das ist im Endeffekt ein
  • 33:39 - 33:45
    Constraints Solver. Das heißt, ich
    beschreibe... ich versuche mal kurz zu
  • 33:45 - 33:50
    beschreiben, wie der in etwa arbeitet: Der
    sucht sich eine Region in diesem Bild aus,
  • 33:50 - 33:54
    in einem bestimmten Pixel Umfang. Also
    sagen wir mal so ein 2x2 Pixel Feld und
  • 33:54 - 34:01
    ein 3x3 Pixel Feld z.B. und schaut sich,
    fängt, setzt einen Punkt zufällig. Ok, ich
  • 34:01 - 34:06
    muss anders anfangen. Er sucht sich dieses
    2x2 Pixel Feld und er stellt eine
  • 34:06 - 34:09
    Häufigkeitswahrscheinlichkeit, wie oft
    dieses Feld in dem Startbild vorkommt.
  • 34:09 - 34:13
    Dann hab ich diese Häufigkeit und dann
    kann ich, um die große Textur zu
  • 34:13 - 34:19
    generieren, irgendwo anfangen und da ein
    zufälliges 2x2 Feld nehmen. Und danach
  • 34:19 - 34:24
    muss ich halt gucken was an dieses 2x2
    Feld dran passt. Und dazu kann ich ja
  • 34:24 - 34:28
    dieses Input Bild als Referenz nehmen und
    mache das dann eben abhängig davon, wie
  • 34:28 - 34:33
    oft neue Ausschnitte überhaupt in dem Bild
    vorkommen können. Und ich finde es total
  • 34:33 - 34:35
    abgefahren, da zuzugucken, wie der
    arbeitet. Und wenn ihr da jetzt praktisch
  • 34:35 - 34:39
    so, ich sage mal verschwommene Pixel seht,
    dann sind es halt noch unsichere Zustände,
  • 34:39 - 34:48
    wo es mehrere Lösungen für das Constraints
    Solving geben könnte. Und ich finde daran
  • 34:48 - 34:52
    sehr spannend, dass man mit sehr wenig
    Aufwand, nämlich nur mit der Erstellung
  • 34:52 - 34:58
    von so einem Dummy Bildchen am Anfang sehr
    viel coole Texturen raus bekommt. Wir
  • 34:58 - 35:08
    können das gerne mal noch ein bisschen
    weiter anschauen. Man kann da übrigens
  • 35:08 - 35:11
    auch sehr gut mit der Fenstergröße
    spielen, um unterschiedliche Sachen zu
  • 35:11 - 35:18
    erzeugen. Und was ich dann noch
    mitgebracht habe, ist so eine interaktive
  • 35:18 - 35:25
    Demo wovon ich auch mal hoffe, dass sie
    lädt. Sehr gut. Jemand hat es nämlich als
  • 35:25 - 35:30
    super coole interaktive Demo geschrieben,
    d.h. hier links seht ihr das Input Bild
  • 35:30 - 35:35
    bei Modules und rechts sind die Slots. Da
    möchten wir jetzt praktisch unser neues
  • 35:35 - 35:40
    Bild erzeugen. Das heißt, diese Felder
    hier hab ich jetzt zur Auswahl, um damit
  • 35:40 - 35:44
    irgendwo zu starten. Und sagen wir, wir
    möchten mit dieser... dieses Sonnensymbol
  • 35:44 - 35:48
    soll in unserer... könnte in unserem Bild,
    das wir generieren wollen hier liegen.
  • 35:48 - 35:51
    Jetzt seht ihr schon, er klappt jetzt ganz
    viel um. Das ist ja ein Constraints
  • 35:51 - 35:57
    Solver. Das heißt, es gibt im Input-Bild
    ja nur die Möglichkeit, dass z.B. blauer
  • 35:57 - 36:01
    Himmel liegt und über blauem Himmel kann
    auch nur blauer Himmel liegen. Deswegen
  • 36:01 - 36:06
    löst der Constraints Solver diese Felder
    hier schon einmal auf, weil da nichts
  • 36:06 - 36:09
    anderes sein kann von der
    Wahrscheinlichkeit her. Jetzt können wir
  • 36:09 - 36:14
    da praktisch einfach so nach und nach
    durchgehen und z.B. sagen: Hier daneben
  • 36:14 - 36:18
    soll nochmal Himmel liegen. Dann löst das
    schon wieder die nächsten Felder, wo es
  • 36:18 - 36:23
    keine andere Möglichkeit gibt. Und so kann
    ich mich da jetzt durchklicken und einfach
  • 36:23 - 36:26
    festlegen, wo was liegt. Ich mache das
    jetzt hier so ein bisschen zufällig, damit
  • 36:26 - 36:34
    es ein bisschen schneller geht. Nochmal so
    eine Statue, nochmal Himmel und nochmal
  • 36:34 - 36:38
    Fels und dann nochmal Fels. Genau. Und so
    haben wir einfach aus dem Input Bild neue
  • 36:38 - 36:44
    Textur generiert. Und was auch sehr nett
    ist: Man kann hier - ich resette das mal -
  • 36:44 - 36:48
    dann kann man hier auch direkt auf "Solve"
    klicken und dem Algorithmus praktisch
  • 36:48 - 36:53
    selber mal beim Arbeiten zugucken. Das
    heißt hier in rot seht ihr jetzt praktisch
  • 36:53 - 36:56
    die Teile, die eliminiert werden beim
    Constraints Solving, die also keine
  • 36:56 - 36:58
    sinnvolle Lösung sind. Ich mache mal die
    Geschwindigkeit hier ein bisschen
  • 36:58 - 37:04
    schneller. Genau, sonst dauert das ewig.
    Genau, und in der Variante macht er ja
  • 37:04 - 37:08
    auch... genau bei diesem Constraints
    Solving auch ein bisschen Back Tracking,
  • 37:08 - 37:10
    also da, wo es halt nicht funktioniert,
    macht er auch mal etwas rückgängig oder
  • 37:10 - 37:13
    so. Genau, jetzt lassen wir den einfach
    mal durchlaufen, dann baut er hier selber
  • 37:13 - 37:18
    noch was schickes und hat ein neues Bild
    gebaut. Und wir können ja auch einfach mal
  • 37:18 - 37:22
    ein paar Mal lösen. Und ihr seht schon, es
    kommen immer neue Bilder raus, die immer
  • 37:22 - 37:26
    in sich schlüssig sind. Weil ich habe ja
    die Wahrscheinlichkeiten vom Input Bild,
  • 37:26 - 37:31
    aber sie sind halt immer anders und es
    wird sehr gerne momentan bei, bei der...
  • 37:31 - 37:35
    ja, beim Game-Development benutzt, um
    irgendwie Texturen zu bauen oder zum Teil
  • 37:35 - 37:39
    auch Level und so was.
  • 37:39 - 37:41
    Applaus
  • 37:41 - 37:57
    bleeptrack: Jetzt wäre es nur cool, wenn
    ich da wieder rauskomme. Ja, cool. Ah,
  • 37:57 - 38:11
    deswegen. So.
    blinry: Ich möchte euch noch von
  • 38:11 - 38:17
    Dynamicland erzählen. Das ist ein
    Forschungsprojekt, das ich super
  • 38:17 - 38:20
    inspirierend finde, über zukünftige
    Interaktionen mit Computern, wie das
  • 38:20 - 38:24
    aussehen könnte. Und ich dachte mir, wir
    gehen einfach mal auf die Webseite dazu
  • 38:24 - 38:32
    und scrollen da zusammen ein bisschen
    rüber. Die Idee ist im Grunde, dieses
  • 38:32 - 38:37
    Computing, das man normalerweise in so
    einem Gerät hat, da rauszuholen und in den
  • 38:37 - 38:42
    Raum um einen herum zu tun. Also was man
    macht, um in diesem Dynamicland-System
  • 38:42 - 38:48
    Berechnungen auszuführen ist: Man schreibt
    erstmal ein Programm in so einem Lua
  • 38:48 - 38:52
    Dialekt mit so ein paar Special Features
    und druckt sich das aus. Das dann auf so
  • 38:52 - 38:58
    ein Zettel mit... ihr seht diese lustigen
    bunten Marker in den Ecken. Und unter der
  • 38:58 - 39:02
    Decke dieses Raumes hängt dann zum einen
    eine Kamera, die das trackt und zum
  • 39:02 - 39:06
    anderen ein Projektor, der da irgendwie
    Dinge drauf projezieren kann. Also die
  • 39:06 - 39:09
    Punkte sind, glaube ich, erstmal nur so
    ein bisschen eine Krücke und ein
  • 39:09 - 39:13
    Platzhalter, bis man irgendwie besseres
    sinnvolleres Tracking hinkriegt. Das
  • 39:13 - 39:17
    funktioniert halt ganz stabil und naja,
    jedes Stück Papier, das da rumliegt, ist
  • 39:17 - 39:20
    halt ein eigenes Programm, das irgendwie
    Dinge tut. Und das kann die Umgebung
  • 39:20 - 39:23
    wahrnehmen, weiß, welche anderen Zettel da
    sind und man kann das irgendwie ausrichten
  • 39:23 - 39:27
    und auf etwas anderes zeigen lassen, um zu
    sagen: Hier, dies ist ein Argument, das
  • 39:27 - 39:32
    sollst du irgendwie verändern oder so. Und
    es funktioniert... also dieser Lua-Dialekt
  • 39:32 - 39:35
    funktioniert so, dass man sich halt
    bestimmte Sachen... also man kann Aussagen
  • 39:35 - 39:40
    über die Welt machen und man kann dann
    daraus was ableiten und irgendwie sich
  • 39:40 - 39:43
    etwas wünschen. Zum Beispiel sich
    wünschen, dass das Papier, auf das man
  • 39:43 - 39:48
    gerade zeigt, grün ausgeleuchtet wird oder
    sowas. Oder es könnte dann sein, dass ein
  • 39:48 - 39:52
    anderes Programm sich wünscht, dass das
    blau ausgeleuchtet wird. Da gibt's dann
  • 39:52 - 39:54
    irgendwie einen Konfliktauflösungs-
    Mechanismus, dass das nicht ständig hin
  • 39:54 - 39:59
    und her flattert. Und genau, hier sieht
    ihr in dem Beispiel auch gerade mal so
  • 39:59 - 40:03
    farbige Schnipsel irgendwie auf einen Link
    gelegt. Ich glaube, das war so eine Musik-
  • 40:03 - 40:06
    Sequenzer, wo dann irgendwie eine Linie
    drüber läuft und abhängig von der Position
  • 40:06 - 40:14
    dieser farbigen Dingsies, eine Melodie
    spielt. Und das ist halt eine völlig
  • 40:14 - 40:20
    andere Art und Weise, ein Software-Ding zu
    bauen, weil man in einer Gruppe daran
  • 40:20 - 40:24
    arbeiten kann und halt um einen Tisch
    herum steht und kann ziemlich parallel
  • 40:24 - 40:29
    irgendwie neue Komponenten dazu basteln.
    Und ihr könnt halt auch auf einmal mit
  • 40:29 - 40:35
    Schere und Kleber User Interface bauen. In
    der Mitte ist so eine Wählscheibe, die
  • 40:35 - 40:39
    sich drehen kann und dann auf andere
    Sachen zeigt oder sowas. Und dadurch, dass
  • 40:39 - 40:43
    das auf einmal in der echten Welt ist,
    habt ihr halt viel mehr Möglichkeiten, mit
  • 40:43 - 40:50
    euren Händen Dinge damit zu tun. Und das
    finde ich total spannend. Weiß ich nicht,
  • 40:50 - 40:53
    wenn man irgendetwas, irgendeine Software-
    Komponente geschrieben hat, dann speichert
  • 40:53 - 40:57
    man die halt nicht irgendwo hin, sondern
    heftet sie in den Ordner und stellt sie
  • 40:57 - 41:03
    ins Regal. Das finde ich ulkig. Ist super
    ulkig. Und, also, dieses Projekt ist so
  • 41:03 - 41:06
    angelegt, dass Sie die nächsten Jahre erst
    einmal ein bisschen ausprobieren werden,
  • 41:06 - 41:13
    was man so machen kann mit diesem neuen
    dynamischen Medium. Und später dann so ein
  • 41:13 - 41:16
    bisschen sich erhoffen den Effekt wie bei
    Bibliotheken früher, dass die halt
  • 41:16 - 41:20
    irgendwie so ein Dynamicland in einer
    Stadt bauen und dass man das dann
  • 41:20 - 41:23
    irgendwie forkt und in andere Städte
    bringt und das dann irgendwie ein kommunes
  • 41:23 - 41:28
    Ding ist, wo Leute hingehen können, wenn
    sie mal so ein Medium benutzen wollen.
  • 41:28 - 41:35
    Und, genau. Haben sehr ambitionierte
    Pläne, was das angeht. Ich bin gespannt,
  • 41:35 - 41:40
    was daraus wird. Aber ich finde das total
    inspirierend, das so zu sehen. Und von
  • 41:40 - 41:43
    allem, was ich mitkriege, denke ich immer,
    wenn man da mal ein paar Tage drin war,
  • 41:43 - 41:48
    ist das glaub ich super frustrierend,
    irgendwie so kleine Bildschirme zu haben,
  • 41:48 - 41:51
    wo man dann so durchgucken muss und
    irgendwie mit dem Ding zu interagieren,
  • 41:51 - 41:55
    statt da einfach drin zu sein und
    irgendwie mit seinem Körper irgendwie
  • 41:55 - 42:00
    Dinge machen zu können. Genau. Die Person,
    die sich das ausgedacht hat oder
  • 42:00 - 42:07
    mitgegründet hat ist Bret Victor. Das ist
    ein Mensch, der irgendwie auch viele
  • 42:07 - 42:11
    andere coole Dinge macht. Kann ich
    empfehlen, mal über die Homepage zu gucken
  • 42:11 - 42:16
    - hat Vorträge gehalten zu verschiedenen
    Themen, wo es sehr oft darum geht, wie man
  • 42:16 - 42:21
    besser mit Sachen interagieren könnte. Und
    oft hinterlassen seine Vorträge so eine
  • 42:21 - 42:28
    gewisse Frustration mit dem Status quo,
    weil man sieht: Okay, man könnte das
  • 42:28 - 42:30
    eigentlich viel schöner machen. Man
    könnte, während man eine Software
  • 42:30 - 42:34
    schreibt, auf der anderen Bildschirmhälfte
    schon sehen, welche Auswirkungen das hat.
  • 42:34 - 42:38
    Direkt, statt das irgendwie zu compilen
    und dann muss man ne halbe Minute warten
  • 42:38 - 42:44
    oder sowas und dann kann man das testen.
    Und ja, finde ich spannend. Finde ich
  • 42:44 - 42:53
    spannend, so zu denken. Genau. Wenn euch
    ein bisschen mehr interessiert die
  • 42:53 - 42:57
    Details, wie Dynamicland funktioniert,
    gibt es diesen Artikel eines Menschen, der
  • 42:57 - 43:01
    dort mitforscht. Den kann ich empfehlen,
    der wirklich mal ganz ausführlich
  • 43:01 - 43:06
    beschreibt, wie so ein kleiner Teil in
    diesem Dynamicland gebaut wurde, nämlich
  • 43:06 - 43:11
    so ein Kartensystem, wo man ein großes
    Stück Papier hat, als Ausgabemedium im
  • 43:11 - 43:15
    Wesentlichen und dann kann man da
    verschiedene Werkzeuge drauf richten, um
  • 43:15 - 43:19
    damit etwas zu tun, um... da unten ist so
    eine Textbox z.B., da kann man dann
  • 43:19 - 43:24
    irgendwie was rein tippen mit einer
    Tastatur, die auch mit getrackt wird und
  • 43:24 - 43:27
    dann kann man irgendwie eine bestimmte,
    einen bestimmten Ort der Erde anwählen.
  • 43:27 - 43:33
    Dann kann man Zoom-Linsen drauf richten,
    um Vergrößerungen davon zu kriegen. Und
  • 43:33 - 43:37
    der Artikel beschreibt halt auch, wie die
    Sprache dahinter funktioniert und ja, das
  • 43:37 - 43:41
    find ich spannend.
  • 43:41 - 43:44
    Applaus
  • 43:44 - 43:48
    bleeptrack: Dann sind wir schon beim
    letzten Thema angekommen. Ich möchte ein
  • 43:48 - 43:52
    bisschen was zu Farben erzählen und wir
    fangen mal an mit dem Thema Synästhesie.
  • 43:52 - 43:58
    Es gibt Menschen, bei denen verschmelzen
    bestimmte Wahrnehmungskanäle. Da gibt's
  • 43:58 - 44:02
    ganz abgefahrene Sachen. Es gibt Leute,
    bei denen verschmilzt zum Beispiel der
  • 44:02 - 44:07
    Geschmackssinn mit einer Erinnerung an
    Wörter, oder so. Das heißt, jemand denkt
  • 44:07 - 44:13
    an Montag und hat auf einmal das Gefühl
    von Erdbeermarmelade im Mund. Und da geht
  • 44:13 - 44:16
    es jetzt nicht darum, dass man sich selber
    irgendwie gemerkt hat, weil man mal so
  • 44:16 - 44:21
    eine Erfahrung hatte, sondern es ist
    wirklich eine andere Art von Kopplung. Und
  • 44:21 - 44:26
    es gibt Leute, die Musik hören und dabei
    das Gefühl haben, von... wie sich
  • 44:26 - 44:29
    Oberflächen anfassen, eher rau oder
    flauschig oder vielleicht auch Farben
  • 44:29 - 44:35
    sehen oder sowas. Und hallo, ich bin
    Synästhet. Bei mir ist das aber eine
  • 44:35 - 44:38
    ziemlich milde Form und ich hab das mal in
    der Schule entdeckt, dass ich das habe.
  • 44:38 - 44:44
    Bei mir verschmelzen, kann man sagen,
    Buchstaben und Zahlen mit Farben. Das
  • 44:44 - 44:49
    heißt, wenn ich sehr intensiv an was lese
    oder was rechne, dann hab ich immer so ein
  • 44:49 - 44:53
    leichtes Gefühl einer Farbe. Das ist
    relativ schwierig zu beschreiben. Ich habe
  • 44:53 - 44:56
    das damals in der Schule gemerkt, als wir
    eine Mathematik Kurzarbeit geschrieben
  • 44:56 - 45:00
    haben. Man musste etwas ausrechnen und es
    kam ein Bruch raus. Und ich wusste zwar,
  • 45:00 - 45:03
    der Bruch ist richtig, aber ich ärgerte
    mich total, dass der voll dumme Farben
  • 45:03 - 45:07
    hat. Also die passten halt nicht zusammen.
    Und da hab ich gemerkt: Das ist glaub ich
  • 45:07 - 45:11
    nicht so ganz normal. Und hatte dann mal
    zufällig später eine Dokumentation über
  • 45:11 - 45:15
    das Phänomen gesehen und mich darin
    praktisch wiedererkannt. Was ich hier
  • 45:15 - 45:24
    mitgebracht habe ist "Hello 35c3". Und ich
    habe mal grob versucht, die Farben auf die
  • 45:24 - 45:29
    Buchstaben zu malen, die ich da in etwa
    fühle, würde ich mal sagen. Und ich dachte
  • 45:29 - 45:33
    auch immer früher, das würde mir voll bei
    Sudoku oder sowas helfen. Das tut es aber
  • 45:33 - 45:36
    leider nicht. Ich bin ziemlich schlecht.
    Aber dafür ärgert mich Minesweeper
  • 45:36 - 45:40
    besonders, weil die Farben halt nicht
    passen. Also was ihr hier praktisch seht -
  • 45:40 - 45:44
    und das ist jetzt auch eher Zufall, dass
    das alles in so einem braun-gelb-blau Ton
  • 45:44 - 45:49
    ist, also ich habe die Farbpalette, an die
    ich so denke oder fühle, die ist durchaus
  • 45:49 - 45:52
    größer. Ja, das ist jetzt hier eher
    Zufall. Also wenn ich das Wort "Hello"
  • 45:52 - 45:56
    sehe, dann sind die... die Ls für mich
    haben so eine Art, man könnte sagen so
  • 45:56 - 46:00
    himmelblau, sind so sehr leicht, das O ist
    auch fast eher so transparent, das kann
  • 46:00 - 46:03
    man da schlecht zeigen. Und es ist jetzt
    auch nicht so, dass ich Text lese und das
  • 46:03 - 46:07
    wirklich so sehe, sondern es ist
    tatsächlich eher wie so ein Gefühl und das
  • 46:07 - 46:10
    kennt ihr vielleicht, wenn ihr was, keine
    Ahnung, was Rotes anguckt - das ist ja
  • 46:10 - 46:13
    eher eine warme Farbe, da hat man
    vielleicht eher so ein wohliges Gefühl,
  • 46:13 - 46:18
    sag ich jetzt mal. Und wenn ihr was Blaues
    anguckt, dann ist das vielleicht eher so
  • 46:18 - 46:22
    ein kaltes Gefühl. Und es gibt Farben, die
    sind eher grell, das macht eher aggressiv,
  • 46:22 - 46:26
    sag ich mal. Es ist eher so ein Gefühl,
    was man in dem Moment hat. Also es ist
  • 46:26 - 46:29
    jetzt... wie gesagt, es ist halt nicht,
    dass ich jetzt tatsächlich sage, ich sehe
  • 46:29 - 46:33
    schwarzen, eigentlich ist da schwarzer
    Text und ich denke, der ist bunt. So ist
  • 46:33 - 46:37
    das natürlich nicht. Es gibt auch noch
    andere witzige Dinge, die mit Farben
  • 46:37 - 46:44
    passieren können. Es gibt Tetrachromaten.
    Die haben nämlich ein Zäpfchen mehr als
  • 46:44 - 46:49
    die meisten Menschen auf der Netzhaut und
    können - das sind meistens Frauen, weil
  • 46:49 - 46:54
    es, glaube ich, irgendwie über die
    Y-Chromosomen vererbt wird. Und die können
  • 46:54 - 46:58
    den Gelb-Farbraum höher auflösen. Und ich
    hab vorhin nochmal nachgeguckt und das
  • 46:58 - 47:01
    sind wohl angeblich ein Viertel der
    Menschen, was ich irgendwie erstaunlich
  • 47:01 - 47:04
    hoch fand. Ehrlich gesagt, bin mir nicht
    ganz sicher, ob das wirklich eine
  • 47:04 - 47:08
    sinnvolle Zahl ist. Aber das gibt es auf
    jeden Fall und nachweisbar... es gibt auch
  • 47:08 - 47:11
    so Farb-Tests, die man machen kann, wo
    halt unterschiedliche Farbpaletten
  • 47:11 - 47:15
    abgedruckt sind. Und wenn man da mehr
    erkennen kann, dann hat man wohl
  • 47:15 - 47:19
    vermutlich ein Zäpfchen mehr im Auge. Also
    es gibt Menschen, die einfach, ja... noch
  • 47:19 - 47:25
    viel höher Farben auflösen können als die
    meisten. Und zum Schluss, es gibt die
  • 47:25 - 47:30
    sogenannten Impossible Colors. Da gibt es
    mehrere Kategorien davon. Und ich habe
  • 47:30 - 47:35
    eine mitgebracht. Da geht es darum, dass
    es bestimmte Mischfarben so von der
  • 47:35 - 47:39
    Wellenlänge/Frequenz, wie sie eben in
    unserem Spektrum stattfindet, nicht
  • 47:39 - 47:42
    existiert. Und das sind in dem Fall zum
    Beispiel Blau und Gelb direkt
  • 47:42 - 47:46
    nebeneinander. Die kann man so nicht
    wahrnehmen. Die existieren so natürlich
  • 47:46 - 47:49
    nicht und da haben sich Leute Gedanken
    gemacht: Was wurde denn aber mit unserem
  • 47:49 - 47:54
    Gehirn passieren, wenn wir sowas trotzdem
    sehen könnten und haben sich überlegt: Ja
  • 47:54 - 47:58
    gut, dann mischen wir das halt einfach mal
    durch schielen und das kommt ja dann
  • 47:58 - 48:04
    trotzdem beide... der Input von beiden
    Sachen kommt ja dann trotzdem im Gehirn an
  • 48:04 - 48:08
    und mal schauen was da passiert. Und ich
    würde euch mal bitten, also wenn ihr das
  • 48:08 - 48:12
    möchte, das mal zu probieren. Also das
    Ziel ist, zu schielen und die beiden Xe
  • 48:12 - 48:16
    übereinander zu haben, sodass praktisch...
    ihr würdet dann praktisch links ein blaues
  • 48:16 - 48:24
    Quadrat sehen, in der Mitte ein gemischtes
    Quadrat und rechts ein gelbes. Es ist ein
  • 48:24 - 48:29
    bisschen schwierig, tatsächlich. Klappt
    das bei jemanden? Ja? Kannst du
  • 48:29 - 48:34
    beschreiben, wie das aussieht, wenn du das
    übereinander legst durch Schielen? Die
  • 48:34 - 48:38
    Antwort war: Es flackert in der Mitte. Das
    ist tatsächlich auch, was bei mir
  • 48:38 - 48:41
    passiert. Ich versuche es mal zu
    beschreiben. Es ist nicht, dass sich die
  • 48:41 - 48:45
    Farben tatsächlich so richtig mischen,
    sondern man hat einen... irgendwie so
  • 48:45 - 48:49
    einen Farb-Gradienten. Also es verläuft
    schon so von blau nach gelb, fast
  • 48:49 - 48:53
    ruckartig, aber die Grenze zwischen Blau
    und Gelb, die wabert so komisch hin und
  • 48:53 - 48:56
    her. Die ist nicht statisch irgendwo,
    sondern es sieht so ein bisschen seltsam
  • 48:56 - 48:59
    aus, wenn man das macht. Und wir können
    das nochmal mit zwei anderen Farben
  • 48:59 - 49:04
    probieren, mit Rot und Grün. Wenn es bei
    jemand klappt, wäre das voll nett, wenn er
  • 49:04 - 49:08
    sich melden würde. Du, zum Beispiel.
    Kannst du es beschreiben, wie es bei dir
  • 49:08 - 49:10
    aussieht?
    unverständlich
  • 49:10 - 49:20
    bleeptrack: Kannst du es ein bisschen
    lauter sagen? Ein sehr leuchtend...
  • 49:20 - 49:23
    pardon, ein sehr leuchtendes Rot. Okay,
    interessant, das war bei mir ein bisschen
  • 49:23 - 49:29
    anders. Funktioniert das bei noch jemanden
    mit schielen? Bei dir? Wie sieht es bei
  • 49:29 - 49:35
    dir aus?
    Person: Ich sehe wieder changierende Töne,
  • 49:35 - 49:38
    allerdings sind die verschoben gegenüber
    den Außen, also mein Rot ist gelblicher,
  • 49:38 - 49:44
    mein Grün ist brauner als das Außen-Grün.
    bleeptrack: Ja, ist witzig. Ist ein
  • 49:44 - 49:46
    bisschen unterschiedlich, offensichtlich.
    Bei mir ist es eher so, also ich hab ein
  • 49:46 - 49:49
    ähnliches Phänomen wie bei dir, dass es so
    ein bisschen, so eine Farbverschiebung
  • 49:49 - 49:53
    gibt. Aber mir ist das, als krisselt das
    ganz arg. Also, als hätte man bei einem
  • 49:53 - 49:57
    Foto eine ganz hohe ISO, als würde das Rot
    immer permanent gegen das Grün kämpfen.
  • 49:57 - 50:01
    Also es krisselt ganz arg. Also probiert
    das gerne mal aus. Und ich kann da auch
  • 50:01 - 50:04
    generell sehr den Wiki... gerade den
    englischen Wikipedia-Artikel über
  • 50:04 - 50:08
    Impossible Colors empfehlen, wo es noch
    andere Beispiele für solche Phänomene
  • 50:08 - 50:14
    gibt. Und damit sind wir für dieses Jahr
    mit Operation Mindfuck leider schon am
  • 50:14 - 50:18
    Ende. Wenn ihr über irgendetwas von diesen
    Themen oder irgendetwas, was vielleicht
  • 50:18 - 50:21
    auch in eine ähnliche Richtung geht, mit
    uns quatschen wollt, dann macht das gerne.
  • 50:21 - 50:26
    Ihr findet uns online auf bleeptrack.de
    oder morr.cc oder auf Twitter und auch auf
  • 50:26 - 50:30
    Mastodon. Und die Slides findet ihr auch
    unten auf dem Link. Und ja, wir beide
  • 50:30 - 50:39
    haben uns sehr gefreut, dass ihr so
    zahlreich gekommen seid. Macht's gut.
  • 50:39 - 50:44
    Applaus
  • 50:44 - 50:50
    Herald: Ja, danke euch beiden. Vielleicht
    haben wir ja direkt noch Fragen, die wir
  • 50:50 - 50:56
    beantworten können. Weiß ich nicht, hat
    jemand von euch eine Frage an unsere
  • 50:56 - 51:06
    beiden Speaker? Scheint nicht so. Dann
    sagen wir nochmal Danke an bleeptrack und
  • 51:06 - 51:11
    blinry und dann war das leider schon unser
    ganzes Programm für heute in der Wikidata
  • 51:11 - 51:13
    WG.
    Bis morgen dann.
  • 51:13 - 51:14
    Applaus
  • 51:14 - 51:15
    Musik
  • 51:15 - 51:42
    Untertitel erstellt von c3subtitles.de
    im Jahr 2021. Mach mit und hilf uns!
Title:
cdn.media.ccc.de/.../35c3-wikipakawg-28-deu-Operation_Mindfuck_2_-_Computer_Kunst_und_Kuriositaeten_hd.mp4
Video Language:
German
Duration:
51:42

German subtitles

Incomplete

Revisions