< Return to Video

36C3 Wikipaka WG: Operation Mindfuck Vol. 3

  • 0:05 - 0:18
    36C3 Vorspannmusik
  • 0:18 - 0:25
    Herald: Hallo, na? Willkommen auf der
    Wikipaka-Bühne im Esszimmer! Es ist 21
  • 0:25 - 0:31
    Uhr, Primetime, wir sind live, mit
    Übersetzung, und bleeptrack und blinry
  • 0:31 - 0:38
    sind da und haben die inzwischen dritte
    Version von Operation Mindfuck, und es
  • 0:38 - 0:42
    wird sehr lustig. Viel Spaß!
  • 0:42 - 0:48
    Applaus
  • 0:48 - 0:51
    bleeptrack: Von uns auch nochmal einen
    schönen guten Abend, wir freuen uns riesig
  • 0:51 - 0:55
    dass ihr alle da seid, hallo in den
    Stream, hallo auch ins Wikipaka-
  • 0:55 - 0:58
    Wohnzimmer, wo vielleicht auch noch ein
    paar sitzen, der Raum ist relativ voll,
  • 0:58 - 1:03
    und mich freut dass ihr euch jetzt alle
    schön zusammen gekuschelt habt. Wir haben
  • 1:03 - 1:06
    heute Abend Kunst, Computer und
    Kuriositäten dabei, wir werden uns immer
  • 1:06 - 1:10
    so ein bisschen abwechseln und spannende
    Sachen vorstellen, und zum Start übergebe
  • 1:10 - 1:18
    ich direkt mal an blinry.
    blinry: Jo, danke! Ich fange an mit
  • 1:18 - 1:24
    Schachvarianten. Ich war vor ein paar
    Monaten auf der MRMCD in Darmstadt. Und da
  • 1:24 - 1:28
    gab’s einen Vortrag über mittelalterliche
    Brettspiele, und eines der Spiele, das
  • 1:28 - 1:32
    gezeigt wurde, war dies. Das ist
    irgendwie, es hat spanische Wurzeln, ich
  • 1:32 - 1:37
    kann kein mittelalterliches Spanisch, aber
    vielleicht spricht man es so ähnlich wie
  • 1:37 - 1:41
    „Grant Acedrex“, bedeutet „großes Schach“,
    und ihr seht, wenn ihr Standard-Schach von
  • 1:41 - 1:44
    heute kennt, dass das auf einem größeren
    Feld gespielt wird. Das ist ein
  • 1:44 - 1:47
    12×12-Feld, und auch die Figuren sehen so
    ein bisschen komisch aus, also da gibt’s
  • 1:47 - 1:53
    irgendwie so die Giraffe, und ich glaube
    dieses Ding hier neben dem König ist der
  • 1:53 - 1:57
    Elefantenvogel zum Beispiel, und die haben
    halt sehr ungewöhnliche Bewegungsmuster,
  • 1:57 - 2:01
    die wir heute so bei unseren Standard-
    Schachfiguren nicht kennen. Die Giraffe
  • 2:01 - 2:05
    zum Beispiel geht glaube ich 2 Felder
    diagonal und dann noch 1 gerade, das ist
  • 2:05 - 2:08
    quasi so eine große – Moment, genau 3
    Felder diagonal und 1 gerade, das ist die
  • 2:08 - 2:11
    große Variante von dem Springer, den wir
    heute hätten, und man steigt so über alle
  • 2:11 - 2:16
    anderen Figuren drüber. Oder der
    Elefantenvogel geht 1 Feld diagonal und
  • 2:16 - 2:20
    slidet dann noch beliebig weit irgendwie
    durch die Gegend was auch super weird ist,
  • 2:20 - 2:24
    irgendwie, wenn ihr mal Schach gespielt
    habt. Und es stellt sich raus, es gibt
  • 2:24 - 2:29
    tatsächlich eine ganze Community hinter
    solchen Schachvarianten, die „fairy chess
  • 2:29 - 2:33
    pieces“ beinhalten, also es gibt irgendwie
    Listen darüber, wo Leute sich so was
  • 2:33 - 2:36
    ausdenken und sammeln und irgendwie lustig
    zusammenwürfeln und dann irgendwie sich
  • 2:36 - 2:42
    neue Schachvarianten ausdenken, das fand
    ich beeindruckend. Dieses Spiel, hm, also
  • 2:42 - 2:46
    die Bauern zum Beispiel ziehen normal,
    unten die Seihe ist halt irgendwie – sind
  • 2:46 - 2:50
    sehr ungewöhnliche Figuren, und damit man
    ein bisschen beschleunigt irgendwie den
  • 2:50 - 2:54
    Ablauf dieses Spiels, gab es auch die
    Regel, dass man einen zusätzlichen Würfel
  • 2:54 - 2:59
    hatte, der bestimmt, mit welcher Art von
    Figuren man dann als nächstes ziehen darf.
  • 2:59 - 3:04
    Na gut. Eine andere Schachvariante, die es
    gibt, ist losing chess. Da geht es darum,
  • 3:04 - 3:10
    dass man möglichst schnell alle eigenen
    Figuren verlieren möchte. Es gibt außerdem
  • 3:10 - 3:13
    Schlagzwang, das heißt, wenn man eine
    Figur schlagen kann, muss man das tun,
  • 3:13 - 3:18
    wenn man mehrere schlagen kann, kann man
    sich aussuchen, welche, immerhin. Und der
  • 3:18 - 3:21
    König hat keinen Sonderstatus, ist eine
    ganz normale Figur wir alle anderen auch,
  • 3:21 - 3:24
    kann sich normal bewegen, kann geschlagen
    werden, es gibt kein Schach oder kein
  • 3:24 - 3:31
    Schachmatt, aber wird zuerst alle Figuren
    verliert, gewinnt das Spiel. Und das hat
  • 3:31 - 3:35
    so ein paar komische Effekte, wo manchmal,
    wenn man einen Zug macht, es sehr krasse
  • 3:35 - 3:38
    Kettenreaktion gibt, wo einfach beide
    Spieler die ganze Zeit irgendwie Figuren
  • 3:38 - 3:43
    schlagen müssen und das nicht mehr stoppen
    können. Und in diesem GIF, das die ganze
  • 3:43 - 3:50
    Zeit spielt, wird zuerst ein Bauer bewegt,
    ich glaube, genau, D3 ist der Zug, und das
  • 3:50 - 3:53
    ist ein sehr schlechter Zug, weil dann
    Schwarz, stellt sich heraus, immer
  • 3:53 - 3:57
    gewinnen kann. Haben Leute irgendwie mal
    Modelle aufgestellt und durchgerechnet und
  • 3:57 - 4:02
    so, es gibt dann eine Folge für Schwarz,
    die auf jeden Fall erzwingt, dass Schwarz
  • 4:02 - 4:07
    alle Figuren verliert. Insofern gibt es so
    ein paar Eröffnungsvarianten, die offenbar
  • 4:07 - 4:16
    für Weiß keine gute Idee sind. „Infinite
    Chess“ hat Standardfiguren in
  • 4:16 - 4:20
    Standardanordnung, aber das Brett ist
    unendlich groß, das ist eher so ein
  • 4:20 - 4:23
    theoretisches Modell, ich glaube – ich
    weiß nicht, ob Leute das wirklich spielen,
  • 4:23 - 4:27
    das ist in der echten Welt ein bisschen
    schwierig, aber Leute machen sich darüber
  • 4:27 - 4:31
    Gedanken und probieren irgendwie mal aus,
    ob man da Dinge darüber herausfinden kann.
  • 4:31 - 4:36
    Also eine sehr merkwürdige Situation, wo
    irgendwie man mit der Dame oder sowas eine
  • 4:36 - 4:40
    Million Felder irgendwie nach oben ziehen
    kann, und dann brauchen Bauern erst mal so
  • 4:40 - 4:45
    ein bisschen, bis sie da hinterherkommen.
    Und dadurch ist es komisch zu analysieren,
  • 4:45 - 4:48
    es gibt irgendwie Leute, die haben sich das
    mal angeguckt und haben rausgefunden, dass
  • 4:48 - 4:53
    es, also, gegeben eine Anordnung dieser
    Figuren und eine Zahl n kann man
  • 4:53 - 4:58
    herausfinden, ob es eine Möglichkeit gibt,
    für den aktuellen Spieler, der dran ist,
  • 4:58 - 5:02
    zu gewinnen in n Zügen. So. Das ist ein
    ganz cooles Ergebnis, ist aber nicht so
  • 5:02 - 5:06
    super hilfreich, irgendwie, um das zu
    analysieren oder KIs zu schreiben oder so,
  • 5:06 - 5:10
    denn eigentlich was man ja machen möchte
    ist aus einer bestimmten Position heraus
  • 5:10 - 5:13
    vielleicht herausfinden, ob die Person,
    die gerade dran ist, gewinnen kann
  • 5:13 - 5:17
    überhaupt. Wenn man weiß, irgendwie, in 10
    Zügen kann sie gewinnen, hat das begrenzte
  • 5:17 - 5:20
    Aussagekraft wenn man dann irgendwie mit
    der Dame wie gesagt eine Million Felder
  • 5:20 - 5:23
    nach oben macht oder sowas, und dann kann
    es ganz lange dauern, irgendwie, bis dann
  • 5:23 - 5:33
    mehr Sachen passieren. Genau, insofern, ja
    – theoretische Schachvariante. Es gibt
  • 5:33 - 5:38
    „Blind Chess“, das is zu unterscheiden –
    also, ihr kennt vielleicht „Blindfolded
  • 5:38 - 5:43
    Chess“, wo Leute sich die Augen verbinden
    und dann angesagt bekommen, welche Züge
  • 5:43 - 5:46
    passieren, und dann irgendwie im Kopf
    behalten müssen, wie die Figuren gerade
  • 5:46 - 5:50
    stehen und was sie machen wollen. „Blind
    Chess“ ist noch ein bisschen anders, da
  • 5:50 - 5:56
    sitzen beide Spieler irgendwie vor einem
    Brett jeweils, sehen die Figuren der
  • 5:56 - 5:59
    anderen Farbe nicht, sehen nur ihre
    eigenen Figuren, und kriegen auch nicht
  • 5:59 - 6:02
    angesagt was passiert oder sowas, das
    müssen sie erstmal herausfinden, so
  • 6:02 - 6:06
    irgendwie durch ein bisschen vorsichtiges
    Vorziehen der eigenen Figuren, das können
  • 6:06 - 6:09
    sie ausprobieren, und denen wird dann
    gesagt, wenn es ein ungültiger Zug war,
  • 6:09 - 6:13
    und dann dürfen sie noch was anderes
    probieren. Also kann man sich so langsam
  • 6:13 - 6:16
    vortasten, und mal gucken, wie die
    Position des anderen Spielers ist
  • 6:16 - 6:19
    irgendwie, darüber Rückschlüsse zu ziehen
    und ne eigene gute Strategie zu finden.
  • 6:19 - 6:22
    Das heißt, man braucht da irgendwie eine
    dritte Person, die zwischen den beiden
  • 6:22 - 6:28
    hin- und herkommuniziert und aufpasst,
    dass da nichts Illegales passiert. Ich hab
  • 6:28 - 6:33
    mal geguckt, es gibt da irgendwie einen
    sehr definierten Satz von Wörtern, die
  • 6:33 - 6:38
    diese dritte Person sagen kann, zum
    Beispiel „no“, wenn es ein nicht gültiger
  • 6:38 - 6:41
    Zug ist, wenn man gerade irgendwie
    versucht, über eine fremde Figur zu gehen
  • 6:41 - 6:46
    oder so was, und wenn man einen Zug macht,
    der unabhängig von den Figuren des anderen
  • 6:46 - 6:55
    Spielers nicht möglich wäre, sagt die
    Person „hell no“, das gefiel mir irgendwie.
  • 6:55 - 6:58
    Genau, das ist noch so eine
    kleine Webseite, oh ja, da muss jetzt
  • 6:58 - 7:04
    tatsächlich auch mal rausklicken, gucken,
    schauen wir uns mal an, das hat
  • 7:04 - 7:08
    geschrieben irgendwie ein Mensch, Pippin
    Barr, der auch sonst total interessante
  • 7:08 - 7:12
    Spielprototypen baut, und in dem Fall sind
    es halt auch tatsächlich mal
  • 7:12 - 7:18
    ausprobierbare Schachvarianten. Was ich
    zum Beispiel sehr gerne mag, ist sowas wie
  • 7:18 - 7:22
    „Quantum Chess“. Man kriegt nicht erklärt,
    was die Regeln sind, man muss das durch
  • 7:22 - 7:28
    Ausprobieren herausfinden. Wir machen mal
    irgendwie einen Zug, einen Bauern, so – da
  • 7:28 - 7:33
    haben wir zwei Bauern auf einmal. Jetzt
    ist Schwarz dran – es gibt da leider keine
  • 7:33 - 7:36
    KIs oder so, man kann halt mit zwei
    Menschen gegeneinander spielen, aber
  • 7:36 - 7:40
    dieses System achtet dann schon auf
    Einhaltung der Regeln. Also in dieser
  • 7:40 - 7:43
    „Quantum Chess“-Variante ist es so, dass,
    wenn man einen Zug macht, dann geht die
  • 7:43 - 7:47
    Figur auf alle möglichen Positionen, die
    gehen. Wenn wir jetzt hier irgendwie mit
  • 7:47 - 7:51
    der Dame einen Zug machen, haben wir auf
    einmal sehr sehr viele Damen, was
  • 7:51 - 7:55
    vielleicht praktisch ist, vielleicht ist
    es aber auch irgendwie störend. „Quantum
  • 7:55 - 8:01
    Chess“. Dann wollte ich euch noch zeigen…
    „Gravity Chess“ zum Beispiel…
  • 8:01 - 8:06
    Können auch versuchen, einen Zug zu machen –
    Gelächter im Publikum
  • 8:06 - 8:15
    blinry: ihr lacht schon! Genau. Und so
    weiter. Und dann rucken irgendwie alle
  • 8:15 - 8:19
    Figuren immer nach. Und auch das ist
    tatsächlich spielbar, es gibt irgendwie
  • 8:19 - 8:21
    Leute, also, diese Person hat das
    vertwittert und andere Leute haben das
  • 8:21 - 8:25
    gespielt, und haben dann so irgendwie
    Endsituationen dieses Spiels gezeigt,
  • 8:25 - 8:29
    irgendwie, wo nur noch sehr wenig geht und
    dann irgendwie auch Personen schachmatt
  • 8:29 - 8:39
    gesetzt werden. Find ich cool. So, und als
    Letztes wollte ich euch noch zeigen:
  • 8:39 - 8:43
    Schachboxen! Vielleicht habt ihr davon mal
    gehört. Das ist ein ernstzunehmender
  • 8:43 - 8:49
    Sport, ursprünglich startete das mal als
    Kunstprojekt, wo sich jemand dachte, ha,
  • 8:49 - 8:52
    wäre irgendwie lustig wenn Leute
    abwechseln Schach spielen und boxen, das
  • 8:52 - 8:56
    war dann aber so beliebt dass das
    irgendwie richtig populär wurde und es
  • 8:56 - 8:58
    gibt jetzt ganz viele Schachbox-Vereine,
    die irgendwie Wettkämpfe darin
  • 8:58 - 9:03
    organisieren und so, es funktioniert so:
    es ist in Runden aufgeteilt, man spielt
  • 9:03 - 9:08
    drei Minuten Schach und dann boxt man für
    drei Minuten, jeweils abwechselnd. Und man
  • 9:08 - 9:11
    kann gewinnen entweder durch, dass man den
    Gegner K.O. schlägt, oder dass man ihn
  • 9:11 - 9:15
    schachmatt setzt. Außerdem sagen die
    Regeln, dass man aufgeben kann, und das
  • 9:15 - 9:18
    ist explizit hervorgehoben, dass man das
    sowohl in dem Schachteil als auch im
  • 9:18 - 9:30
    Boxteil tun kann. Find ich gut. Alles
    klar. Dann leite ich über an Bine.
  • 9:30 - 9:34
    bleeptrack: Eine Sache, die mich in
    letzter Zeit öfter beschäftigt hat, sind
  • 9:34 - 9:38
    Twitter-Bots, im Speziellen so
    künstlerisch angehauchte Twitter-Bots.
  • 9:38 - 9:41
    Unter Twitter-Bot versteht man eigentlich
    einfach einen Twitter-Account, hinter dem
  • 9:41 - 9:46
    irgendwie ein Programm hängt, das autonom
    Sachen postet, oft so einmal am Tag,
  • 9:46 - 9:49
    einmal die Woche, mehrmals am Tag, und
    dann aber auch ganz unterschiedliche
  • 9:49 - 9:54
    Sachen, und ich hab euch mal eine kleine
    Reihe meiner Lieblings-Twitter-Bots
  • 9:54 - 10:00
    mitgebracht. Einer, der ist ganz einfach,
    der heißt „endless screaming“ und postet
  • 10:00 - 10:03
    einfach immer nur „aaaah!“ in
    unterschiedlicher Länge (das ist ganz
  • 10:03 - 10:10
    wichtig). Ein anderer ist „Big Ben Clock“,
    der ist so ähnlich, der schreibt einfach
  • 10:10 - 10:16
    immer nur die Glockenschläge der Londoner
    Uhr aus, aber natürlich auch immer
  • 10:16 - 10:22
    zeitlich passend. Nächster, der ist auch
    sehr schön, der heißt „choose to accept“
  • 10:22 - 10:27
    und er gibt einem immer Geheimmissionen,
    die er zufällig generiert. Eine ist zum
  • 10:27 - 10:31
    Beispiel: „Your mission, should you choose
    to accept it, is to sneak into the casino
  • 10:31 - 10:37
    of Colin the Hairstylist. There, you must
    steal the Horn of Plenty, Melvin the rent-
  • 10:37 - 10:43
    a-mab, inflate Colin, and finally escape
    using a secret tunnel.“ Die sind oft sehr,
  • 10:43 - 10:47
    naja, wirr, und werden einfach zufällig
    aus so einer Grammatik und aus
  • 10:47 - 10:52
    Satzbausteinen generiert. Dann gibt's noch
    den Cocktail-Bot, da seh ich jetzt gerade,
  • 10:52 - 10:57
    dass leider in dem Beispielbild kein
    schönes Beispiel dabei steht, aber der
  • 10:57 - 11:03
    baut sich auch aus zufälligen Zutaten
    witzige Cocktails zusammen, und man kann
  • 11:03 - 11:06
    den antwittern, also der ist interaktiv,
    also man kann dem irgendwie schreiben
  • 11:06 - 11:09
    „misch mir einen…“ und dann denkt man sich
    einen schönen Cocktailnamen aus und dann
  • 11:09 - 11:13
    denkt der sich halt rückwirkend aus, was
    denn das so für ein Cocktail sein könnte.
  • 11:13 - 11:17
    Und da sind dann halt auch oft die
    absurdesten Zutaten drin – und wir möchten
  • 11:17 - 11:22
    Linux gerade nicht updaten – und was jetzt
    noch ein neues Feature bei dem Bot ist,
  • 11:22 - 11:27
    ist, dass man noch sagen kann „surprise
    me!“ und dann baut er sich eben einen ganz
  • 11:27 - 11:32
    zufälligen Cocktail und twittert den
    zurück. Dann gibt es noch den „Amazing
  • 11:32 - 11:37
    Bot“ oder den „Mazing Bot“, der macht
    Labyrinthe die er zufällig generiert, und
  • 11:37 - 11:41
    man kann da spielen, das ist sehr schön,
    das sieht dann zum Beispiel so aus, dass
  • 11:41 - 11:44
    wäre die Startposition, man kann dann
    unter dem Tweet antworten mit einer
  • 11:44 - 11:49
    Richtung – in dem Fall macht jetzt nur
    „up“ und „down“ irgendwie großartig Sinn –
  • 11:49 - 11:53
    und wenn man den angetwittert hat, dann
    postet er da drunter wieder ein neues Bild
  • 11:53 - 11:59
    mit dem neuen Zustand, das heißt man kann
    praktisch kollaborativ so ein kleines
  • 11:59 - 12:04
    Labyrinth lösen. Dann ist noch einer, der
    gefällt mir besonders gut, das ist der
  • 12:04 - 12:09
    „Nixie Bot“, da hat sich jemand – steht
    das hier sogar drin, wem er gehört? glaube
  • 12:09 - 12:14
    leider nicht – da hat sich jemand so eine
    Nixie-Tube-Uhr oder so einen Nixie-Tube-
  • 12:14 - 12:24
    Aufbau gebaut, und man kann den Bot dann
    antwittern mit einem… oh nein, probieren
  • 12:24 - 12:28
    wir mal nochmal, ja, sehr schön – mit
    einem Text, und das wird dann
  • 12:28 - 12:31
    eingeblendet, da steht eine RasPi-Cam
    davor, die filmt das ab oder macht ein
  • 12:31 - 12:35
    Foto, je nachdem, was man dem Bot schickt,
    und man bekommt es zurückgetwittert. Es
  • 12:35 - 12:38
    dauert oft ein paar Minuten und es ist
    halt – also ich find's super witzig
  • 12:38 - 12:44
    anzusehen, weil der Herr oder die Person,
    muss kein Herr sein, die Person die den
  • 12:44 - 12:48
    Twitter-Bot hat, die sieht man schon, die
    dekoriert auch ab und zu diese Nixie-Tube
  • 12:48 - 12:51
    mal ein bisschen um, und man sieht halt
    auch immer die Tageszeit, die da halt
  • 12:51 - 12:53
    gerade herrscht, mal ist der Raum
    irgendwie dunkel wenn es mitten in der
  • 12:53 - 12:57
    nacht ist oder halt mal leuchtet, wenn es
    gerade Tag ist, und das ist halt irgendwie
  • 12:57 - 13:01
    sehr lebendig und der Bot postet auch
    immer noch einen so’n Tagesrückblick, also
  • 13:01 - 13:05
    alles, was pro Tag an diesen Bot geschickt
    wurde, wird dann noch mal zu so einer Art
  • 13:05 - 13:10
    Zusammenfassungsvideo verarbeitet und noch
    einmal pro Tag gepostet, und den kann ich
  • 13:10 - 13:13
    sehr empfehlen, also twittert den mal an,
    wenn ihr schon immer euren Nickname in
  • 13:13 - 13:20
    Nixie-Tubes geschrieben haben wolltet,
    dann ist der wirklich sehr nett.
  • 13:20 - 13:25
    Zum Schluss möchte ich euch noch auf einen
    meiner Bots aufmerksam machen, den ich mal
  • 13:25 - 13:30
    gebaut habe, der lebt nicht auf Twitter in
    dem Fall, sondern auf Mastodon, das ist
  • 13:30 - 13:34
    der Touritafel-Bot. Touritafel, kurz für
    „touristische Unterrichtungstafel“, das
  • 13:34 - 13:37
    sind diese Tafeln, die ihr wahrscheinlich
    von der Autobahn kennt, die da immer so an
  • 13:37 - 13:41
    der Seite stehen und oft auch so ein
    bisschen obskur sind und irgendwie darauf
  • 13:41 - 13:45
    hinweisen, für was diese Region oder diese
    Stadt gerade bekannt ist. Und ich habe
  • 13:45 - 13:50
    einen Bot gebaut, der sich solche Tafeln
    generieren kann, der holt sich hier Daten
  • 13:50 - 13:56
    aus zwei Datenbanken, einmal aus Wikidata,
    wenn ihr hier in der WikipakaWG sitzt,
  • 13:56 - 13:59
    dann kennt ihr vielleicht auch Wikidata,
    das ist das Schwesterprojekt zur
  • 13:59 - 14:04
    Wikipedia, nur als maschinenlesbare
    Datenbank, und da hole ich mir Städtenamen
  • 14:04 - 14:08
    und Objektenamen raus, das heißt es sind
    alles, ja, irgendwie reale Objekte und
  • 14:08 - 14:12
    Städte die da verarbeitet werden, dann
    brauche ich noch ein Icon, das hole ich
  • 14:12 - 14:17
    mir aus „The Nouns Project“, das ist so
    eine Ansammlung von SVG-Grafiken, die man
  • 14:17 - 14:22
    benutzen kann, und mein Bot verbastelt das
    dann eben zu einem Bild, das so in etwa
  • 14:22 - 14:27
    nach so einer Touritafel aussieht, und ihr
    seht schon, die sind halt auch oft sehr
  • 14:27 - 14:31
    obskur, dann gibt es halt so was wie ein
    Pommes frites Museum oder ein, was haben
  • 14:31 - 14:34
    wir da noch schönes, oh es sind alles
    Museen zufällig, normalerweise variiert
  • 14:34 - 14:37
    der Text immer noch ein bisschen mehr, das
    sind dann auch mal irgendwie, keine
  • 14:37 - 14:44
    Ahnung, die Kuchenstadt Magdeburg oder
    sowas kann dann auch mal rauskommen. Und
  • 14:44 - 14:48
    der Grund, warum der Bot zum Beispiel auf
    Mastodon lebt, ist finde ich auch eine
  • 14:48 - 14:53
    sehr spannende Geschichte. Vor einiger
    Zeit hat Twitter seine API-Schnittstelle
  • 14:53 - 14:56
    geändert, ich weiß nicht ob ihr das
    mitbekommen habt, und das ist mittlerweile
  • 14:56 - 14:59
    sehr viel schwerer, sich so einen API-
    Schlüssel abzuholen bei Twitter, man muss
  • 14:59 - 15:03
    mittlerweile so ein ganzes Formular
    ausfüllen, was man denn gedenkt zu tun,
  • 15:03 - 15:06
    für was man diesen Twitter-Account
    überhaupt benutzen will, und eigentlich
  • 15:06 - 15:10
    will Twitter diesen API-Schlüssel am
    liebsten gar nicht mehr rausgeben, und das
  • 15:10 - 15:14
    hat diese Twitter-Bot-Kunstszene
    tatsächlich sehr aufgerüttelt, weil es
  • 15:14 - 15:18
    jetzt schwerer geworden ist, neue Bots zu
    bauen, weil zum Teil auch alte Bots durch
  • 15:18 - 15:21
    eine eingeschränkte API einfach nicht mehr
    funktionsfähig sind. Und dann kommen auch
  • 15:21 - 15:25
    auf einmal ganze Diskussionen hoch, gerade
    wenn es um Medienkunst geht, wie gehe ich
  • 15:25 - 15:30
    denn eigentlich auch um Archivierung, wie
    gehe ich damit um, wenn Sachen eingestellt
  • 15:30 - 15:32
    werden, nicht mehr funktionieren, das ist
    natürlich problematisch, Medienkunst zu
  • 15:32 - 15:38
    archivieren, weil sich Technik so schnell
    verändert und so schnell wandelt. Und der
  • 15:38 - 15:42
    Ausweg, den sehr viele gefunden haben, ist
    Mastodon, eine Twitter-Alternative, die
  • 15:42 - 15:46
    dezentral funktioniert, und da gibt es
    eine eigene Instanz, die heißt
  • 15:46 - 15:52
    „botsin.space“, und auf der leben jetzt
    nur solche künstlerisch angehauchten und
  • 15:52 - 15:56
    witzigen – also nicht mehr Twitter-,
    sondern Mastodon-Bots dann in dem Moment.
  • 15:56 - 15:59
    Kann ich euch sehr empfehlen da mal
    durchzuklicken, da gibt es auch sehr sehr
  • 15:59 - 16:03
    viele schöne Projekte. Und wenn ihr mal
    Lust habt, vielleicht selber so einen Bot
  • 16:03 - 16:07
    zu bauen, dann kann ich euch ein paar
    Sachen empfehlen. Einmal gibt es die
  • 16:07 - 16:10
    „Botwiki“. Das ist ein Projekt, wo eben
    solche Bot-Varianten gesammelt werden,
  • 16:10 - 16:13
    klickt euch da mal durch, die ist noch
    nicht sehr voll und nicht sehr
  • 16:13 - 16:15
    vollständig, finde ich, also – vielleicht
    findet ihr auch mal einen Bot, den ihr
  • 16:15 - 16:18
    besonders gern mögt, dann tragt den da
    gerne ein, aber man kann sich da auch
  • 16:18 - 16:23
    hervorragend durchklicken und mal sich
    anschauen, was andere so machen. Da gibt's
  • 16:23 - 16:28
    Bots, die machen Gedichte oder die machen
    Musik, also da gibt’s massig, das man
  • 16:28 - 16:31
    erkunden kann. Und wenn ihr wirklich
    selber einen bauen wollt, dann gibt es die
  • 16:31 - 16:35
    Seite „Cheap Bots, Done Quick!“, die ist
    dafür da, um sehr schnell praktisch so
  • 16:35 - 16:40
    einen Bot zu hosten, ohne großartige
    Vorkenntnisse, und das kann man dann auch
  • 16:40 - 16:45
    noch ergänzen mit Tracery, das ist ein
    Tool, mit dem man sich sehr einfach
  • 16:45 - 16:49
    Grammatiken bauen kann um zum Beispiel
    Texte zu generieren, aber auch um Bilder
  • 16:49 - 16:52
    zu generieren. Wenn euch das noch mehr
    interessiert, das habe ich leider nicht
  • 16:52 - 16:56
    verlinkt, aber dann könnt ihr nochmal bei
    blinry auf seinem Blog schauen, der hat da
  • 16:56 - 16:59
    nämlich auch mal einen schönen Workshop
    gehalten – wurde der aufgezeichnet? Leider
  • 16:59 - 17:03
    nicht. Aber da hast du Folien online?
    Genau, dann schaut doch mal auf blinrys
  • 17:03 - 17:13
    Blog, dann gibt es da Folien, wie das ganz
    genau funktioniert.
  • 17:13 - 17:18
    blinry: Als nächstes geht es um Ray
    Marching und Signed Distance Functions.
  • 17:18 - 17:22
    Das klingt ganz furchtbar gruselig, aber
    ich erkläre euch mal, wie ich dazu kam.
  • 17:22 - 17:29
    Wir waren vor ungefähr drei Jahren mal auf
    einer Demoparty in Köln, der Evoke, das
  • 17:29 - 17:33
    ist so ein Treffen, da tun sich einige
    hundert Leute zusammen und setzen sich
  • 17:33 - 17:36
    irgendwie für ein paar Tage in dunkle
    Hallen und setzen sich an ihre Laptops und
  • 17:36 - 17:42
    coden irgendwie coole Videos, also, die
    coden irgendwie kleine Schnipsel, die also
  • 17:42 - 17:47
    sehr interessante grafische und audiell
    interessante Dinge tun, so ein paar
  • 17:47 - 17:52
    Minuten. Und es gibt dann verschiedene
    Kategorien, unter denen sie die einreichen
  • 17:52 - 17:57
    können, verschiedene Wettbewerbe. Und
    einer davon ist eine Einschränkung für das
  • 17:57 - 18:00
    Programm, das man da schreibt, dass das
    Programm eine bestimmte Größe nicht
  • 18:00 - 18:05
    überschreiten darf. Und dann zum Beispiel
    so eine Größenbeschränkung hat wie vier
  • 18:05 - 18:09
    Kilobyte zum Beispiel. Was, finde ich,
    unglaublich wenig ist, sind halt so ein paar
  • 18:09 - 18:14
    Zeilen – ein paar Seiten Code im
    Wesentlichen. Und die Herausforderung ist,
  • 18:14 - 18:18
    mit dieser Platzbeschränkung irgendwie
    coole Dinge zu tun. Was da dann zum
  • 18:18 - 18:24
    Beispiel rauskommt ist sowas hier, also
    das ist jetzt eine 4k-Demo von der Evoke,
  • 18:24 - 18:32
    die total spannende komplexe Geometrien
    beinhaltet. Gucken wir mal ein bisschen rein.
  • 18:32 - 18:38
    Ne, man sieht da irgendwie diese
    Nebeleffekte im Raum, irgendwie eine
  • 18:38 - 18:42
    interessante Kameraführung und so, und man
    fliegt dann da durch so eine fraktale
  • 18:42 - 18:48
    Geometrie durch. Gehen wir mal ein
    bisschen weiter hinten rein… So, da
  • 18:48 - 18:53
    bewegen sich Sachen in dieser Welt, und –
    oh, übrigens haben wir auch Musik,
  • 18:53 - 18:57
    irgendwie, das ist auch durch diesen Code
    generiert, in dem Moment, also das läuft
  • 18:57 - 19:05
    alles live auf dem Rechner. Also irgendwie
    so die Oberfläche schillernd, als wäre da
  • 19:05 - 19:09
    Nebel, naja. Und ich saß da mit offenem
    Mund und habe gedacht: wie machen die das?
  • 19:09 - 19:13
    Wie kriegen die mit so wenig Code
    irgendwie so komplexe Sachen hin? Und dann
  • 19:13 - 19:17
    habe ich auf der Rückfahrt im Zug
    irgendwie so ein bisschen recherchiert und
  • 19:17 - 19:21
    bin auf eine Sache gefunden, die Leute
    immer wieder erwähnt haben, nämlich
  • 19:21 - 19:29
    Fragment Shaders. Das ist ein OpenGL-Ding,
    da geht es darum, dass man ein kleines
  • 19:29 - 19:33
    Programm schreibt, was, wenn man ein Bild
    erzeugen will, für jeden Pixel einzeln
  • 19:33 - 19:37
    ausgeführt wird. Also man kriegt die
    Pixel-Koordinaten in dieses Programm rein,
  • 19:37 - 19:40
    das Programm rechnet einem dann irgendeine
    Farbe aus, die dieser Pixel haben soll.
  • 19:40 - 19:44
    Und der Vorteil ist, wenn man das so
    macht, kann man das super gut
  • 19:44 - 19:49
    parallelisieren. Grafikkarten sind halt
    darauf ausgelegt, dass die total parallel
  • 19:49 - 19:52
    für ganz viele Pixel gleichzeitig
    irgendwie dann diese Farbe ausrechnen
  • 19:52 - 19:56
    können. Dafür ist diese Technologie
    gedacht. Und ich habe online dieses Buch
  • 19:56 - 19:59
    gefunden, „The Book of Shaders“, das sich
    selbst nennt, irgendwie, „a gentle step-
  • 19:59 - 20:04
    by-step guide through the abstract and
    complex universe of Fragment Shaders“. Das
  • 20:04 - 20:08
    ist wirklich gut, das kann ich empfehlen,
    das nimmt einen sehr nett an die Hand,
  • 20:08 - 20:11
    irgendwie, und zeigt einem mal wie das
    funktioniert, zeigt einem so ein paar
  • 20:11 - 20:16
    Generierungsmöglichkeiten für komplexere
    Geometrien und so. Allerdings macht das
  • 20:16 - 20:22
    nur 2D-Kram, also damit kann man jetzt
    noch nicht diese Demos bauen, die wir da
  • 20:22 - 20:24
    gesehen hatten. Dann habe ich ein bisschen
    weiter geguckt und habe noch andere
  • 20:24 - 20:29
    Webseiten gefunden und bin auf
    verschiedene Techniken gestoßen, um
  • 20:29 - 20:34
    3D-Geometrien – also, 3D-Grafik zu machen.
    Was ich in der Uni schon mal gehört hatte
  • 20:34 - 20:37
    und was ihr vielleicht auch mal gehört
    habt ist „Raytracing“, wo man im
  • 20:37 - 20:40
    Wesentlichen – wenn man so ein Bild
    ausrechnen will, das aus verschiedenen
  • 20:40 - 20:44
    Pixeln besteht, dann schießt man von der
    Kamera aus, die irgendwie sich im 3D-Raum
  • 20:44 - 20:49
    befindet, für jeden Pixel einen Strahl in
    die Szene rein und guckt mal, wo der
  • 20:49 - 20:52
    auftrifft. In der Szene können dann, weiß
    ich nicht, hier, Kugeln sein oder
  • 20:52 - 20:56
    irgendwie komplexere Sachen, und man guckt
    sich dann im Wesentlichen an, wo trifft
  • 20:56 - 21:00
    dieser Strahl, den ich gerade schieße, als
    erstes auf, und welche Farbe hat das
  • 21:00 - 21:03
    Objekt, und so ein bisschen vielleicht wie
    ist das schattiert, liegt das im Schatten,
  • 21:03 - 21:07
    ist das irgendwie besonders angeleuchtet
    oder sowas, und diese Farbe kriegt dann
  • 21:07 - 21:11
    halt der Pixel. Das ist so ein
    Standardverfahren, um irgendwie hübsche
  • 21:11 - 21:16
    3D-Geometrie zu rendern. Damit kann man
    dann sehr gut so was machen wie
  • 21:16 - 21:21
    Glasobjekte, zum Beispiel, oder irgendwie
    weiche Schatteneffekte und so was. Und das
  • 21:21 - 21:24
    ist eine Technik, die sehr lange es schon
    gibt und sehr etabliert ist, allerdings hat
  • 21:24 - 21:27
    sie ein Problem, nämlich wenn man sehr
    komplexe Geometrie hat, dann sind diese
  • 21:27 - 21:32
    Schnitttests total kompliziert. Also, wenn
    man herausfinden will, ob der Strahl jetzt
  • 21:32 - 21:36
    mit irgendwas davon kollidiert, ist das
    vielleicht super aufwendig herauszufinden.
  • 21:36 - 21:40
    Insofern eignet sich das nicht so gut für
    diese Demo, die ihr da gerade gesehen habt
  • 21:40 - 21:43
    zum Beispiel. Sondern was man da macht ist
    ein anderes Verfahren, das nennt sich
  • 21:43 - 21:50
    „Raymarching“. Hatte ich vorher noch nie
    gehört. Was macht man da? Man definiert
  • 21:50 - 21:56
    sich eine mathematische Funktion, die
    einem für jeden Punkt im Raum gibt den
  • 21:56 - 22:02
    Abstand zur nächsten Oberfläche eines
    Objekts. In diesem Beispiel ist das 2D,
  • 22:02 - 22:05
    aber das funktioniert auch in 3D. Also
    stellt euch vor, irgendwie, ihr habt
  • 22:05 - 22:09
    irgendwie eine Funktion, da tut ihr eine
    Koordinate rein, und ihr kriegt eine
  • 22:09 - 22:12
    einzelne Zahl raus, und die sagt euch
    dann, okay, die nächste Oberfläche ist
  • 22:12 - 22:17
    irgendwie einen Meter weit weg oder sowas.
    Und wenn ihr dann wieder die Sache macht,
  • 22:17 - 22:20
    einen Strahl in die Szene zu schießen,
    dann könnt ihr halt, wenn ihr wisst, okay,
  • 22:20 - 22:23
    der Strahl ist irgendwie hier, die nächste
    Oberfläche ist einen Meter weg, ich weiß
  • 22:23 - 22:27
    nicht, in welche Richtung, aber irgendwie
    einen Meter ist sie weg, dann ist halt in
  • 22:27 - 22:31
    einer Kugel mit einem Meter Radius auf
    jeden Fall kein Objekt drin. Das heißt,
  • 22:31 - 22:34
    ich kann einen Meter nach vorne gehen,
    ohne gegen irgendwas gegen zu stoßen. Dann
  • 22:34 - 22:38
    mache ich das und werte dann diese
    Funktion für den Punkt, an dem ich
  • 22:38 - 22:41
    angekommen bin, noch mal aus. Und die sagt
    dann vielleicht, okay, das nächste Objekt
  • 22:41 - 22:45
    ist einen halben Meter weg oder so, gehe
    ich wieder einen halben Meter nach vorne,
  • 22:45 - 22:49
    und das wiederhole ich so lange, bis der
    Abstand zu einem Objekt ausreichend klein
  • 22:49 - 22:54
    ist. Also in dieser Grafik ist es halt für
    den 2D-Fall demonstriert, wo man bei P0
  • 22:54 - 22:58
    anfängt und dann irgendwie als erstes so
    einen Abstand kriegt entsprechend des
  • 22:58 - 23:01
    Radius dieses Kreises, den man dann
    vorwärts geht, und das so lange
  • 23:01 - 23:05
    wiederholt, bis man irgendwo auftrifft.
    Und, genau, das kann man halt auch in 3D
  • 23:05 - 23:10
    machen, und dadurch dann sehr elegant
    irgendwie Formulierungen finden für diese
  • 23:10 - 23:13
    komplexen Geometrien, die ihr gesehen
    habt, wo man dann vielleicht Teile des
  • 23:13 - 23:17
    Raumes beschreibt und die dann periodisch
    wiederholt oder so was, dann kann man
  • 23:17 - 23:23
    diese Funktion auch einfach wiederholen.
    Naja, und wenn man das richtig gut kann,
  • 23:23 - 23:27
    kann man damit halt so coolen Scheiß
    machen. Ich habe Anfang letzten Jahres
  • 23:27 - 23:30
    auch mal einen kleinen Workshop dazu
    gemacht – wir verlinken die Folien
  • 23:30 - 23:33
    nachher, dann könnt ihr euch das angucken
    wenn euch das interessiert – wo ich auch
  • 23:33 - 23:37
    nochmal so ein bisschen demonstriere, wie
    das funktioniert, und dann auch anfange
  • 23:37 - 23:42
    irgendwie, erstmal so mit dem 2D-Fall,
    irgendwie, wie man da einzelne Formen
  • 23:42 - 23:47
    malt, wie man irgendwie sich Kreise
    definiert und irgendwie den Farben
  • 23:47 - 23:51
    zuordnet und so, und später kann man dann
    vielleicht verschiedene 2D-Formen haben
  • 23:51 - 23:55
    und sie so ein bisschen verschmelzen…
    gucken, ob ich da eine Stelle finde,
  • 23:55 - 24:01
    genau, hier so was… das ist dann auch mit
    dieser distance function total einfach,
  • 24:01 - 24:03
    sich das zu definieren, dass man halt
    irgendwie die Mittelpunkte der beiden
  • 24:03 - 24:08
    Kreise hat und sich dann diese bisschen
    komplexere, bisschen, ja, irgendwie
  • 24:08 - 24:14
    bouncy, knetbar aussehende Oberfläche
    erzeugt. Und von da kann man dann halt
  • 24:14 - 24:19
    weitergehen in den 3D-Raum und da im
    Wesentlichen das Gleiche machen, sich dann
  • 24:19 - 24:24
    irgendwie, zum Beispiel hier so einen
    Würfel mit runden Ecken definieren, wie
  • 24:24 - 24:32
    gesagt, und dann irgendwie irgendeinen
    Untergrund bauen und dem vielleicht Wellen
  • 24:32 - 24:35
    geben, und am Schluss dann das Ganze
    irgendwie ganz oft wiederholen, und da hat
  • 24:35 - 24:40
    man so einen Flug durch irgendwie eine
    komplexe 3D-Welt mit Code, das sind
  • 24:40 - 24:43
    ungefähr so, weiß nicht, vielleicht die
    doppelte Menge Code, die ihr da seht, oder
  • 24:43 - 24:47
    so was, die man braucht um das zu
    schreiben. Naja, und insgesamt, sowohl
  • 24:47 - 24:51
    Fragment Shaders als auch dieses
    Raymarching sind halt zwei Ansätze, Grafik
  • 24:51 - 24:54
    zu machen, die ich vorher so noch nicht
    kannte und die mich ziemlich umgehauen
  • 24:54 - 25:02
    haben, und ich dachte das interessiert
    euch vielleicht auch. Wenn man das richtig
  • 25:02 - 25:07
    gut kann, kommt dabei so was raus. Das ist
    ein Mensch, der heißt – also der nennt
  • 25:07 - 25:12
    sich IQ und macht so was seit vielen,
    vielen Jahren, und ich gucke mal, wenn man
  • 25:12 - 25:16
    ans Ende springt – also das ist ein Video,
    in dem er tatsächlich mal erklärt, wie er
  • 25:16 - 25:22
    arbeitet und wie seine Demos
    funktionieren, und einen da mitnimmt – ihr
  • 25:22 - 25:24
    seht, das geht irgendwie knapp sechs
    Stunden, also das ist kein triviales
  • 25:24 - 25:29
    Programm, ich hätte gerne… mal gucken, ob
    ich noch eine animierte Version davon
  • 25:29 - 25:34
    finde, das ist halt so eine kleine
    niedliche Figur, die durch die Gegend
  • 25:34 - 25:38
    springt, genau. Und sowohl der Untergrund
    bewegt sich als auch diese Figur bewegt
  • 25:38 - 25:42
    sich, Und da hat IQ halt genau das Gleiche
    gemacht, sich eine Funktion definiert, zum
  • 25:42 - 25:45
    Beispiel, die einem den Abstand zu der
    Oberfläche des Körpers dieser kleinen
  • 25:45 - 25:49
    Figur angibt, und darüber kann man das
    rendern. Und generell hat dieser Mensch
  • 25:49 - 26:03
    auch eine Webseite mit sehr, sehr guten
    Ressourcen zu dem Thema. Genau! Soweit dazu.
  • 26:03 - 26:05
    bleeptrack: Vor einigen Jahren habe ich
  • 26:05 - 26:10
    mal angefangen, jeden Tag ein kleines
    Bildchen zu zeichnen und das zu
  • 26:10 - 26:15
    veröffentlichen, und denen hab ich einen
    Namen gegeben, die heißen jetzt Schnipsel,
  • 26:15 - 26:20
    das eben so kleine snippets sind, die eben
    einfach jeden Tag entstehen. Und ich
  • 26:20 - 26:23
    wollte einfach mal so ein bisschen was
    davon erzählen. So richtig genau weiß ich
  • 26:23 - 26:27
    eigentlich nicht mehr, warum ich damit
    angefangen hatte, aber es ging auf jeden
  • 26:27 - 26:30
    Fall ein bisschen darum, besser zu
    reflektieren, was man so macht, das habe
  • 26:30 - 26:36
    ich während dem Studium noch angefangen,
    und euch geht’s vielleicht ähnlich wie
  • 26:36 - 26:39
    mir, ich bin so jemand der mal voll gern
    so Projekte anfängt, aber dann vielleicht
  • 26:39 - 26:43
    auch nicht fertig macht oder so ein Jahr
    später mal wieder dran weiterbastelt, und,
  • 26:43 - 26:47
    naja, ich hatte irgendwie das Gefühl, ich
    verliere so ein bisschen den Überblick,
  • 26:47 - 26:50
    was ich eigentlich am Tag mache, und dann
    studiert man noch und macht noch irgendwie
  • 26:50 - 26:54
    3000 andere Sachen parallel, dann fand ich
    es eigentlich immer schön, immer am Ende
  • 26:54 - 26:58
    vom Tag oder am Beginn des nächsten Tages
    so ein bisschen zu reflektieren, was war
  • 26:58 - 27:03
    denn der wichtigste Punkt in meinen
    letzten 24 Stunden? Und nachdem ich ganz
  • 27:03 - 27:06
    gern zeichne und auch das Gefühl hatte,
    während meinem Informatikstudium, ich
  • 27:06 - 27:09
    zeichne gar nicht mehr so viel, dachte
    ich, ich halte das einfach in kleinen
  • 27:09 - 27:15
    Bildern fest. Und für mich war dann halt
    irgendwie wichtig, dass das auch irgendwie
  • 27:15 - 27:20
    schnell gehen muss, und – können wir jetzt
    hier mal schon auf diesen Link klicken –
  • 27:20 - 27:25
    ich habe kürzlich mal bei Twitter
    praktisch so einen kleinen Screencast,
  • 27:25 - 27:28
    wenn man das so nennen will, aufgenommen,
    wie ich das zeichne. Also es musste für
  • 27:28 - 27:31
    mich halt irgendwie schnell gehen, das ist
    halt wirklich wie so ein scribble, ich
  • 27:31 - 27:34
    mach da nicht lange rum, ein so’n Bild
    dauert vielleicht irgendwie zehn Minuten
  • 27:34 - 27:38
    oder eine Viertelstunde oder so was, und
    ich habe hier so ein Thinkpad, das hat so
  • 27:38 - 27:40
    einen integrierten Digitizer, also einen
    Stift, das heißt ich kann das direkt
  • 27:40 - 27:44
    digital machen, ich brauche da gar kein
    Papier, und probier halt einfach so ein
  • 27:44 - 27:48
    bisschen rum, und verzichte auch irgendwie
    komplett auf Farbe, weil ich irgendwie für
  • 27:48 - 27:52
    mich festgestellt hab, ich bin echt
    schlecht im kolorieren, und für so was
  • 27:52 - 27:55
    reicht es total, irgendwie ein bisschen
    mit Schwarz-weiß zu arbeiten, aber
  • 27:55 - 27:58
    Schatten haben mir Spaß gemacht, also ich
    hab immer so ein bisschen Schattierungen
  • 27:58 - 28:04
    reingezeichnet. Die Auflösung ist auch
    total popelig, sind irgendwie 250 x 250
  • 28:04 - 28:06
    Pixel, das schränkt einen auch nochmal
    ziemlich ein, weil man dann so richtig
  • 28:06 - 28:10
    Details eigentlich auch nicht mehr
    festhalten kann, ist im Nachhinein
  • 28:10 - 28:13
    vielleicht ein bisschen schade, weil ich
    manchmal mittlerweile das Gefühl hätte,
  • 28:13 - 28:16
    ich würde mir gerne auch mal so einen
    großen Abzug machen mit so einer Sammlung,
  • 28:16 - 28:21
    und dann ist die Pixelauflösung
    tatsächlich ein bisschen arg gering, und
  • 28:21 - 28:25
    ich hab dann auch irgendwann angefangen,
    die, wie ihr hier seht, einfach mal auf
  • 28:25 - 28:29
    Twitter zu posten, weil ich dachte, das
    ist immer so ein bisschen schade, ich habe
  • 28:29 - 28:32
    die zwar immer auf meine Webseite gepackt,
    aber da versauern die halt, da guckt die
  • 28:32 - 28:35
    eigentlich irgendwie niemand an. Und dann
    hatte ich mal gefragt, würde sich das
  • 28:35 - 28:38
    jemand angucken, wenn ich das auf Twitter
    posten würde? Dann kam von ein paar Leuten
  • 28:38 - 28:43
    so, ja, ich würde mir das angucken, und
    dann hab ich das jetzt einfach mal
  • 28:43 - 28:46
    probiert. Das ist einfach ein Bot das auch
    immer jeden Tag direkt mit auf meinen
  • 28:46 - 28:50
    Twitter-Account haut, und ich habe
    tatsächlich auch sehr positives Feedback
  • 28:50 - 28:53
    dann bekommen, weil ich habe oft mal auch
    so Tage, wo es halt so stressig, und ich
  • 28:53 - 28:55
    verchecks dann einfach, die zu zeichnen,
    das kommt schon auch mal vor, beim
  • 28:55 - 28:58
    Scrollen habt ihr vielleicht auch gesehen,
    da gibt es ein paar Monate wo fast gar
  • 28:58 - 29:01
    nichts drin ist, da hatte ich einfach so
    viel Stress, dass ich es nicht gebacken
  • 29:01 - 29:03
    bekommen habe. Dann haben auch wirklich
    Leute geschrieben, ist voll schade, dass
  • 29:03 - 29:07
    du gerade nichts zeichnest, ich freue mich
    eigentlich jeden Tag auf dein kleines
  • 29:07 - 29:13
    Bildchen. Und blinry hat es zum Beispiel
    auch mal ausprobiert, einen Monat lang,
  • 29:13 - 29:15
    das könnt ihr euch gerne auch mal
    angucken, oder wir klicken da vielleicht
  • 29:15 - 29:18
    auch mal drauf, dann können wir das mal
    groß machen. Du hast dir ein anderes
  • 29:18 - 29:21
    Format ausgesucht, du hast das immer so
    kreisförmig gemacht, und du hattest das
  • 29:21 - 29:25
    auch schon mal gemacht mit… Achtecken,
    wenn ich das richtig im Kopf habe, oder
  • 29:25 - 29:27
    Sechsecken, oder hast dir immer andere
    Formate ausgesucht, das finde ich auch
  • 29:27 - 29:31
    sehr schön. Bei mir ist halt quadratisch,
    blinry hat ja auch so einen schönen
  • 29:31 - 29:35
    Monatszusammenschluss gemacht und das halt
    von Hand gezeichnet, das ist auch
  • 29:35 - 29:41
    irgendwie sehr schön und sehr ästhetisch,
    wie ich finde. Und ich hatte ja schon
  • 29:41 - 29:45
    gesagt, ich hab das jetzt gerade auf so
    einem Bot laufen, und kürzlich hatte ich
  • 29:45 - 29:49
    halt nochmal eine API dazugenommen, dass
    er noch wo posten soll, und hab dann so
  • 29:49 - 29:53
    einen Fehler nicht abgefangen, und dann
    ist mein – bin ins Bett gegangen, das war
  • 29:53 - 29:56
    irgendwie so eine dumme Idee, und dann ist
    mein Bot ein bisschen Amok gelaufen, hat
  • 29:56 - 30:00
    alle zehn Minuten das gleiche Bild noch
    mal gepostet, und dann kam halt irgendwie
  • 30:00 - 30:07
    von 20 – also, früh wacht man dann halt
    auf, und man sieht dann irgendwie so aus…
  • 30:07 - 30:12
    Aber ich hatte halt irgendwie die ganze
    Inbox voll mit „Oh, dein Bot läuft Amok!
  • 30:12 - 30:16
    Oh mein Gott, die ganze Timeline von mir
    wird zugespamt! Das kann ja nicht wahr
  • 30:16 - 30:20
    sein!“ Und irgendwelche haben dann schon
    runter geschrieben, „hihi, die schläft,
  • 30:20 - 30:24
    die Nacht ist noch lang“, und ich bin auch
    irgendwie, ich dachte, das war so ein Tag,
  • 30:24 - 30:29
    wo ich so ausgeschlafen habe bis um 10,
    und das war dann halt irgendwie nicht so
  • 30:29 - 30:32
    schön, aber das Schöne ist, wenn man halt
    täglich ein kleines Bildchen zeichnet,
  • 30:32 - 30:36
    dann kann man da halt auch einen kleinen
    Witz draus machen, mit einem fiktiven Bot,
  • 30:36 - 30:40
    der sagt, „Hm, diesen Schnipsel mag ich
    sehr, sehr gerne! Und den zeige ich jetzt
  • 30:40 - 30:45
    die ganze Nacht über“, und, naja. Ich
    finde – ich möchte euch eigentlich ein
  • 30:45 - 30:48
    bisschen dazu ermutigen, mal so eine
    Reflektionstechnik sich auszusuchen, weil
  • 30:48 - 30:52
    ich finde, das bringt einem sehr viel,
    gerade auch so – man hat so Tage wie den
  • 30:52 - 30:56
    Congress, da passieren irgendwie 3000
    Sachen an einem Tag, und die Tage
  • 30:56 - 30:59
    verschwimmen so ineinander, und ich habe
    auch festgestellt, man kann – man hat –
  • 30:59 - 31:03
    man findet so den positiven Aspekt in
    einem Tag, auch wenn es vielleicht eher so
  • 31:03 - 31:07
    ein Scheißtag war, und man kann sich viel
    besser – also ich kann mich zumindest viel
  • 31:07 - 31:10
    besser erinnern, was so passiert ist,
    vielleicht noch vor einem Monat, oder vor
  • 31:10 - 31:14
    zwei Monaten, weil ich weiß ja noch,
    welches Bildchen ich an dem Tag gezeichnet
  • 31:14 - 31:17
    habe. Also probiert es gerne mal aus – wer
    weiß, ob das jetzt ein Bildchen ist,
  • 31:17 - 31:20
    vielleicht schreibt ihr auch nur ein Wort
    pro Tag auf, aber ich finde, das ist eine
  • 31:20 - 31:24
    sehr schöne Technik, um sich mal selber zu
    verdeutlichen, was man eigentlich so
  • 31:24 - 31:34
    schafft und eigentlich so macht.
    blinry: Ich möchte euch als nächstes etwas
  • 31:34 - 31:39
    erzählen über mathematische Paradoxe, die
    ich ganz spannend finde. Zum Beispiel gibt
  • 31:39 - 31:45
    es etwas, das nennt sich das „interesting
    number paradox“, das so etwas aussagt,
  • 31:45 - 31:50
    wie: „alle Zahlen sind interessant“. Und
    das ist erstmal überraschend, für mich
  • 31:50 - 31:54
    zumindest. Lasst uns das zusammen mal
    beweisen. Also, das ist ein Beweis, der
  • 31:54 - 31:58
    läuft über einen Widerspruchsbeweis, das
    heißt wir machen am Anfang eine Annahme.
  • 31:58 - 32:03
    Wir nehmen an, es gäbe überhaupt
    uninteressante Zahlen. Man beschränkt das
  • 32:03 - 32:06
    üblicherweise auf natürliche Zahlen,
    irgendwie nicht negative ganze Zahlen, mit
  • 32:06 - 32:10
    denen irgendwie Objekte zählen könnten
    oder so was, und wir nehmen mal an, es
  • 32:10 - 32:15
    gäbe welche, die wären uninteressant. So.
    Stellt euch irgendwie einen Zahlenstrahl
  • 32:15 - 32:21
    vor, und da sind jetzt diejenigen
    markiert, die uninteressant sind. Und wenn
  • 32:21 - 32:24
    wir uns das angucken, dann gibt es halt
    unter denen auch eine, das ist die
  • 32:24 - 32:27
    kleinste uninteressante Zahl: die, die
    halt auf dem Strahl am weitesten links
  • 32:27 - 32:32
    sitzt. Und, ok, das ist irgendwie komisch,
    das ist eine Zahl, die ist gleichzeitig…
  • 32:32 - 32:36
    ist sie uninteressant, aber diese
    Eigenschaft, dass sie die kleinste
  • 32:36 - 32:41
    uninteressante Zahl ist, ist natürlich
    schon wieder total interessant. Und da
  • 32:41 - 32:45
    kommt ein Widerspruch zustande, und wenn
    das passiert bei so einem Beweis, dann ist
  • 32:45 - 32:53
    halt die Aussage, dass unsere Annahme
    falsch war. Und das zeigt uns halt, dass
  • 32:53 - 32:57
    die Annahme, die kann nicht stimmen – wir
    haben angenommen, es gibt irgendwelche
  • 32:57 - 33:00
    uninteressanten Zahlen, das heißt, das
    Ergebnis ist, alle natürlichen Zahlen sind
  • 33:00 - 33:05
    interessant. Das ist ein Beweis, der
    klingt irgendwie komisch, da ist
  • 33:05 - 33:07
    allerdings kein doppelter Boden drin, es
    gibt so ein paar Beweise, wo man sich
  • 33:07 - 33:11
    irgendwie 1 = 2 herleitet oder so, wo man
    dann irgendwo durch 0 teilt, das ist
  • 33:11 - 33:16
    natürlich Quatsch – das ist ein relativ
    wasserdichter Beweis, der nicht ganz ernst
  • 33:16 - 33:20
    gemeint ist, aber der schon irgendwie
    einer kritischen Betrachtung standhält.
  • 33:20 - 33:27
    Naja. Ach so, genau, ich wollte noch
    erzählen: trotzdem gibt es Leute, die
  • 33:27 - 33:32
    versuchen dann, diese kleinste
    uninteressante Zahl zu finden, und nehmen
  • 33:32 - 33:35
    dann verschiedene Kriterien her,
    irgendwie. Es gibt so eine Online-
  • 33:35 - 33:40
    Enzyklopädie der Nummersequenzen, die
    gucken sich dann da die kleinste Zahl an,
  • 33:40 - 33:44
    die da nicht drin vorkommt oder so was.
    Oder zum Beispiel die kleinste Zahl, die
  • 33:44 - 33:47
    keinen eigenen Wikipedia-Artikel hat: ich
    habe vorhin mal nachgeguckt, das ist
  • 33:47 - 33:52
    momentan die 262. Ist die besonders
    interessant? Vielleicht – gibt wohl nichts
  • 33:52 - 34:01
    über sie zu erzählen, bisher. Das nächste
    Paradox, das ich mitgebracht habe, hat mit
  • 34:01 - 34:08
    diesem geometrischen Objekt zu tun.
    „Gabriels Horn“. Diese Oberfläche ist so
  • 34:08 - 34:13
    definiert: ihr nehmt euch die Funktion 1/x
    her, das ist hier diese rote Linie, diese
  • 34:13 - 34:17
    Kästchen sind jeweils eine Längeneinheit
    lang. Und wir gucken uns dann einen
  • 34:17 - 34:21
    bestimmten Bereich davon an, nämlich
    schneiden wir den an dieser Stelle 1 ab
  • 34:21 - 34:25
    und gucken uns den ganzen Teil, der dann
    nach rechts läuft, an, nehmen diesen
  • 34:25 - 34:31
    Verlauf und rotieren den um die x-Achse.
    So ist dieses Objekt konstruiert. Was wir
  • 34:31 - 34:34
    dann kriegen, ist halt so ein sehr, sehr
    spitz, unendlich weit nach rechts
  • 34:34 - 34:39
    zulaufendes, Ding, was irgendwie aussieht
    wie ein Trichter. Und dieses Objekt hat
  • 34:39 - 34:45
    eine super spannende Eigenschaft, nämlich:
    Also, die Oberfläche des Objektes ist
  • 34:45 - 34:49
    unendlich groß, was irgendwie einleuchtet,
    weil es ja unendlich weit nach rechts
  • 34:49 - 34:53
    läuft. Wenn man irgendwie das versuchen
    würde mit Farbe anzumalen oder so was,
  • 34:53 - 34:55
    würde man unendlich viel Farbe brauchen,
    weil man irgendwie das ganze Ding nie
  • 34:55 - 35:00
    vollgemalt bekommt. Allerdings, wenn man
    es jetzt mit der Öffnung nach oben dreht
  • 35:00 - 35:04
    und die Farbe da reingießt, irgendwie, um
    das Volumen zu messen, dann stellt man
  • 35:04 - 35:08
    fest, das ist ein endliches Volumen, das
    Ding ist irgendwann voll. Und das ist eine
  • 35:08 - 35:11
    super spannende Kombination von zwei
    Eigenschaften, finde ich, also wenn man
  • 35:11 - 35:14
    das mit Farbe aufgefüllt hat, innen,
    könnte man sagen, okay, das berührt ja
  • 35:14 - 35:18
    jetzt irgendwie die gesamte Oberfläche von
    innen, aber trotzdem, wenn wir es anmalen,
  • 35:18 - 35:24
    reicht es halt nicht. Und, naja, dieses
    Paradox mit der Farbe, das klingt erstmal
  • 35:24 - 35:28
    total komisch – man kann das ein bisschen
    auflösen, indem man sich vorstellt, wenn
  • 35:28 - 35:32
    wir das nicht von außen anmalen würden,
    sondern von innen, dann kämen wir halt
  • 35:32 - 35:35
    irgendwann, wenn wir weiter nach rechts in
    diese Spitze reinmalen, in so einen
  • 35:35 - 35:39
    Bereich, wo die Farbschicht vielleicht so
    dick ist, dass sie da gar nicht mehr rein
  • 35:39 - 35:42
    passt. Das heißt, wenn man es von innen
    bemalt, müsste man mit der Farbschicht
  • 35:42 - 35:45
    eigentlich auch immer dünner werden, und
    wenn man das dann so rechnet, dann ist
  • 35:45 - 35:50
    halt doch die Farbmenge wieder begrenzt.
    Das heißt dieses mit der – also, mit Farbe
  • 35:50 - 35:54
    füllen funktioniert, mit Farbe anmalen,
    ist unendlich viel Farbe, kann man dadurch
  • 35:54 - 35:58
    so ein bisschen auflösen, und auch diese
    Eigenschaft, dass die Oberfläche unendlich
  • 35:58 - 36:03
    groß ist und das Volumen endlich, also,
    man kann sich das ausrechnen. Man kann
  • 36:03 - 36:07
    sich Integrale aufschreiben mit dieser
    Funktion 1/x und dann irgendwie
  • 36:07 - 36:10
    integrieren über die Länge und so, und
    sich ausrechnen wie groß die Oberfläche
  • 36:10 - 36:13
    ist, man sieht sie ist unendlich, und wie
    groß das Volumen ist, und man sieht es ist
  • 36:13 - 36:17
    endlich. Das ist allerdings nicht
    besonders intuitiv. Ich könnte euch jetzt
  • 36:17 - 36:18
    die Formeln zeigen und dann würdet ihr das
    vielleicht glauben oder vielleicht auch
  • 36:18 - 36:23
    nicht, aber was ich dann noch fand ist
    eine Betrachtung oder ein Vergleich, der
  • 36:23 - 36:25
    einem das so ein bisschen schmackhafter
    macht, nämlich: Wenn ihr euch vorstellt,
  • 36:25 - 36:30
    ihr nehmt ein Stück Knete, eine definierte
    Menge Knete, macht daraus irgendwie eine
  • 36:30 - 36:35
    kleine dicke Schlange oder so was, so
    einen Zylinder, zylindrische Form, und
  • 36:35 - 36:39
    guckt euch dann mal die Oberfläche von dem
    ganzen Ding an. Dann ist die Oberfläche
  • 36:39 - 36:46
    halt ungefähr so der Umfang dieser Form
    des Zylinders mal der Länge. Das ist quasi
  • 36:46 - 36:49
    so, als würde man da irgendwie Papier
    darum legen, wenn man das aufrollt hat man
  • 36:49 - 36:54
    so ein Rechteck, die eine Kantenlänge des
    Rechtecks ist so lang wie der Umfang, die
  • 36:54 - 36:58
    andere Länge so lang wie diese Schlange
    lang ist. Und jetzt nehmen wir diese Knete
  • 36:58 - 37:03
    und rollen sie ein bisschen dünner, dass
    sie nur noch halb so dick ist. Was dann
  • 37:03 - 37:08
    damit passiert, ist, dass, naja, also die
    Höhe halbiert sich und das heißt, es
  • 37:08 - 37:14
    halbiert sich auch der Umfang dabei.
    Allerdings wird die Querschnittsfläche,
  • 37:14 - 37:19
    wenn ihr das einmal durchschneiden würdet,
    auf ein Viertel sinken. Und das bedeutet,
  • 37:19 - 37:22
    weil ja das Volumen konstant bleibt – wir
    nehmen ja keine Knete weg oder so was –
  • 37:22 - 37:28
    wird diese Schlange danach viermal so lang
    sein. Das heißt, okay, was haben wir?
  • 37:28 - 37:34
    Wir haben die vierfache Länge, wir haben den
    halben Umfang, das heißt die Oberfläche
  • 37:34 - 37:39
    dieses Dings hat sich verdoppelt gerade,
    während das Volumen konstant geblieben
  • 37:39 - 37:44
    ist. Und das bedeutet, je dünner man diese
    Schlange rollt, desto mehr verschiebt sich
  • 37:44 - 37:48
    dieses Verhältnis von Fläche und Volumen,
    und das ist halt auch genau das, was hier
  • 37:48 - 37:54
    bei diesem Objekt passiert, dass man das
    quasi unendlich weiter dünner macht und
  • 37:54 - 37:57
    dabei halt dieses Verhältnis völlig aus
    dem Gewicht gerät und dadurch diese
  • 37:57 - 38:05
    Eigenschaft zustande kommt. Ein bisschen
    ähnlich und mit Unendlichkeit zu tun hat
  • 38:05 - 38:11
    auch das „coastline paradox“, wo es darum
    geht, dass man die Länge einer
  • 38:11 - 38:17
    Landesgrenze messen will. Und da kommt es
    dann sehr darauf an, wie genau man das
  • 38:17 - 38:21
    macht, was dabei rauskommt. Wenn ihr euch
    vorstellt, ihr habt irgendwie ein sehr
  • 38:21 - 38:25
    langes Lineal, und man legt das dann jetzt
    irgendwie mal an diesen Landesumriss an,
  • 38:25 - 38:28
    kippt das immer so ein bisschen weiter,
    geht da irgendwie einmal rum, dann kriegt
  • 38:28 - 38:31
    man irgendeine Zahl raus, okay, man könnte
    sagen, das ist die Länge, aber dann könnte
  • 38:31 - 38:34
    jemand kommen: „das hast du nicht genau
    genug gemessen, und wir müssten eigentlich
  • 38:34 - 38:38
    das mit einem kürzeren Lineal machen, was
    das irgendwie genauer misst, und irgendwie
  • 38:38 - 38:42
    in Meeresbuchten noch reingeht“, das ist
    so der Unterschied hier zwischen dem
  • 38:42 - 38:45
    linken Beispiel und dem rechten, wo man
    halt beim rechten einen viel kürzeren
  • 38:45 - 38:50
    Maßstab genommen hat und damit genauer
    diesen Umrisse misst. Das heißt, davon
  • 38:50 - 38:55
    hängt es sehr ab, was man da für eine Zahl
    herauskriegt für die Länge dieses
  • 38:55 - 38:58
    Landesumrisses. Und das lässt sich halt
    beliebig weit fortführen, wenn ihr euch
  • 38:58 - 39:03
    jetzt vorstellt, ihr steht irgendwie am
    Strand dieses Landes und wollt messen die
  • 39:03 - 39:08
    Länge der Linie zwischen dem Sand und der
    Wasserkante oder so was, könnt ihr jetzt
  • 39:08 - 39:11
    ein 30-cm-Lineal nehmen oder so, und da
    hinlegen und dann weiterlegen und so, und
  • 39:11 - 39:15
    sagen, okay, das sind jetzt 60 cm, aber
    dann kommt vielleicht irgendwie ein
  • 39:15 - 39:19
    Lebewesen, was noch viel kleiner ist als
    ihr, und sagt, ihr hättet doch auch jetzt
  • 39:19 - 39:22
    so um die einzelnen Sandkörner herum
    messen müssen und so, und dann noch in die
  • 39:22 - 39:25
    Lücken gehen, und dann kriegt man halt
    noch eine längere Länge raus. Und das
  • 39:25 - 39:28
    führt sich beliebig fort weiter,
    irgendwie, die Sandkörner haben dann
  • 39:28 - 39:31
    vielleicht Unregelmäßigkeiten, wo man rein
    messen kann, und wenn man auf atomare
  • 39:31 - 39:35
    Ebene kommt, wird das irgendwie alles sehr
    merkwürdig, aber trotzdem sehen irgendwie,
  • 39:35 - 39:40
    dass das Konzept einer Länge eines
    Landesumrisses halt nicht gut definiert
  • 39:40 - 39:48
    ist. Mathematiker sprechen davon, dass
    diese Form eine fraktale Dimension > 1
  • 39:48 - 39:53
    hat, das heißt, je genauer man hinguckt,
    desto länger wird dieses Ding. Und das
  • 39:53 - 39:59
    finde ich nicht besonders intuitiv. Und
    das letzte Paradox, das ich mitgemacht
  • 39:59 - 40:04
    habe, ist das Geburtstagsparadoxon. Manche
    von euch kennen das vielleicht.
  • 40:04 - 40:08
    Im Wesentlichen geht es darum, also, wenn ich
    jetzt hier im Saal mich mal umgucke und
  • 40:08 - 40:12
    irgendwie hier diese rechte Sitzspalte von
    euch nehme, ihr seid vielleicht 30 Leute
  • 40:12 - 40:16
    oder so, würde ich schätzen, und die Frage
    dieses Paradoxons ist ist dann: Wie
  • 40:16 - 40:22
    wahrscheinlich ist es, dass zwei von euch
    am genau gleichen Tag Geburtstag haben?
  • 40:22 - 40:26
    Und wenn ihr mögt, und das noch nicht
    kennt, könnt ihr mal versuchen zu
  • 40:26 - 40:28
    schätzen, irgendwie, was da so – also
    einfach so einen Prozentwert, wie
  • 40:28 - 40:31
    wahrscheinlich das wäre, wenn ihr mögt.
    Habt ihr da irgendwie Ideen?
  • 40:31 - 40:36
    Publikum: Gehen wir von 30 aus?
    blinry: Gehen wir von 30 aus.
  • 40:36 - 40:43
    Publikum: Wahrscheinlich 30!
    blinry: lacht
  • 40:43 - 40:45
    Publikum: Das ist hoch!
    blinry: Da wird gesagt, die
  • 40:45 - 40:52
    Wahrscheinlichkeit sei hoch. Und, also –
    über 50 wird gesagt? Mhm. Das habe ich
  • 40:52 - 40:54
    jetzt natürlich auch als Paradoxon
    eingeleitet, wo schon ein bisschen klar
  • 40:54 - 40:57
    ist, dass wahrscheinlich irgendwie was
    Unerwartetes rauskommt. Wenn man da naiv
  • 40:57 - 41:01
    rangeht, könnte man halt denken, okay, 30
    Leute, es gibt irgendwie 365 Tage im Jahr,
  • 41:01 - 41:04
    dass es da irgendwie eine Übereinstimmung
    gibt, ist die Wahrscheinlichkeit nicht so
  • 41:04 - 41:08
    super hoch. Aber dadurch, dass, wenn man
    eine Person einer Gruppe hinzufügt, es
  • 41:08 - 41:13
    halt viel mehr Paare gibt auf einmal,
    steigt diese Wahrscheinlichkeit halt
  • 41:13 - 41:17
    schneller, als man denkt. Wenn man das als
    Graphen aufmalt, kriegt man hier auf der
  • 41:17 - 41:21
    x-Achse die Anzahl Leute und auf der
    y-Achse die Wahrscheinlichkeit, dass es da
  • 41:21 - 41:25
    irgendwie, dass zwei Leute an einem Tag
    Geburtstag haben. Und bei 30 Leuten sind
  • 41:25 - 41:30
    wir da halt tatsächlich über 50%,
    irgendwie so bei 65% oder sowas, was ich
  • 41:30 - 41:35
    wieder erstaunlich hoch finde. Und
    tatsächlich, ungefähr, also, genau – 23
  • 41:35 - 41:39
    Leute ist so die Grenze wo es dann – wo
    die Wahrscheinlichkeit über 50% ist. Weiß
  • 41:39 - 41:43
    jetzt nicht, ob ihr Lust habt, irgendwie
    nach dem Vortrag mal rauszufinden, ob das
  • 41:43 - 41:45
    tatsächlich der Fall ist bei euch
    irgendwie, und die beiden Leute zu finden,
  • 41:45 - 41:49
    die vielleicht am gleichen Tag Geburtstag
    haben, könnt euch irgendwie nach Monaten
  • 41:49 - 42:02
    gruppieren oder so, das werden wir nicht
    anleiten. Aber dieses Ergebnis finde ich spannend.
  • 42:02 - 42:04
    bleeptrack: Im Sommer, vor dem Camp,
  • 42:04 - 42:08
    wollte ich mir einen coolen Stuhl bauen,
    ich habe mir gedacht, der soll irgendwie
  • 42:08 - 42:12
    ein tolles Muster noch haben, und ich habe
    mich ein bisschen umgeguckt im Netz und
  • 42:12 - 42:16
    habe ein spannendes Paper gefunden, das
    heißt „Modeling and visualization of leaf
  • 42:16 - 42:20
    venation patterns“. Klingt jetzt erstmal
    irgendwie wirr. Also, es geht um das
  • 42:20 - 42:25
    Adernwachstum in Blättern. Und die haben
    dann einen Algorithmus beschrieben, der
  • 42:25 - 42:28
    eigentlich ganz simpel ist, den wollte ich
    euch mal zeigen, der ergibt nämlich enorm
  • 42:28 - 42:32
    tolle Ergebnisse. Da können wir mal ein
    paar angucken. Das sind Ergebnisse, die
  • 42:32 - 42:36
    die erzeugt haben damit, bei a) haben sie
    halt erstmal diese Wenigen ganz spärlich
  • 42:36 - 42:40
    wachsen lassen, Richtung e) dann schon
    sehr verzweigt, und ihr seht schon, es
  • 42:40 - 42:44
    gibt auch unterschiedliche Varianten, die
    bei c), die hören so in der Luft auf, und
  • 42:44 - 42:49
    bei e) fangen die Adern an, auch so Loops
    wieder zu schließen, und bei f), g), h),
  • 42:49 - 42:52
    da ist dann praktisch auch noch mal so ein
    bisschen unterschiedliche Parameter, dann
  • 42:52 - 42:56
    bilden sich da größere Zellen oder
    kleinere Zellen. Und wir können uns mal
  • 42:56 - 42:59
    ganz kurz anschauen, wie das funktioniert,
    das ist nämlich gar nicht so schwer.
  • 42:59 - 43:03
    Die gehen davon aus, dass die Blattform
    vorgegeben ist, das ist dieser Umriss bei a.
  • 43:03 - 43:08
    Die schwarzen Punkte, die ihr seht, ist
    die Vene oder die Ader, wie sie bisher
  • 43:08 - 43:12
    gewachsen ist, die wird da in so Punkten
    dargestellt, und die roten Punkte sind
  • 43:12 - 43:16
    Auxine, das sind in Blättern… ich weiß
    nicht, ob das Hormone sind, aber
  • 43:16 - 43:20
    Wachstumsregler in so einem Blatt. Und
    eine Vene möchte zu seinem roten
  • 43:20 - 43:26
    Auxinpunkt wachsen. Diese Auxinpunkte, die
    werden erstmal platziert in diesem Blatt,
  • 43:26 - 43:31
    und danach wird geschaut, welcher
    Venenpunkt oder welcher Adernpunkt denn am
  • 43:31 - 43:36
    nächsten zu welchem Auxinpunkt liegt, das
    sind dann die roten Linien, die ihr in b
  • 43:36 - 43:43
    seht. Und jede Verbindung, jeder
    nächstgelegene Auxinpunkt beeinflusst die
  • 43:43 - 43:47
    Richtung, in die die nächste
    Adernwachstumsphase eingeleitet wird. Das
  • 43:47 - 43:53
    heißt, hier oben, der obere Punkt hier,
    der wird von zwei Punkten beeinflusst, das
  • 43:53 - 44:00
    heißt der Mittel davon, praktisch die…
    genau, die – nee, der wird von drei
  • 44:00 - 44:03
    beeinflusst, sorry, den hier unten hab ich
    vergessen, von den dreien beeinflusst, das
  • 44:03 - 44:07
    heißt die Mittelrichtung ist dann die, in
    die der nächste Punkt gesetzt wird, das
  • 44:07 - 44:11
    wäre dann der hier oben, der wird dann
    platziert. Im nächsten Schritt wird
  • 44:11 - 44:17
    geguckt, es gibt so einen Umkreisradius,
    der wird als Parameter definiert, liegt in
  • 44:17 - 44:22
    diesem Umkreis ein Venenpunkt, dann wird
    das Auxin vernichtet, dann wurde das Auxin
  • 44:22 - 44:27
    praktisch gefressen von der Vene und
    verschwindet. Im nächsten Schritt ist das
  • 44:27 - 44:32
    Blatt dann gewachsen, das heißt man
    skaliert diesen Blatt-Shape einfach ein
  • 44:32 - 44:38
    bisschen größer und setzt dann neue
    Auxinpunkte, die werden erstmal zufällig
  • 44:38 - 44:42
    gesetzt, und dann wird aber geguckt, ob
    zwei zu nahe beieinander liegen, da gibt
  • 44:42 - 44:45
    es dann auch so einen eigenen Umkreis, das
    heißt, wenn zwei sehr nah sind, dann wird
  • 44:45 - 44:48
    auch wieder einer rausgelöscht, so dass –
    das ist ein bisschen wie Poisson disc
  • 44:48 - 44:50
    sampling, also da werden einfach Punkte
    verteilt, dass sie einfach einen
  • 44:50 - 44:55
    Mindestabstand haben, und dann fängt das
    Ganze eigentlich immer von vorne an. Das
  • 44:55 - 44:57
    heißt, es wird immer geguckt, wie viele
    Auxinpunkte gibt es, welche beeinflussen
  • 44:57 - 45:00
    die Ader, das heißt die wachsen immer
    irgendwie so zu dem Auxin, die können
  • 45:00 - 45:06
    dieses Auxin fressen oder verbrauchen, und
    so… naja, so verästeln sich da diese
  • 45:06 - 45:11
    Adern. Und ich habe das dann einfach mal
    implementiert, das sieht dann zum Beispiel
  • 45:11 - 45:20
    so aus, wenn es dann denkt, abzuspielen –
    genau. Was ihr hier aber auch schon seht,
  • 45:20 - 45:24
    was ich in diesem Fall passiert ist, ist,
    dass die Venen mitskalieren, das sind
  • 45:24 - 45:29
    praktisch zwei Modi in der Simulation, die
    die vorstellen, einmal skalieren diese
  • 45:29 - 45:33
    Venen mit in diesem Skalierschritt und
    einmal nicht, und je nachdem, ob man das
  • 45:33 - 45:37
    macht oder nicht, enthält man Adern, die
    einfach sehr blitzförmig nach außen
  • 45:37 - 45:41
    wachsen oder die eben sehr stark nach
    innen verästeln. Das habe ich eben einfach
  • 45:41 - 45:45
    einmal nachimplementiert, das ist
    irgendwie nicht so tragisch, und die
  • 45:45 - 45:47
    ganzen Sachen sind jetzt hier bunt, damit
    man es – damit ich für mich praktisch
  • 45:47 - 45:52
    sehe, wo so einzelne Abschnitte liegen. Im
    letzten Schritt, wenn die Simulation dann
  • 45:52 - 45:56
    fertig durchgelaufen ist, dann kann ich
    noch berechnen, wie dick so eine Ader sein
  • 45:56 - 45:58
    soll, wenn die nämlich mehrere
    Verzweigungen hat, dann ist die Ader
  • 45:58 - 46:02
    natürlich dicker, da fließt ja der
    Adernsaft durch, und wenn diese Adern
  • 46:02 - 46:09
    Richtung Blattende gehen, dann werden die
    dünner. Und das sind noch Ergebnisse, die
  • 46:09 - 46:12
    die auch in dem Paper veröffentlicht
    haben, die ich ganz spannend fand, links
  • 46:12 - 46:16
    ist immer eine Fotografie und rechts deren
    gerendertes Modell auf praktisch den
  • 46:16 - 46:20
    gleichen Umriss, und da sieht man mal, wie
    ähnlich tatsächlich die Ergebnisse sind,
  • 46:20 - 46:24
    also ich finde, mit ihrer Simulation haben
    die das eigentlich ganz gut erfasst, wie
  • 46:24 - 46:31
    das Wachstum funktioniert. Und, wie
    gesagt, es sollte ja ein Stuhl werden, das
  • 46:31 - 46:35
    heißt, ich hatte mir das implementiert und
    habe das dann einfach mal auf meine CNC-
  • 46:35 - 46:39
    Fräse gelegt, die ist leider nicht, naja,
    die ist so eine Eigenbau-CNC-Fräse, also
  • 46:39 - 46:42
    da dauert das alles ziemlich lang, das
    heißt das Ausfräsen von einem so’n Teil
  • 46:42 - 46:46
    hat immer ungefähr 5 Stunden gedauert, und
    ich brauchte zwei von diesen Teilen, damit
  • 46:46 - 46:51
    da ein ganzer Stuhl daraus wird. Da hat
    dann – so eine Platte hat dann zum Schluss
  • 46:51 - 46:54
    so ausgesehen, ich habe von Hand diese
    Quadrate noch eingesetzt, das sind so –
  • 46:54 - 47:00
    „Nuten“ ist falsch, aber der steht
    praktisch, wo ich die Stuhlbeine
  • 47:00 - 47:03
    einstecken möchte, später, und ich habe
    die Venen außenrum geschlossen, damit es
  • 47:03 - 47:08
    ein bisschen stabiler wird. Und das
    Stuhlergebnis schaut dann so aus, die
  • 47:08 - 47:12
    Files sind online auf der Webseite,
    solltet ihr euch den nachbauen wollen, und
  • 47:12 - 47:17
    ich – der Knackpunkt, den ich dann zum
    Schluss festgestellt habe, wenn man so was
  • 47:17 - 47:20
    hat wie Adernwachstum, und man maximiert
    da ja praktisch die Oberfläche, das
  • 47:20 - 47:25
    verästelt sich ja total, dann wird
    Nachbearbeiten von Holz auf einmal ganz
  • 47:25 - 47:28
    spannend, weil man auf einmal sehr viel
    Oberfläche hat, und von Hand mit
  • 47:28 - 47:32
    Schmirgelpapier nochmal jede kleine Ritze
    nachtzuarbeiten, hat sehr viel Spaß
  • 47:32 - 47:36
    gemacht. Aber es ist ein sehr netter Stuhl
    und irgendwie, ja – war ein sehr schönes
  • 47:36 - 47:40
    Projekt für den Sommer mit generativer
    Kunst. Mir wurde gerade 0 Minuten
  • 47:40 - 47:43
    angezeigt, aber nach uns ist niemand,
    stört euch das, wenn wir einfach noch kurz
  • 47:43 - 47:50
    ein paar Minuten weitermachen? Dann machen
    wir nämlich einfach direkt weiter.
  • 47:50 - 48:02
    blinry: Hallo. Danke. Ich möchte euch
    erzählen die Geschichte der illegalen
  • 48:02 - 48:09
    Primzahlen. Und diese ganze Sache hat zu
    tun mit DVDs. Wir haben einige junge Leute
  • 48:09 - 48:16
    im Publikum, wer von euch hatte schon mal
    eine DVD in der Hand? Ich würde auch gerne
  • 48:16 - 48:19
    die Gegenprobe machen, ob jemand das noch
    nicht hatte? Das ist tatsächlich niemand,
  • 48:19 - 48:24
    das ist spannend, da sind wir alle auf
    demselben Level, das ist gut. Also, DVDs.
  • 48:24 - 48:28
    Ihr kamt vielleicht mal in die Situation,
    dass ihr eine hattet und eine
  • 48:28 - 48:31
    Sicherheitskopie davon machen wolltet, und
    dann hat vielleicht das Programm eurer
  • 48:31 - 48:36
    Wahl so etwas gesagt, dass die DVD
    kopiergeschützt wäre und das deshalb nicht
  • 48:36 - 48:41
    ginge. Da haben sich Leute mal Gedanken
    darüber gemacht, wie kriegen wir das hin,
  • 48:41 - 48:44
    das Leute sich nicht einfach irgendwie
    unseren Content kopieren, haben sich ein
  • 48:44 - 48:47
    Verfahren ausgedacht, den Inhalt darauf zu
    verschlüsseln. Das ist ein Verfahren, das
  • 48:47 - 48:54
    nennt sich CSS, lustigerweise, steht für
    Content Scrambling System, und ist halt so
  • 48:54 - 48:58
    ein Verfahren, das irgendwie geheime Keys
    und geheime Verfahren hat und irgendwie
  • 48:58 - 49:03
    die Bits auf der DVD durch einen
    komplizierten Algorithmus routet, den ich
  • 49:03 - 49:05
    mir nicht genau angeguckt habe, wo dann am
    Schluss irgendwie eine entschlüsselte
  • 49:05 - 49:10
    Version rauskommt. Und, naja, die haben
    halt Informationen darüber, wie man das
  • 49:10 - 49:15
    verschlüsseln kann, an Leute gegeben, die
    Content herstellen, und Informationen über
  • 49:15 - 49:19
    Entschlüssellung an Hersteller von
    Abspielgeräten, so authentifizierten
  • 49:19 - 49:22
    Abspielgeräten, die keine bösen Sachen
    damit machen, sondern das nur auf einen
  • 49:22 - 49:28
    Bildschirm leiten oder sowas, und, ja,
    haben gehofft, dass das längere Zeit so
  • 49:28 - 49:33
    bleibt, dass Leute keinen Unfug damit
    treiben. Dann haben sich Leute hingesetzt,
  • 49:33 - 49:36
    sich einen DVD-Spieler genommen, irgendwie
    versucht zu reverse engineeren, wie dieses
  • 49:36 - 49:40
    Verfahren funktioniert und was die Keys
    sind und so, und haben das halt mal in C
  • 49:40 - 49:49
    nachimplementiert, CSS-Descrambling. Das
    ist jetzt so die Hauptfunktion dieses
  • 49:49 - 49:54
    Verfahrens, drumrum im Sourcecode stehen
    noch ein paar längere Tabellen von Zahlen,
  • 49:54 - 49:58
    das sind so ein paar Tables, die hier
    irgendwie mit CSSt2 und so referenziert
  • 49:58 - 50:03
    werden, wo ab und zu mal Lookups drin
    passieren, aber das ist so der Kern davon,
  • 50:03 - 50:07
    und andere Personen haben sich dieses
    Programm genommen, haben dazu eine GUI
  • 50:07 - 50:09
    geschrieben, was es den Leuten sehr
    einfach machte, irgendwie DVDs zu
  • 50:09 - 50:14
    kopieren. Und das gefiel natürlich dann
    vielen Leuten nicht, es gab irgendwie
  • 50:14 - 50:17
    verschiedene Gerichtsverfahren irgendwie
    gegen diese Person, die die GUI
  • 50:17 - 50:21
    geschrieben hat, ich glaube es war ein
    Norweger, und, naja, da wurde es dann
  • 50:21 - 50:25
    relativ schnell knifflig, irgendwie, was
    man dann da eigentlich genau verbieten
  • 50:25 - 50:29
    will, irgendwie wie dieser Algorithmus
    funktioniert oder die Keys oder was? Und
  • 50:29 - 50:33
    Leute haben sich dann tatsächlich mal,
    naja, ein bisschen kreativer damit
  • 50:33 - 50:36
    auseinandergesetzt, wo eigentlich so die
    Grenze liegt zu dem, was eigentlich
  • 50:36 - 50:42
    geschützt werden soll, und dann zum
    Beispiel „DeCSS – The Movie“ produziert,
  • 50:42 - 50:47
    da scrollt im Wesentlichen der Sourcecode
    zu dramatischer Musik durch den Weltraum,
  • 50:47 - 50:50
    so ein bisschen Star Wars-mäßig irgendwie,
    und da ist dann halt die Frage, ist das
  • 50:50 - 50:52
    jetzt irgendwie ein künstlerisches
    Produkt, was schützenswert ist, oder was
  • 50:52 - 50:57
    verboten werden soll, oder wo es da… wie
    ist das so? Oder Leute haben eine
  • 50:57 - 51:01
    dramatische Lesung gemacht des
    Sourcecodes, ich dachte, da hören wir mal
  • 51:01 - 51:06
    kurz rein, das geht 7 Minuten, einfach mal
    so die ersten Sekunden oder so…
  • 51:06 - 51:13
    Aufnahme: Ciphermagi(?) productions
    present: css_descramble.c. Written by
  • 51:13 - 51:26
    Derek Fawcus. Read by Xader Vartec.
    Procedure css_descramble. /***
  • 51:26 - 51:42
    This function does the actual descrambling. *
    sec: encrypted sector (2048 bytes).
    key:
  • 51:42 - 51:46
    encrypted title key obtained from CSS…
    blinry: Und so weiter. Ihr versteht die
  • 51:46 - 51:52
    Idee. Was ist noch passiert? Leute haben
    Haikus geschrieben, also jetzt nicht nur
  • 51:52 - 51:56
    einen, sondern ungefähr – ich glaube 600
    Stück oder so, die beschreiben, wie der
  • 51:56 - 52:00
    Algorithmus funktioniert. Tatsächlich sind
    darin auch die Keys untergebracht, und das
  • 52:00 - 52:04
    ist jetzt hier so ein Kernstück davon,
    also Haikus, ihr kennt das irgendwie: fünf
  • 52:04 - 52:07
    Silben, sieben Silben, fünf, stimmt das?
    So eine japanische klassische
  • 52:07 - 52:10
    Gedichtsform, irgendwie, an die man sich
    relativ strikt halten kann, wenn einem das
  • 52:10 - 52:15
    Spaß macht, und da schreibt dann halt
    jemand: „All we have to do / is this: copy
  • 52:15 - 52:21
    our DKEY / into im1; use the rule above /
    that decrypts a disk key (with / im1 and
  • 52:21 - 52:28
    its; friend im2 as / inputs) – thus we
    decrypt the / disk key im1.“ Und so
  • 52:28 - 52:33
    weiter, über viele, viele Seiten. Ist das
    Kunst? Ist das ein Programm, ist das ein
  • 52:33 - 52:38
    Algorithmus? Wer weiß. Leute haben das
    übrigens auch auf T-Shirts gedruckt und
  • 52:38 - 52:41
    auf Krawatten, und das irgendwie
    angefangen zu verkaufen und zu tragen und
  • 52:41 - 52:45
    so. Naja, und ein Mathematiker hat sich
    mal hingesetzt und hat diese Zahl
  • 52:45 - 52:52
    bestimmt. Die Zahl ist interessant, weil
    wenn man sie in hexadezimaler Notation
  • 52:52 - 52:57
    schreibt, ist das eine ZIP-Datei, die
    dieses C-Programm enthält.
  • 52:57 - 53:01
    Lautes Lachen im Publikum
    Und das ist eine Primzahl, und das macht
  • 53:01 - 53:05
    es so spannend, also der Trick über den
    das gefunden wurde, war tatsächlich, dass
  • 53:05 - 53:09
    bei einer ZIP-Datei, da kann man irgendwie
    beliebig Null-Bytes hinten anhängen, ohne
  • 53:09 - 53:12
    die Bedeutung der Datei zu verändern, und
    das hat halt der Mensch ausgenutzt,
  • 53:12 - 53:15
    irgendwie, um mal ziemlich brute force-
    mäßig irgendwie nach einer bestimmten
  • 53:15 - 53:18
    Regel zu gucken, okay, was sind so
    Primzahlkandidaten davon, irgendwie, und
  • 53:18 - 53:22
    dann mal ein paar darauf zu überprüfen, ob
    es wirklich welche sind und bei einer Zahl
  • 53:22 - 53:26
    hatte er halt Glück, und, genau, hatte
    diese Primzahl, die jetzt vielleicht eine
  • 53:26 - 53:29
    illegale Primzahl ist. Das war die
    allererste, die er gefunden hat, er hat
  • 53:29 - 53:35
    später auch noch eine bestimmt, die
    ungefähr doppelt so lang war, und das war
  • 53:35 - 53:38
    interessant, weil es zu dem Zeitpunkt, zu
    dem der das gemacht hat, das war so
  • 53:38 - 53:42
    irgendwie kurz nach der Jahrtausendwende,
    glaube ich, zu den zehn größten
  • 53:42 - 53:47
    Primzahlen, die bekannt waren überhaupt,
    gehörte, und das machte sie halt allein
  • 53:47 - 53:50
    durch diesen Umstand schon irgendwie
    veröffentlichungswürdig, und dann ist es
  • 53:50 - 53:54
    so gelandet in Highscore-Listen von den
    größten Primzahlen, also, ist auf ganz
  • 53:54 - 53:56
    vielen Webseiten gelandet, und das finde
    ich ein sehr charmanten Hack, irgendwie,
  • 53:56 - 54:07
    die Informationen zu verbreiten.
    bleeptrack: Zum Schluss noch ein bisschen
  • 54:07 - 54:12
    Kunst, ein bisschen Kunst aus dem KI-
    Umfeld, und ich will nicht viel über
  • 54:12 - 54:15
    neuronale Netze reden, nur eine
    Kleinigkeit vorneweg, damit man so ein
  • 54:15 - 54:18
    bisschen ein Gefühl hat, was eigentlich
    passiert. Was wir hier anschauen, ist ein
  • 54:18 - 54:23
    „variational autoencoder“, das ist so eine
    der einfachsten Methoden für ein
  • 54:23 - 54:27
    neuronales Netz, irgendwie Bilder zu
    generieren. Was ihr oben seht, ist ein
  • 54:27 - 54:31
    Teil des Netzes, da kann ich vorne ein
    Bild reinschmeißen, ich sage jetzt mal
  • 54:31 - 54:36
    ganz banal, der macht da Neuronale-Netz-
    Magie, wir landen in einem Raum, der nennt
  • 54:36 - 54:41
    sich „latent space“, das ist eine sehr
    heruntergebrochene Repräsentation von
  • 54:41 - 54:45
    Bildern, und ich kann das ganze auch
    wieder rückwärts machen, um daraus wieder
  • 54:45 - 54:49
    das ursprüngliche Bild zu rekonstruieren,
    das mache ich in meiner Trainingsphase.
  • 54:49 - 54:52
    Das heißt ich schmeiße Bild rein, der
    verwurstelt das, rekonstruiert, und dann
  • 54:52 - 54:57
    gucke ich mir die Differenz an und kann
    mit dieser Differenz praktisch lernen und
  • 54:57 - 55:00
    das Verfahren optimieren. Was ich aber
    auch machen kann, ist, ich schmeiße am
  • 55:00 - 55:05
    Anfang kein Bild rein, sondern steige
    tatsächlich direkt in diesen latent space
  • 55:05 - 55:09
    ein und mach da, such mir da drin, in
    diesem space, in diesem Raum einen
  • 55:09 - 55:13
    zufälligen Vektor und lass den mal
    rekonstruieren, und mal gucken, was dann
  • 55:13 - 55:16
    für ein Bild rauskommt. Das sind so
    Verfahren, mit denen da gearbeitet wird.
  • 55:16 - 55:21
    Und was ich dann halt auch machen kann,
    angenommen, ich habe hier irgendwie zwei
  • 55:21 - 55:25
    Bilder, zum Beispiel irgendwie links
    diesen Hund und rechts diesen – ist es ein
  • 55:25 - 55:30
    Leopard? ich glaube schon, mit zwei
    komischen Ohren, also irgendwas – beim
  • 55:30 - 55:33
    Generieren im Modell auch nicht so toll –
    aber was ihr schon seht, man kann jetzt
  • 55:33 - 55:37
    auch auf einmal Zwischenbilder berechnen,
    ganz spannend, das was man ganz früh in
  • 55:37 - 55:40
    den 90ern mit so komischer Morph-Software
    gemacht hat, kann man mal jetzt mit
  • 55:40 - 55:44
    neuronalen Netzen machen, das heißt, ich
    suche mir die beiden Bilder in diesem
  • 55:44 - 55:48
    latent space und kann dazwischen
    interpolieren. Und das sieht halt viel
  • 55:48 - 55:51
    spannender – diese Interpolation ist viel
    spannender, als tatsächlich auf Pixelebene
  • 55:51 - 55:56
    zu interpolieren, weil auf Pixelebene
    interpolieren wäre überblenden, wie man es
  • 55:56 - 55:58
    in einem Video kennt, ja, ich blende von A
    nach B über, das ist doof, und hier habe
  • 55:58 - 56:03
    ich halt, naja inhaltlich zumindest
    halbwegs korrekte Bilder, die rauskommen,
  • 56:03 - 56:08
    das kann man dann auch in Videos rendern,
    das sieht dann vielleicht so aus. (Den Ton
  • 56:08 - 56:15
    brauchen wir in dem Fall nicht, der ist
    nicht so spannend.) Das Modell hier heißt
  • 56:15 - 56:19
    „Big GAN“, da wurden auch unterschiedliche
    – die Bilder in unterschiedliche Klassen
  • 56:19 - 56:23
    kategorisiert, in Hunde, Blumen und so,
    die benutzen aber keinen variational
  • 56:23 - 56:27
    autocoder, das sind dann andere neuronale
    Strukturen, aber die besitzen halt
  • 56:27 - 56:30
    trotzdem diesen latent space, das heißt,
    diese Interpolation kann ich trotzdem
  • 56:30 - 56:34
    machen. Und dieses Morphing, nenne ich’s
    jetzt mal, das da stattfindet, sieht halt,
  • 56:34 - 56:44
    finde ich, total faszinierend aus. Was man
    dann auch auf einmal machen kann, ist
  • 56:44 - 56:48
    Vektor-Mathe in diesem Raum, das heißt,
    man kann sich mal angucken, ob es
  • 56:48 - 56:52
    bestimmte Vektoren gibt, um die ich diesen
    Punkt verschieben kann in dem Raum, die
  • 56:52 - 56:57
    bestimmte Sachen auslösen, oder ich kann
    mir Punkte in diesem Raum angucken und die
  • 56:57 - 57:00
    halt clustern und zum Beispiel sagen, in
    dem Fall haben wir hier zum Beispiel
  • 57:00 - 57:07
    irgendwie ein Clustering gefunden mit
    Damen, die lächeln, und Damen, die neutral
  • 57:07 - 57:11
    sehen, und jetzt kann ich auch so was
    sagen, wie: Ich nehme den einen Punkt, den
  • 57:11 - 57:16
    einen Vektorpunkt, ziehe den vom anderen
    ab, das heißt smiling woman minus neutral
  • 57:16 - 57:20
    woman wurde auf einmal neutral man, weil
    dieses Frauen-Attribut praktisch
  • 57:20 - 57:26
    wegsubtrahiert wird, ich kann es aber auch
    zum Beispiel ganz unten mit Sonnenbrillen
  • 57:26 - 57:32
    oder mit Brillen machen und sag, man with
    glasses minus man without glasses ist dann
  • 57:32 - 57:36
    auf einmal woman without glasses, weil ich
    das halt auch praktisch wegsubtrahiert
  • 57:36 - 57:40
    hab. Und da kann man sehr viel Spaß mit
    haben, weil wir es ja vorhin von Twitter-
  • 57:40 - 57:46
    Bots hatten gibt es hier nämlich auch noch
    einen, das ist der „smiling vector bot“,
  • 57:46 - 57:53
    der sucht sich einfach Bilder, sucht dann
    dieses Bild passend im latent space und
  • 57:53 - 57:57
    addiert da einen Lächeln-Vektor drauf,
    oder zum Teil subtrahiert ihn dann auch
  • 57:57 - 58:01
    wieder, je nachdem, und es gibt oft so ein
    bisschen creepy Ergebnisse, aber man kann
  • 58:01 - 58:05
    sich da halt mal durchscrollen… vielleicht
    klicken wir nochmal den kompletten Account
  • 58:05 - 58:25
    an, dann schauen wir mal was er aktuell
    gepostet hat… Ups, okay… genau, der postet
  • 58:25 - 58:27
    halt eben auch regelmäßig und nimmt da –
    ich weiß ehrlich gesagt nicht, wo er die
  • 58:27 - 58:31
    Bilder reinfüttert oder wo die herkommen,
    zum Teil macht er das auch auf Videos und
  • 58:31 - 58:38
    morpht da dann hin und her. Was ihr
    vielleicht auch schon gesehen habt, ist
  • 58:38 - 58:45
    „DeepDream“, das ist praktisch so eine
    Überoptimierung auf einem Bild. Ihr seht
  • 58:45 - 58:48
    schon hier (da machen wir auch den Ton
    aus, glaub ich, der ist ein bisschen
  • 58:48 - 58:52
    komisch), hier wurde das auf einem Video
    gemacht, das ist ganz spannend, und ihr
  • 58:52 - 58:56
    seht schon, trainiert wurde das neuronale
    Netz eigentlich auf Bildern von Hunden,
  • 58:56 - 58:59
    das heißt, hier werden sich praktisch
    jetzt überall Hunde reingedacht, und ich
  • 58:59 - 59:04
    glaube… jetzt weiß ich nicht… ich habe
    noch kein LSD probiert, sieht so ein LSD-
  • 59:04 - 59:08
    Trip aus? Aber so würde man sich’s
    vorstellen, würde ich mal sagen, es ist
  • 59:08 - 59:12
    sehr… es ist super trippy und super
    abstrakt, und es ist auch ganz spannend,
  • 59:12 - 59:17
    zu sehen, wo überall so Gesichter und
    Muster auftauchen. Was bei dem Video jetzt
  • 59:17 - 59:21
    auch sehr bemerkenswert ist, ist, dass es
    sehr konsistent ist, also wenn man so
  • 59:21 - 59:27
    einen Kameraschwenk hat, dann bleibt so
    ein Hundegesicht stehen, das war am Anfang
  • 59:27 - 59:30
    bei den ersten Versuchen, so neuronale
    Netze auf Videos anzuwenden, oft nicht, da
  • 59:30 - 59:33
    muss man mal ein bisschen mittricksen,
    dass Sachen da konsistent bleiben,
  • 59:33 - 59:43
    ansonsten wobbelt es noch viel mehr. Ah,
    genau, das habe ich jetzt auch noch vor
  • 59:43 - 59:46
    ein paar Tagen gefunden, das ist noch mal
    so eine Interpolation, aber nur auf
  • 59:46 - 59:54
    Katzenbildern, die fand ich auch irgendwie
    sehr schön. Ich habe auch immer das
  • 59:54 - 59:58
    Gefühl, man sieht halt auch zum Teil, wie
    die Positionen wechseln, also gerade wenn
  • 59:58 - 60:01
    dann der Körper so anfängt, zu wobbeln,
    sind es hat diese ganzen typischen
  • 60:01 - 60:04
    unterschiedlichen Fußpositionen, die die
    Katze so haben kann, die da halt auch mal
  • 60:04 - 60:13
    so durchpermutiert werden praktisch. Ich
    kann übrigens den Twitter-Account generell
  • 60:13 - 60:16
    sehr empfehlen, roadrunner01, ist zwar
    irgendwie so ein bisschen nichtssagend,
  • 60:16 - 60:19
    aber der experimentiert ganz viel mit
    neuronalen Netzen und postet ganz oft so
  • 60:19 - 60:22
    Videos, die sind immer alle ganz spannend
    anzugucken. Und wir waren ja bei Kunst,
  • 60:22 - 60:26
    ich möchte euch noch ein paar
    Kunstprojekte zeigen, die ich sehr
  • 60:26 - 60:30
    beeindruckend fand in der letzten Zeit.
    Das ist von Helena Sarin, die macht ganz
  • 60:30 - 60:34
    viel, und da ist es sehr beeindruckend,
    dass die immer – die Datensätze, mit denen
  • 60:34 - 60:38
    sie ihre neuronalen Netze trainiert, sind
    ihre eigenen Bilder und Fotos und
  • 60:38 - 60:41
    Zeichnungen und sowas, und es ist oft –
    das sieht man nicht oft, weil Leute
  • 60:41 - 60:44
    kratzen sich oft halt irgendwie Datensätze
    von irgendwo oder nehmen so große
  • 60:44 - 60:48
    Bilderdatenbanken, und die macht alles auf
    ihren eigenen Datensätzen und hängt da
  • 60:48 - 60:53
    diverse… also ich glaube, dass die mit
    GANs arbeitet, hauptsächlich aneinander,
  • 60:53 - 60:56
    und generiert da irgendwie oft sehr
    abstrakte Bilder, die meisten Projekte
  • 60:56 - 61:01
    laufen unter dem Namen „GAN Weaver“, dass
    sind oft so Bilder, die dann auch wie so
  • 61:01 - 61:04
    ein Puzzle aneinanderhängen, also die
    finde ich sehr spannend anzuschauen, und
  • 61:04 - 61:09
    in dem Fall war das glaube ich – genau,
    steht auch da, das ist ein Datensatz, das
  • 61:09 - 61:11
    aus zwei unterschiedlichen Sachen
    trainiert wurde, einmal mit blühenden
  • 61:11 - 61:17
    Bäumen und mit Bücherseiten, in denen
    Haikus standen. Anderes schönes Projekt
  • 61:17 - 61:27
    ist von Tom White, der exploitet
    eigentlich neuronale Netze oder
  • 61:27 - 61:32
    Bilderkennungssoftware, und der hat sich
    eine ganz spannende Architektur
  • 61:32 - 61:35
    geschrieben, um praktisch an so abstrakte
    Bilder zu kommen, die aber immer noch
  • 61:35 - 61:40
    erkannt werden von der Bilderkennung,
    also, ihr könnt ja, ich weiß nicht,
  • 61:40 - 61:44
    vielleicht könnt ihr erraten, zum Beispiel
    das hier in der Mitte oben, was denkt ihr,
  • 61:44 - 61:48
    nach was das aussieht?
    Publikum: Flugzeug?
  • 61:48 - 61:53
    bleeptrack: Flugzeug, ja, könnte auch gut
    sein, ist etwas anderes. Das ist wohl auf
  • 61:53 - 61:57
    das Modell von einem Hai trainiert, oder
    mit dem Modell von einem Hai trainiert.
  • 61:57 - 62:01
    Was haben wir noch, wo man vielleicht noch
    ganz gut drauf kommt? Das andere
  • 62:01 - 62:06
    dunkelblaue hier unten vielleicht, genau,
    ist ein Fön, was ich noch im Kopf hab, das
  • 62:06 - 62:09
    hier war „cabbage“, also ein Krautkopf,
    und das hier unten, da stand
  • 62:09 - 62:14
    „jack-o'-lantern“ dabei, also so eine
    Halloween-Kürbis… wie sagt man,
  • 62:14 - 62:17
    geschnitzter Kürbis für Halloween. Und ich
    finde es halt ganz spannend, weil es ist
  • 62:17 - 62:20
    ja sehr abstrakt, aber man erkennt als
    Mensch auch eigentlich schon immer noch
  • 62:20 - 62:25
    ganz gut, was es eigentlich darstellt, und
    der experimentiert da auch in die Richtung
  • 62:25 - 62:30
    sehr viel, finde ich sehr schöne Projekte.
    Uah, das war falsche Richtung, hier sind
  • 62:30 - 62:34
    wir noch. Okay, noch drei kleine Sachen
    zum Schluss. Die sind alle von einem
  • 62:34 - 62:40
    Künstlerduo aus Südkorea, und ich versuche
    das jetzt mal korrekt zu sprechen,
  • 62:40 - 62:44
    „Shinseungback Kimyonghun“ heißen die (und
    ich hoffe, sie nehmen mir das jetzt nicht
  • 62:44 - 62:48
    übel), da möchte ich drei kleine Projekte
    vorstellen. Das erste Projekt heißt
  • 62:48 - 62:52
    „Nonfacial Mirror“, das ist ein Spiegel,
    wie ihr gleich sehen werdet, mit
  • 62:52 - 62:58
    Gesichtserkennung, der aber eigentlich
    nicht möchte, dass man sich darin anschaut.
  • 62:58 - 63:16
    [Unverständlich]
  • 63:16 - 63:20
    Stimmt, ja, aber dreht der sich
    weg von der Person? Ich glaube, der ist
  • 63:20 - 63:23
    umgekehrt, der verfolgt, oder, hab ich das
    richtig gesehen? Der ist praktisch das
  • 63:23 - 63:27
    umgekehrte Äquivalent. Falls man es nicht
    gehört hat, gerade sagte jemand im
  • 63:27 - 63:30
    Publikum, wir haben hier auch so eine
    Installation, das stimmt, da bin ich auch
  • 63:30 - 63:34
    kurz vorbeigelaufen. Den finde ich sehr
    nett. Die Beispiele, die ich jetzt habe,
  • 63:34 - 63:36
    sind alle mit Gesichtserkennung, die
    machen aber auch andere Sachen. Und die
  • 63:36 - 63:39
    haben zum Beispiel einfach mal eine Kamera
    mit Gesichtserkennung in die Wolken
  • 63:39 - 63:42
    gehalten, was man ja sonst so vielleicht
    auch ganz gerne macht und mal so schaut,
  • 63:42 - 63:45
    was in den Wolken erkannt wird, und die
    haben halt sich immer das Bild
  • 63:45 - 63:48
    gespeichert, wenn ein Gesicht erkannt
    wird, und haben das mal sehr groß
  • 63:48 - 63:51
    abgezogen. Und die finde ich zum Teil auch
    sehr schön, weil man wirklich halt oft
  • 63:51 - 63:57
    Gesichter da drin sieht. Und das
    allerletzte Projekt, auch sehr spannend,
  • 63:57 - 64:04
    da haben die andere Künstler gebeten, ein
    Porträt zu zeichnen. Die Challenge dabei
  • 64:04 - 64:08
    war aber, dass von oben eine Kamera auf
    die Leinwand gerichtet wird, mit
  • 64:08 - 64:12
    Gesichtserkennung, und das Ziel war, das
    Porträt sollte eben nicht als Person
  • 64:12 - 64:26
    erkannt werden, und das ist gar nicht so
    einfach. Und der Künstler hatte neben sich
  • 64:26 - 64:30
    stehen den Laptop und konnte halt sehen,
    was wie erkannt wurde. Da liefen
  • 64:30 - 64:34
    unterschiedliche Algorithmen, also ihr
    seht jetzt ja da praktisch immer, zum
  • 64:34 - 64:36
    Beispiel den grünen, roten, oder einen
    blauen Rahmen, ich glaube, da liefen drei
  • 64:36 - 64:40
    Algorithmen parallel, die versucht haben,
    da ein Gesicht darin zu erkennen. Man
  • 64:40 - 64:43
    sieht ja dann schon, wie der Künstler halt
    dann hartnäckig versucht, irgendwie hier
  • 64:43 - 64:46
    Augen anders zu platzieren, später werden
    dann auch mal irgendwie Linien einfach
  • 64:46 - 64:48
    quer durchgemalt, so ein bisschen glaube
    ich vielleicht auch aus Frustration, dass
  • 64:48 - 64:54
    immer noch ein Gesicht erkannt wird. Und
    das haben die mit sehr vielen Künstlern
  • 64:54 - 64:58
    gemacht, die haben alle das gleiche
    Porträt bekommen, und da sind sehr
  • 64:58 - 65:08
    spannende Gemälde dabei entstanden.
    blinry: Gut! Das waren die Themen, die wir
  • 65:08 - 65:13
    euch mitgebracht haben heute. Ich hoffe,
    es hat ein bisschen Spaß gemacht, wir
  • 65:13 - 65:18
    haben die Folien unter dieser URL, da sind
    auch verlinkt die beiden bisherigen
  • 65:18 - 65:23
    Versionen dieses Formats, wenn euch das
    interessiert. Genau. Sonst quatscht uns
  • 65:23 - 65:27
    an, wenn ihr uns rumlaufen seht, wir sind
    irgendwie auf Mastodon und Twitter
  • 65:27 - 65:31
    unterwegs… und dann danke, dass ihr da
    wart, und habt noch einen tollen Congress!
  • 65:31 - 65:35
    Abspannmusik
  • 65:35 - 65:58
    Untertitel erstellt von c3subtitles.de
    im Jahr 2020. Mach mit und hilf uns!
Title:
36C3 Wikipaka WG: Operation Mindfuck Vol. 3
Description:

more » « less
Video Language:
German
Duration:
01:06:01

German subtitles

Revisions