36C3 Vorspannmusik
Herald: Hallo, na? Willkommen auf der
Wikipaka-Bühne im Esszimmer! Es ist 21
Uhr, Primetime, wir sind live, mit
Übersetzung, und bleeptrack und blinry
sind da und haben die inzwischen dritte
Version von Operation Mindfuck, und es
wird sehr lustig. Viel Spaß!
Applaus
bleeptrack: Von uns auch nochmal einen
schönen guten Abend, wir freuen uns riesig
dass ihr alle da seid, hallo in den
Stream, hallo auch ins Wikipaka-
Wohnzimmer, wo vielleicht auch noch ein
paar sitzen, der Raum ist relativ voll,
und mich freut dass ihr euch jetzt alle
schön zusammen gekuschelt habt. Wir haben
heute Abend Kunst, Computer und
Kuriositäten dabei, wir werden uns immer
so ein bisschen abwechseln und spannende
Sachen vorstellen, und zum Start übergebe
ich direkt mal an blinry.
blinry: Jo, danke! Ich fange an mit
Schachvarianten. Ich war vor ein paar
Monaten auf der MRMCD in Darmstadt. Und da
gab’s einen Vortrag über mittelalterliche
Brettspiele, und eines der Spiele, das
gezeigt wurde, war dies. Das ist
irgendwie, es hat spanische Wurzeln, ich
kann kein mittelalterliches Spanisch, aber
vielleicht spricht man es so ähnlich wie
„Grant Acedrex“, bedeutet „großes Schach“,
und ihr seht, wenn ihr Standard-Schach von
heute kennt, dass das auf einem größeren
Feld gespielt wird. Das ist ein
12×12-Feld, und auch die Figuren sehen so
ein bisschen komisch aus, also da gibt’s
irgendwie so die Giraffe, und ich glaube
dieses Ding hier neben dem König ist der
Elefantenvogel zum Beispiel, und die haben
halt sehr ungewöhnliche Bewegungsmuster,
die wir heute so bei unseren Standard-
Schachfiguren nicht kennen. Die Giraffe
zum Beispiel geht glaube ich 2 Felder
diagonal und dann noch 1 gerade, das ist
quasi so eine große – Moment, genau 3
Felder diagonal und 1 gerade, das ist die
große Variante von dem Springer, den wir
heute hätten, und man steigt so über alle
anderen Figuren drüber. Oder der
Elefantenvogel geht 1 Feld diagonal und
slidet dann noch beliebig weit irgendwie
durch die Gegend was auch super weird ist,
irgendwie, wenn ihr mal Schach gespielt
habt. Und es stellt sich raus, es gibt
tatsächlich eine ganze Community hinter
solchen Schachvarianten, die „fairy chess
pieces“ beinhalten, also es gibt irgendwie
Listen darüber, wo Leute sich so was
ausdenken und sammeln und irgendwie lustig
zusammenwürfeln und dann irgendwie sich
neue Schachvarianten ausdenken, das fand
ich beeindruckend. Dieses Spiel, hm, also
die Bauern zum Beispiel ziehen normal,
unten die Seihe ist halt irgendwie – sind
sehr ungewöhnliche Figuren, und damit man
ein bisschen beschleunigt irgendwie den
Ablauf dieses Spiels, gab es auch die
Regel, dass man einen zusätzlichen Würfel
hatte, der bestimmt, mit welcher Art von
Figuren man dann als nächstes ziehen darf.
Na gut. Eine andere Schachvariante, die es
gibt, ist losing chess. Da geht es darum,
dass man möglichst schnell alle eigenen
Figuren verlieren möchte. Es gibt außerdem
Schlagzwang, das heißt, wenn man eine
Figur schlagen kann, muss man das tun,
wenn man mehrere schlagen kann, kann man
sich aussuchen, welche, immerhin. Und der
König hat keinen Sonderstatus, ist eine
ganz normale Figur wir alle anderen auch,
kann sich normal bewegen, kann geschlagen
werden, es gibt kein Schach oder kein
Schachmatt, aber wird zuerst alle Figuren
verliert, gewinnt das Spiel. Und das hat
so ein paar komische Effekte, wo manchmal,
wenn man einen Zug macht, es sehr krasse
Kettenreaktion gibt, wo einfach beide
Spieler die ganze Zeit irgendwie Figuren
schlagen müssen und das nicht mehr stoppen
können. Und in diesem GIF, das die ganze
Zeit spielt, wird zuerst ein Bauer bewegt,
ich glaube, genau, D3 ist der Zug, und das
ist ein sehr schlechter Zug, weil dann
Schwarz, stellt sich heraus, immer
gewinnen kann. Haben Leute irgendwie mal
Modelle aufgestellt und durchgerechnet und
so, es gibt dann eine Folge für Schwarz,
die auf jeden Fall erzwingt, dass Schwarz
alle Figuren verliert. Insofern gibt es so
ein paar Eröffnungsvarianten, die offenbar
für Weiß keine gute Idee sind. „Infinite
Chess“ hat Standardfiguren in
Standardanordnung, aber das Brett ist
unendlich groß, das ist eher so ein
theoretisches Modell, ich glaube – ich
weiß nicht, ob Leute das wirklich spielen,
das ist in der echten Welt ein bisschen
schwierig, aber Leute machen sich darüber
Gedanken und probieren irgendwie mal aus,
ob man da Dinge darüber herausfinden kann.
Also eine sehr merkwürdige Situation, wo
irgendwie man mit der Dame oder sowas eine
Million Felder irgendwie nach oben ziehen
kann, und dann brauchen Bauern erst mal so
ein bisschen, bis sie da hinterherkommen.
Und dadurch ist es komisch zu analysieren,
es gibt irgendwie Leute, die haben sich das
mal angeguckt und haben rausgefunden, dass
es, also, gegeben eine Anordnung dieser
Figuren und eine Zahl n kann man
herausfinden, ob es eine Möglichkeit gibt,
für den aktuellen Spieler, der dran ist,
zu gewinnen in n Zügen. So. Das ist ein
ganz cooles Ergebnis, ist aber nicht so
super hilfreich, irgendwie, um das zu
analysieren oder KIs zu schreiben oder so,
denn eigentlich was man ja machen möchte
ist aus einer bestimmten Position heraus
vielleicht herausfinden, ob die Person,
die gerade dran ist, gewinnen kann
überhaupt. Wenn man weiß, irgendwie, in 10
Zügen kann sie gewinnen, hat das begrenzte
Aussagekraft wenn man dann irgendwie mit
der Dame wie gesagt eine Million Felder
nach oben macht oder sowas, und dann kann
es ganz lange dauern, irgendwie, bis dann
mehr Sachen passieren. Genau, insofern, ja
– theoretische Schachvariante. Es gibt
„Blind Chess“, das is zu unterscheiden –
also, ihr kennt vielleicht „Blindfolded
Chess“, wo Leute sich die Augen verbinden
und dann angesagt bekommen, welche Züge
passieren, und dann irgendwie im Kopf
behalten müssen, wie die Figuren gerade
stehen und was sie machen wollen. „Blind
Chess“ ist noch ein bisschen anders, da
sitzen beide Spieler irgendwie vor einem
Brett jeweils, sehen die Figuren der
anderen Farbe nicht, sehen nur ihre
eigenen Figuren, und kriegen auch nicht
angesagt was passiert oder sowas, das
müssen sie erstmal herausfinden, so
irgendwie durch ein bisschen vorsichtiges
Vorziehen der eigenen Figuren, das können
sie ausprobieren, und denen wird dann
gesagt, wenn es ein ungültiger Zug war,
und dann dürfen sie noch was anderes
probieren. Also kann man sich so langsam
vortasten, und mal gucken, wie die
Position des anderen Spielers ist
irgendwie, darüber Rückschlüsse zu ziehen
und ne eigene gute Strategie zu finden.
Das heißt, man braucht da irgendwie eine
dritte Person, die zwischen den beiden
hin- und herkommuniziert und aufpasst,
dass da nichts Illegales passiert. Ich hab
mal geguckt, es gibt da irgendwie einen
sehr definierten Satz von Wörtern, die
diese dritte Person sagen kann, zum
Beispiel „no“, wenn es ein nicht gültiger
Zug ist, wenn man gerade irgendwie
versucht, über eine fremde Figur zu gehen
oder so was, und wenn man einen Zug macht,
der unabhängig von den Figuren des anderen
Spielers nicht möglich wäre, sagt die
Person „hell no“, das gefiel mir irgendwie.
Genau, das ist noch so eine
kleine Webseite, oh ja, da muss jetzt
tatsächlich auch mal rausklicken, gucken,
schauen wir uns mal an, das hat
geschrieben irgendwie ein Mensch, Pippin
Barr, der auch sonst total interessante
Spielprototypen baut, und in dem Fall sind
es halt auch tatsächlich mal
ausprobierbare Schachvarianten. Was ich
zum Beispiel sehr gerne mag, ist sowas wie
„Quantum Chess“. Man kriegt nicht erklärt,
was die Regeln sind, man muss das durch
Ausprobieren herausfinden. Wir machen mal
irgendwie einen Zug, einen Bauern, so – da
haben wir zwei Bauern auf einmal. Jetzt
ist Schwarz dran – es gibt da leider keine
KIs oder so, man kann halt mit zwei
Menschen gegeneinander spielen, aber
dieses System achtet dann schon auf
Einhaltung der Regeln. Also in dieser
„Quantum Chess“-Variante ist es so, dass,
wenn man einen Zug macht, dann geht die
Figur auf alle möglichen Positionen, die
gehen. Wenn wir jetzt hier irgendwie mit
der Dame einen Zug machen, haben wir auf
einmal sehr sehr viele Damen, was
vielleicht praktisch ist, vielleicht ist
es aber auch irgendwie störend. „Quantum
Chess“. Dann wollte ich euch noch zeigen…
„Gravity Chess“ zum Beispiel…
Können auch versuchen, einen Zug zu machen –
Gelächter im Publikum
blinry: ihr lacht schon! Genau. Und so
weiter. Und dann rucken irgendwie alle
Figuren immer nach. Und auch das ist
tatsächlich spielbar, es gibt irgendwie
Leute, also, diese Person hat das
vertwittert und andere Leute haben das
gespielt, und haben dann so irgendwie
Endsituationen dieses Spiels gezeigt,
irgendwie, wo nur noch sehr wenig geht und
dann irgendwie auch Personen schachmatt
gesetzt werden. Find ich cool. So, und als
Letztes wollte ich euch noch zeigen:
Schachboxen! Vielleicht habt ihr davon mal
gehört. Das ist ein ernstzunehmender
Sport, ursprünglich startete das mal als
Kunstprojekt, wo sich jemand dachte, ha,
wäre irgendwie lustig wenn Leute
abwechseln Schach spielen und boxen, das
war dann aber so beliebt dass das
irgendwie richtig populär wurde und es
gibt jetzt ganz viele Schachbox-Vereine,
die irgendwie Wettkämpfe darin
organisieren und so, es funktioniert so:
es ist in Runden aufgeteilt, man spielt
drei Minuten Schach und dann boxt man für
drei Minuten, jeweils abwechselnd. Und man
kann gewinnen entweder durch, dass man den
Gegner K.O. schlägt, oder dass man ihn
schachmatt setzt. Außerdem sagen die
Regeln, dass man aufgeben kann, und das
ist explizit hervorgehoben, dass man das
sowohl in dem Schachteil als auch im
Boxteil tun kann. Find ich gut. Alles
klar. Dann leite ich über an Bine.
bleeptrack: Eine Sache, die mich in
letzter Zeit öfter beschäftigt hat, sind
Twitter-Bots, im Speziellen so
künstlerisch angehauchte Twitter-Bots.
Unter Twitter-Bot versteht man eigentlich
einfach einen Twitter-Account, hinter dem
irgendwie ein Programm hängt, das autonom
Sachen postet, oft so einmal am Tag,
einmal die Woche, mehrmals am Tag, und
dann aber auch ganz unterschiedliche
Sachen, und ich hab euch mal eine kleine
Reihe meiner Lieblings-Twitter-Bots
mitgebracht. Einer, der ist ganz einfach,
der heißt „endless screaming“ und postet
einfach immer nur „aaaah!“ in
unterschiedlicher Länge (das ist ganz
wichtig). Ein anderer ist „Big Ben Clock“,
der ist so ähnlich, der schreibt einfach
immer nur die Glockenschläge der Londoner
Uhr aus, aber natürlich auch immer
zeitlich passend. Nächster, der ist auch
sehr schön, der heißt „choose to accept“
und er gibt einem immer Geheimmissionen,
die er zufällig generiert. Eine ist zum
Beispiel: „Your mission, should you choose
to accept it, is to sneak into the casino
of Colin the Hairstylist. There, you must
steal the Horn of Plenty, Melvin the rent-
a-mab, inflate Colin, and finally escape
using a secret tunnel.“ Die sind oft sehr,
naja, wirr, und werden einfach zufällig
aus so einer Grammatik und aus
Satzbausteinen generiert. Dann gibt's noch
den Cocktail-Bot, da seh ich jetzt gerade,
dass leider in dem Beispielbild kein
schönes Beispiel dabei steht, aber der
baut sich auch aus zufälligen Zutaten
witzige Cocktails zusammen, und man kann
den antwittern, also der ist interaktiv,
also man kann dem irgendwie schreiben
„misch mir einen…“ und dann denkt man sich
einen schönen Cocktailnamen aus und dann
denkt der sich halt rückwirkend aus, was
denn das so für ein Cocktail sein könnte.
Und da sind dann halt auch oft die
absurdesten Zutaten drin – und wir möchten
Linux gerade nicht updaten – und was jetzt
noch ein neues Feature bei dem Bot ist,
ist, dass man noch sagen kann „surprise
me!“ und dann baut er sich eben einen ganz
zufälligen Cocktail und twittert den
zurück. Dann gibt es noch den „Amazing
Bot“ oder den „Mazing Bot“, der macht
Labyrinthe die er zufällig generiert, und
man kann da spielen, das ist sehr schön,
das sieht dann zum Beispiel so aus, dass
wäre die Startposition, man kann dann
unter dem Tweet antworten mit einer
Richtung – in dem Fall macht jetzt nur
„up“ und „down“ irgendwie großartig Sinn –
und wenn man den angetwittert hat, dann
postet er da drunter wieder ein neues Bild
mit dem neuen Zustand, das heißt man kann
praktisch kollaborativ so ein kleines
Labyrinth lösen. Dann ist noch einer, der
gefällt mir besonders gut, das ist der
„Nixie Bot“, da hat sich jemand – steht
das hier sogar drin, wem er gehört? glaube
leider nicht – da hat sich jemand so eine
Nixie-Tube-Uhr oder so einen Nixie-Tube-
Aufbau gebaut, und man kann den Bot dann
antwittern mit einem… oh nein, probieren
wir mal nochmal, ja, sehr schön – mit
einem Text, und das wird dann
eingeblendet, da steht eine RasPi-Cam
davor, die filmt das ab oder macht ein
Foto, je nachdem, was man dem Bot schickt,
und man bekommt es zurückgetwittert. Es
dauert oft ein paar Minuten und es ist
halt – also ich find's super witzig
anzusehen, weil der Herr oder die Person,
muss kein Herr sein, die Person die den
Twitter-Bot hat, die sieht man schon, die
dekoriert auch ab und zu diese Nixie-Tube
mal ein bisschen um, und man sieht halt
auch immer die Tageszeit, die da halt
gerade herrscht, mal ist der Raum
irgendwie dunkel wenn es mitten in der
nacht ist oder halt mal leuchtet, wenn es
gerade Tag ist, und das ist halt irgendwie
sehr lebendig und der Bot postet auch
immer noch einen so’n Tagesrückblick, also
alles, was pro Tag an diesen Bot geschickt
wurde, wird dann noch mal zu so einer Art
Zusammenfassungsvideo verarbeitet und noch
einmal pro Tag gepostet, und den kann ich
sehr empfehlen, also twittert den mal an,
wenn ihr schon immer euren Nickname in
Nixie-Tubes geschrieben haben wolltet,
dann ist der wirklich sehr nett.
Zum Schluss möchte ich euch noch auf einen
meiner Bots aufmerksam machen, den ich mal
gebaut habe, der lebt nicht auf Twitter in
dem Fall, sondern auf Mastodon, das ist
der Touritafel-Bot. Touritafel, kurz für
„touristische Unterrichtungstafel“, das
sind diese Tafeln, die ihr wahrscheinlich
von der Autobahn kennt, die da immer so an
der Seite stehen und oft auch so ein
bisschen obskur sind und irgendwie darauf
hinweisen, für was diese Region oder diese
Stadt gerade bekannt ist. Und ich habe
einen Bot gebaut, der sich solche Tafeln
generieren kann, der holt sich hier Daten
aus zwei Datenbanken, einmal aus Wikidata,
wenn ihr hier in der WikipakaWG sitzt,
dann kennt ihr vielleicht auch Wikidata,
das ist das Schwesterprojekt zur
Wikipedia, nur als maschinenlesbare
Datenbank, und da hole ich mir Städtenamen
und Objektenamen raus, das heißt es sind
alles, ja, irgendwie reale Objekte und
Städte die da verarbeitet werden, dann
brauche ich noch ein Icon, das hole ich
mir aus „The Nouns Project“, das ist so
eine Ansammlung von SVG-Grafiken, die man
benutzen kann, und mein Bot verbastelt das
dann eben zu einem Bild, das so in etwa
nach so einer Touritafel aussieht, und ihr
seht schon, die sind halt auch oft sehr
obskur, dann gibt es halt so was wie ein
Pommes frites Museum oder ein, was haben
wir da noch schönes, oh es sind alles
Museen zufällig, normalerweise variiert
der Text immer noch ein bisschen mehr, das
sind dann auch mal irgendwie, keine
Ahnung, die Kuchenstadt Magdeburg oder
sowas kann dann auch mal rauskommen. Und
der Grund, warum der Bot zum Beispiel auf
Mastodon lebt, ist finde ich auch eine
sehr spannende Geschichte. Vor einiger
Zeit hat Twitter seine API-Schnittstelle
geändert, ich weiß nicht ob ihr das
mitbekommen habt, und das ist mittlerweile
sehr viel schwerer, sich so einen API-
Schlüssel abzuholen bei Twitter, man muss
mittlerweile so ein ganzes Formular
ausfüllen, was man denn gedenkt zu tun,
für was man diesen Twitter-Account
überhaupt benutzen will, und eigentlich
will Twitter diesen API-Schlüssel am
liebsten gar nicht mehr rausgeben, und das
hat diese Twitter-Bot-Kunstszene
tatsächlich sehr aufgerüttelt, weil es
jetzt schwerer geworden ist, neue Bots zu
bauen, weil zum Teil auch alte Bots durch
eine eingeschränkte API einfach nicht mehr
funktionsfähig sind. Und dann kommen auch
auf einmal ganze Diskussionen hoch, gerade
wenn es um Medienkunst geht, wie gehe ich
denn eigentlich auch um Archivierung, wie
gehe ich damit um, wenn Sachen eingestellt
werden, nicht mehr funktionieren, das ist
natürlich problematisch, Medienkunst zu
archivieren, weil sich Technik so schnell
verändert und so schnell wandelt. Und der
Ausweg, den sehr viele gefunden haben, ist
Mastodon, eine Twitter-Alternative, die
dezentral funktioniert, und da gibt es
eine eigene Instanz, die heißt
„botsin.space“, und auf der leben jetzt
nur solche künstlerisch angehauchten und
witzigen – also nicht mehr Twitter-,
sondern Mastodon-Bots dann in dem Moment.
Kann ich euch sehr empfehlen da mal
durchzuklicken, da gibt es auch sehr sehr
viele schöne Projekte. Und wenn ihr mal
Lust habt, vielleicht selber so einen Bot
zu bauen, dann kann ich euch ein paar
Sachen empfehlen. Einmal gibt es die
„Botwiki“. Das ist ein Projekt, wo eben
solche Bot-Varianten gesammelt werden,
klickt euch da mal durch, die ist noch
nicht sehr voll und nicht sehr
vollständig, finde ich, also – vielleicht
findet ihr auch mal einen Bot, den ihr
besonders gern mögt, dann tragt den da
gerne ein, aber man kann sich da auch
hervorragend durchklicken und mal sich
anschauen, was andere so machen. Da gibt's
Bots, die machen Gedichte oder die machen
Musik, also da gibt’s massig, das man
erkunden kann. Und wenn ihr wirklich
selber einen bauen wollt, dann gibt es die
Seite „Cheap Bots, Done Quick!“, die ist
dafür da, um sehr schnell praktisch so
einen Bot zu hosten, ohne großartige
Vorkenntnisse, und das kann man dann auch
noch ergänzen mit Tracery, das ist ein
Tool, mit dem man sich sehr einfach
Grammatiken bauen kann um zum Beispiel
Texte zu generieren, aber auch um Bilder
zu generieren. Wenn euch das noch mehr
interessiert, das habe ich leider nicht
verlinkt, aber dann könnt ihr nochmal bei
blinry auf seinem Blog schauen, der hat da
nämlich auch mal einen schönen Workshop
gehalten – wurde der aufgezeichnet? Leider
nicht. Aber da hast du Folien online?
Genau, dann schaut doch mal auf blinrys
Blog, dann gibt es da Folien, wie das ganz
genau funktioniert.
blinry: Als nächstes geht es um Ray
Marching und Signed Distance Functions.
Das klingt ganz furchtbar gruselig, aber
ich erkläre euch mal, wie ich dazu kam.
Wir waren vor ungefähr drei Jahren mal auf
einer Demoparty in Köln, der Evoke, das
ist so ein Treffen, da tun sich einige
hundert Leute zusammen und setzen sich
irgendwie für ein paar Tage in dunkle
Hallen und setzen sich an ihre Laptops und
coden irgendwie coole Videos, also, die
coden irgendwie kleine Schnipsel, die also
sehr interessante grafische und audiell
interessante Dinge tun, so ein paar
Minuten. Und es gibt dann verschiedene
Kategorien, unter denen sie die einreichen
können, verschiedene Wettbewerbe. Und
einer davon ist eine Einschränkung für das
Programm, das man da schreibt, dass das
Programm eine bestimmte Größe nicht
überschreiten darf. Und dann zum Beispiel
so eine Größenbeschränkung hat wie vier
Kilobyte zum Beispiel. Was, finde ich,
unglaublich wenig ist, sind halt so ein paar
Zeilen – ein paar Seiten Code im
Wesentlichen. Und die Herausforderung ist,
mit dieser Platzbeschränkung irgendwie
coole Dinge zu tun. Was da dann zum
Beispiel rauskommt ist sowas hier, also
das ist jetzt eine 4k-Demo von der Evoke,
die total spannende komplexe Geometrien
beinhaltet. Gucken wir mal ein bisschen rein.
Ne, man sieht da irgendwie diese
Nebeleffekte im Raum, irgendwie eine
interessante Kameraführung und so, und man
fliegt dann da durch so eine fraktale
Geometrie durch. Gehen wir mal ein
bisschen weiter hinten rein… So, da
bewegen sich Sachen in dieser Welt, und –
oh, übrigens haben wir auch Musik,
irgendwie, das ist auch durch diesen Code
generiert, in dem Moment, also das läuft
alles live auf dem Rechner. Also irgendwie
so die Oberfläche schillernd, als wäre da
Nebel, naja. Und ich saß da mit offenem
Mund und habe gedacht: wie machen die das?
Wie kriegen die mit so wenig Code
irgendwie so komplexe Sachen hin? Und dann
habe ich auf der Rückfahrt im Zug
irgendwie so ein bisschen recherchiert und
bin auf eine Sache gefunden, die Leute
immer wieder erwähnt haben, nämlich
Fragment Shaders. Das ist ein OpenGL-Ding,
da geht es darum, dass man ein kleines
Programm schreibt, was, wenn man ein Bild
erzeugen will, für jeden Pixel einzeln
ausgeführt wird. Also man kriegt die
Pixel-Koordinaten in dieses Programm rein,
das Programm rechnet einem dann irgendeine
Farbe aus, die dieser Pixel haben soll.
Und der Vorteil ist, wenn man das so
macht, kann man das super gut
parallelisieren. Grafikkarten sind halt
darauf ausgelegt, dass die total parallel
für ganz viele Pixel gleichzeitig
irgendwie dann diese Farbe ausrechnen
können. Dafür ist diese Technologie
gedacht. Und ich habe online dieses Buch
gefunden, „The Book of Shaders“, das sich
selbst nennt, irgendwie, „a gentle step-
by-step guide through the abstract and
complex universe of Fragment Shaders“. Das
ist wirklich gut, das kann ich empfehlen,
das nimmt einen sehr nett an die Hand,
irgendwie, und zeigt einem mal wie das
funktioniert, zeigt einem so ein paar
Generierungsmöglichkeiten für komplexere
Geometrien und so. Allerdings macht das
nur 2D-Kram, also damit kann man jetzt
noch nicht diese Demos bauen, die wir da
gesehen hatten. Dann habe ich ein bisschen
weiter geguckt und habe noch andere
Webseiten gefunden und bin auf
verschiedene Techniken gestoßen, um
3D-Geometrien – also, 3D-Grafik zu machen.
Was ich in der Uni schon mal gehört hatte
und was ihr vielleicht auch mal gehört
habt ist „Raytracing“, wo man im
Wesentlichen – wenn man so ein Bild
ausrechnen will, das aus verschiedenen
Pixeln besteht, dann schießt man von der
Kamera aus, die irgendwie sich im 3D-Raum
befindet, für jeden Pixel einen Strahl in
die Szene rein und guckt mal, wo der
auftrifft. In der Szene können dann, weiß
ich nicht, hier, Kugeln sein oder
irgendwie komplexere Sachen, und man guckt
sich dann im Wesentlichen an, wo trifft
dieser Strahl, den ich gerade schieße, als
erstes auf, und welche Farbe hat das
Objekt, und so ein bisschen vielleicht wie
ist das schattiert, liegt das im Schatten,
ist das irgendwie besonders angeleuchtet
oder sowas, und diese Farbe kriegt dann
halt der Pixel. Das ist so ein
Standardverfahren, um irgendwie hübsche
3D-Geometrie zu rendern. Damit kann man
dann sehr gut so was machen wie
Glasobjekte, zum Beispiel, oder irgendwie
weiche Schatteneffekte und so was. Und das
ist eine Technik, die sehr lange es schon
gibt und sehr etabliert ist, allerdings hat
sie ein Problem, nämlich wenn man sehr
komplexe Geometrie hat, dann sind diese
Schnitttests total kompliziert. Also, wenn
man herausfinden will, ob der Strahl jetzt
mit irgendwas davon kollidiert, ist das
vielleicht super aufwendig herauszufinden.
Insofern eignet sich das nicht so gut für
diese Demo, die ihr da gerade gesehen habt
zum Beispiel. Sondern was man da macht ist
ein anderes Verfahren, das nennt sich
„Raymarching“. Hatte ich vorher noch nie
gehört. Was macht man da? Man definiert
sich eine mathematische Funktion, die
einem für jeden Punkt im Raum gibt den
Abstand zur nächsten Oberfläche eines
Objekts. In diesem Beispiel ist das 2D,
aber das funktioniert auch in 3D. Also
stellt euch vor, irgendwie, ihr habt
irgendwie eine Funktion, da tut ihr eine
Koordinate rein, und ihr kriegt eine
einzelne Zahl raus, und die sagt euch
dann, okay, die nächste Oberfläche ist
irgendwie einen Meter weit weg oder sowas.
Und wenn ihr dann wieder die Sache macht,
einen Strahl in die Szene zu schießen,
dann könnt ihr halt, wenn ihr wisst, okay,
der Strahl ist irgendwie hier, die nächste
Oberfläche ist einen Meter weg, ich weiß
nicht, in welche Richtung, aber irgendwie
einen Meter ist sie weg, dann ist halt in
einer Kugel mit einem Meter Radius auf
jeden Fall kein Objekt drin. Das heißt,
ich kann einen Meter nach vorne gehen,
ohne gegen irgendwas gegen zu stoßen. Dann
mache ich das und werte dann diese
Funktion für den Punkt, an dem ich
angekommen bin, noch mal aus. Und die sagt
dann vielleicht, okay, das nächste Objekt
ist einen halben Meter weg oder so, gehe
ich wieder einen halben Meter nach vorne,
und das wiederhole ich so lange, bis der
Abstand zu einem Objekt ausreichend klein
ist. Also in dieser Grafik ist es halt für
den 2D-Fall demonstriert, wo man bei P0
anfängt und dann irgendwie als erstes so
einen Abstand kriegt entsprechend des
Radius dieses Kreises, den man dann
vorwärts geht, und das so lange
wiederholt, bis man irgendwo auftrifft.
Und, genau, das kann man halt auch in 3D
machen, und dadurch dann sehr elegant
irgendwie Formulierungen finden für diese
komplexen Geometrien, die ihr gesehen
habt, wo man dann vielleicht Teile des
Raumes beschreibt und die dann periodisch
wiederholt oder so was, dann kann man
diese Funktion auch einfach wiederholen.
Naja, und wenn man das richtig gut kann,
kann man damit halt so coolen Scheiß
machen. Ich habe Anfang letzten Jahres
auch mal einen kleinen Workshop dazu
gemacht – wir verlinken die Folien
nachher, dann könnt ihr euch das angucken
wenn euch das interessiert – wo ich auch
nochmal so ein bisschen demonstriere, wie
das funktioniert, und dann auch anfange
irgendwie, erstmal so mit dem 2D-Fall,
irgendwie, wie man da einzelne Formen
malt, wie man irgendwie sich Kreise
definiert und irgendwie den Farben
zuordnet und so, und später kann man dann
vielleicht verschiedene 2D-Formen haben
und sie so ein bisschen verschmelzen…
gucken, ob ich da eine Stelle finde,
genau, hier so was… das ist dann auch mit
dieser distance function total einfach,
sich das zu definieren, dass man halt
irgendwie die Mittelpunkte der beiden
Kreise hat und sich dann diese bisschen
komplexere, bisschen, ja, irgendwie
bouncy, knetbar aussehende Oberfläche
erzeugt. Und von da kann man dann halt
weitergehen in den 3D-Raum und da im
Wesentlichen das Gleiche machen, sich dann
irgendwie, zum Beispiel hier so einen
Würfel mit runden Ecken definieren, wie
gesagt, und dann irgendwie irgendeinen
Untergrund bauen und dem vielleicht Wellen
geben, und am Schluss dann das Ganze
irgendwie ganz oft wiederholen, und da hat
man so einen Flug durch irgendwie eine
komplexe 3D-Welt mit Code, das sind
ungefähr so, weiß nicht, vielleicht die
doppelte Menge Code, die ihr da seht, oder
so was, die man braucht um das zu
schreiben. Naja, und insgesamt, sowohl
Fragment Shaders als auch dieses
Raymarching sind halt zwei Ansätze, Grafik
zu machen, die ich vorher so noch nicht
kannte und die mich ziemlich umgehauen
haben, und ich dachte das interessiert
euch vielleicht auch. Wenn man das richtig
gut kann, kommt dabei so was raus. Das ist
ein Mensch, der heißt – also der nennt
sich IQ und macht so was seit vielen,
vielen Jahren, und ich gucke mal, wenn man
ans Ende springt – also das ist ein Video,
in dem er tatsächlich mal erklärt, wie er
arbeitet und wie seine Demos
funktionieren, und einen da mitnimmt – ihr
seht, das geht irgendwie knapp sechs
Stunden, also das ist kein triviales
Programm, ich hätte gerne… mal gucken, ob
ich noch eine animierte Version davon
finde, das ist halt so eine kleine
niedliche Figur, die durch die Gegend
springt, genau. Und sowohl der Untergrund
bewegt sich als auch diese Figur bewegt
sich, Und da hat IQ halt genau das Gleiche
gemacht, sich eine Funktion definiert, zum
Beispiel, die einem den Abstand zu der
Oberfläche des Körpers dieser kleinen
Figur angibt, und darüber kann man das
rendern. Und generell hat dieser Mensch
auch eine Webseite mit sehr, sehr guten
Ressourcen zu dem Thema. Genau! Soweit dazu.
bleeptrack: Vor einigen Jahren habe ich
mal angefangen, jeden Tag ein kleines
Bildchen zu zeichnen und das zu
veröffentlichen, und denen hab ich einen
Namen gegeben, die heißen jetzt Schnipsel,
das eben so kleine snippets sind, die eben
einfach jeden Tag entstehen. Und ich
wollte einfach mal so ein bisschen was
davon erzählen. So richtig genau weiß ich
eigentlich nicht mehr, warum ich damit
angefangen hatte, aber es ging auf jeden
Fall ein bisschen darum, besser zu
reflektieren, was man so macht, das habe
ich während dem Studium noch angefangen,
und euch geht’s vielleicht ähnlich wie
mir, ich bin so jemand der mal voll gern
so Projekte anfängt, aber dann vielleicht
auch nicht fertig macht oder so ein Jahr
später mal wieder dran weiterbastelt, und,
naja, ich hatte irgendwie das Gefühl, ich
verliere so ein bisschen den Überblick,
was ich eigentlich am Tag mache, und dann
studiert man noch und macht noch irgendwie
3000 andere Sachen parallel, dann fand ich
es eigentlich immer schön, immer am Ende
vom Tag oder am Beginn des nächsten Tages
so ein bisschen zu reflektieren, was war
denn der wichtigste Punkt in meinen
letzten 24 Stunden? Und nachdem ich ganz
gern zeichne und auch das Gefühl hatte,
während meinem Informatikstudium, ich
zeichne gar nicht mehr so viel, dachte
ich, ich halte das einfach in kleinen
Bildern fest. Und für mich war dann halt
irgendwie wichtig, dass das auch irgendwie
schnell gehen muss, und – können wir jetzt
hier mal schon auf diesen Link klicken –
ich habe kürzlich mal bei Twitter
praktisch so einen kleinen Screencast,
wenn man das so nennen will, aufgenommen,
wie ich das zeichne. Also es musste für
mich halt irgendwie schnell gehen, das ist
halt wirklich wie so ein scribble, ich
mach da nicht lange rum, ein so’n Bild
dauert vielleicht irgendwie zehn Minuten
oder eine Viertelstunde oder so was, und
ich habe hier so ein Thinkpad, das hat so
einen integrierten Digitizer, also einen
Stift, das heißt ich kann das direkt
digital machen, ich brauche da gar kein
Papier, und probier halt einfach so ein
bisschen rum, und verzichte auch irgendwie
komplett auf Farbe, weil ich irgendwie für
mich festgestellt hab, ich bin echt
schlecht im kolorieren, und für so was
reicht es total, irgendwie ein bisschen
mit Schwarz-weiß zu arbeiten, aber
Schatten haben mir Spaß gemacht, also ich
hab immer so ein bisschen Schattierungen
reingezeichnet. Die Auflösung ist auch
total popelig, sind irgendwie 250 x 250
Pixel, das schränkt einen auch nochmal
ziemlich ein, weil man dann so richtig
Details eigentlich auch nicht mehr
festhalten kann, ist im Nachhinein
vielleicht ein bisschen schade, weil ich
manchmal mittlerweile das Gefühl hätte,
ich würde mir gerne auch mal so einen
großen Abzug machen mit so einer Sammlung,
und dann ist die Pixelauflösung
tatsächlich ein bisschen arg gering, und
ich hab dann auch irgendwann angefangen,
die, wie ihr hier seht, einfach mal auf
Twitter zu posten, weil ich dachte, das
ist immer so ein bisschen schade, ich habe
die zwar immer auf meine Webseite gepackt,
aber da versauern die halt, da guckt die
eigentlich irgendwie niemand an. Und dann
hatte ich mal gefragt, würde sich das
jemand angucken, wenn ich das auf Twitter
posten würde? Dann kam von ein paar Leuten
so, ja, ich würde mir das angucken, und
dann hab ich das jetzt einfach mal
probiert. Das ist einfach ein Bot das auch
immer jeden Tag direkt mit auf meinen
Twitter-Account haut, und ich habe
tatsächlich auch sehr positives Feedback
dann bekommen, weil ich habe oft mal auch
so Tage, wo es halt so stressig, und ich
verchecks dann einfach, die zu zeichnen,
das kommt schon auch mal vor, beim
Scrollen habt ihr vielleicht auch gesehen,
da gibt es ein paar Monate wo fast gar
nichts drin ist, da hatte ich einfach so
viel Stress, dass ich es nicht gebacken
bekommen habe. Dann haben auch wirklich
Leute geschrieben, ist voll schade, dass
du gerade nichts zeichnest, ich freue mich
eigentlich jeden Tag auf dein kleines
Bildchen. Und blinry hat es zum Beispiel
auch mal ausprobiert, einen Monat lang,
das könnt ihr euch gerne auch mal
angucken, oder wir klicken da vielleicht
auch mal drauf, dann können wir das mal
groß machen. Du hast dir ein anderes
Format ausgesucht, du hast das immer so
kreisförmig gemacht, und du hattest das
auch schon mal gemacht mit… Achtecken,
wenn ich das richtig im Kopf habe, oder
Sechsecken, oder hast dir immer andere
Formate ausgesucht, das finde ich auch
sehr schön. Bei mir ist halt quadratisch,
blinry hat ja auch so einen schönen
Monatszusammenschluss gemacht und das halt
von Hand gezeichnet, das ist auch
irgendwie sehr schön und sehr ästhetisch,
wie ich finde. Und ich hatte ja schon
gesagt, ich hab das jetzt gerade auf so
einem Bot laufen, und kürzlich hatte ich
halt nochmal eine API dazugenommen, dass
er noch wo posten soll, und hab dann so
einen Fehler nicht abgefangen, und dann
ist mein – bin ins Bett gegangen, das war
irgendwie so eine dumme Idee, und dann ist
mein Bot ein bisschen Amok gelaufen, hat
alle zehn Minuten das gleiche Bild noch
mal gepostet, und dann kam halt irgendwie
von 20 – also, früh wacht man dann halt
auf, und man sieht dann irgendwie so aus…
Aber ich hatte halt irgendwie die ganze
Inbox voll mit „Oh, dein Bot läuft Amok!
Oh mein Gott, die ganze Timeline von mir
wird zugespamt! Das kann ja nicht wahr
sein!“ Und irgendwelche haben dann schon
runter geschrieben, „hihi, die schläft,
die Nacht ist noch lang“, und ich bin auch
irgendwie, ich dachte, das war so ein Tag,
wo ich so ausgeschlafen habe bis um 10,
und das war dann halt irgendwie nicht so
schön, aber das Schöne ist, wenn man halt
täglich ein kleines Bildchen zeichnet,
dann kann man da halt auch einen kleinen
Witz draus machen, mit einem fiktiven Bot,
der sagt, „Hm, diesen Schnipsel mag ich
sehr, sehr gerne! Und den zeige ich jetzt
die ganze Nacht über“, und, naja. Ich
finde – ich möchte euch eigentlich ein
bisschen dazu ermutigen, mal so eine
Reflektionstechnik sich auszusuchen, weil
ich finde, das bringt einem sehr viel,
gerade auch so – man hat so Tage wie den
Congress, da passieren irgendwie 3000
Sachen an einem Tag, und die Tage
verschwimmen so ineinander, und ich habe
auch festgestellt, man kann – man hat –
man findet so den positiven Aspekt in
einem Tag, auch wenn es vielleicht eher so
ein Scheißtag war, und man kann sich viel
besser – also ich kann mich zumindest viel
besser erinnern, was so passiert ist,
vielleicht noch vor einem Monat, oder vor
zwei Monaten, weil ich weiß ja noch,
welches Bildchen ich an dem Tag gezeichnet
habe. Also probiert es gerne mal aus – wer
weiß, ob das jetzt ein Bildchen ist,
vielleicht schreibt ihr auch nur ein Wort
pro Tag auf, aber ich finde, das ist eine
sehr schöne Technik, um sich mal selber zu
verdeutlichen, was man eigentlich so
schafft und eigentlich so macht.
blinry: Ich möchte euch als nächstes etwas
erzählen über mathematische Paradoxe, die
ich ganz spannend finde. Zum Beispiel gibt
es etwas, das nennt sich das „interesting
number paradox“, das so etwas aussagt,
wie: „alle Zahlen sind interessant“. Und
das ist erstmal überraschend, für mich
zumindest. Lasst uns das zusammen mal
beweisen. Also, das ist ein Beweis, der
läuft über einen Widerspruchsbeweis, das
heißt wir machen am Anfang eine Annahme.
Wir nehmen an, es gäbe überhaupt
uninteressante Zahlen. Man beschränkt das
üblicherweise auf natürliche Zahlen,
irgendwie nicht negative ganze Zahlen, mit
denen irgendwie Objekte zählen könnten
oder so was, und wir nehmen mal an, es
gäbe welche, die wären uninteressant. So.
Stellt euch irgendwie einen Zahlenstrahl
vor, und da sind jetzt diejenigen
markiert, die uninteressant sind. Und wenn
wir uns das angucken, dann gibt es halt
unter denen auch eine, das ist die
kleinste uninteressante Zahl: die, die
halt auf dem Strahl am weitesten links
sitzt. Und, ok, das ist irgendwie komisch,
das ist eine Zahl, die ist gleichzeitig…
ist sie uninteressant, aber diese
Eigenschaft, dass sie die kleinste
uninteressante Zahl ist, ist natürlich
schon wieder total interessant. Und da
kommt ein Widerspruch zustande, und wenn
das passiert bei so einem Beweis, dann ist
halt die Aussage, dass unsere Annahme
falsch war. Und das zeigt uns halt, dass
die Annahme, die kann nicht stimmen – wir
haben angenommen, es gibt irgendwelche
uninteressanten Zahlen, das heißt, das
Ergebnis ist, alle natürlichen Zahlen sind
interessant. Das ist ein Beweis, der
klingt irgendwie komisch, da ist
allerdings kein doppelter Boden drin, es
gibt so ein paar Beweise, wo man sich
irgendwie 1 = 2 herleitet oder so, wo man
dann irgendwo durch 0 teilt, das ist
natürlich Quatsch – das ist ein relativ
wasserdichter Beweis, der nicht ganz ernst
gemeint ist, aber der schon irgendwie
einer kritischen Betrachtung standhält.
Naja. Ach so, genau, ich wollte noch
erzählen: trotzdem gibt es Leute, die
versuchen dann, diese kleinste
uninteressante Zahl zu finden, und nehmen
dann verschiedene Kriterien her,
irgendwie. Es gibt so eine Online-
Enzyklopädie der Nummersequenzen, die
gucken sich dann da die kleinste Zahl an,
die da nicht drin vorkommt oder so was.
Oder zum Beispiel die kleinste Zahl, die
keinen eigenen Wikipedia-Artikel hat: ich
habe vorhin mal nachgeguckt, das ist
momentan die 262. Ist die besonders
interessant? Vielleicht – gibt wohl nichts
über sie zu erzählen, bisher. Das nächste
Paradox, das ich mitgebracht habe, hat mit
diesem geometrischen Objekt zu tun.
„Gabriels Horn“. Diese Oberfläche ist so
definiert: ihr nehmt euch die Funktion 1/x
her, das ist hier diese rote Linie, diese
Kästchen sind jeweils eine Längeneinheit
lang. Und wir gucken uns dann einen
bestimmten Bereich davon an, nämlich
schneiden wir den an dieser Stelle 1 ab
und gucken uns den ganzen Teil, der dann
nach rechts läuft, an, nehmen diesen
Verlauf und rotieren den um die x-Achse.
So ist dieses Objekt konstruiert. Was wir
dann kriegen, ist halt so ein sehr, sehr
spitz, unendlich weit nach rechts
zulaufendes, Ding, was irgendwie aussieht
wie ein Trichter. Und dieses Objekt hat
eine super spannende Eigenschaft, nämlich:
Also, die Oberfläche des Objektes ist
unendlich groß, was irgendwie einleuchtet,
weil es ja unendlich weit nach rechts
läuft. Wenn man irgendwie das versuchen
würde mit Farbe anzumalen oder so was,
würde man unendlich viel Farbe brauchen,
weil man irgendwie das ganze Ding nie
vollgemalt bekommt. Allerdings, wenn man
es jetzt mit der Öffnung nach oben dreht
und die Farbe da reingießt, irgendwie, um
das Volumen zu messen, dann stellt man
fest, das ist ein endliches Volumen, das
Ding ist irgendwann voll. Und das ist eine
super spannende Kombination von zwei
Eigenschaften, finde ich, also wenn man
das mit Farbe aufgefüllt hat, innen,
könnte man sagen, okay, das berührt ja
jetzt irgendwie die gesamte Oberfläche von
innen, aber trotzdem, wenn wir es anmalen,
reicht es halt nicht. Und, naja, dieses
Paradox mit der Farbe, das klingt erstmal
total komisch – man kann das ein bisschen
auflösen, indem man sich vorstellt, wenn
wir das nicht von außen anmalen würden,
sondern von innen, dann kämen wir halt
irgendwann, wenn wir weiter nach rechts in
diese Spitze reinmalen, in so einen
Bereich, wo die Farbschicht vielleicht so
dick ist, dass sie da gar nicht mehr rein
passt. Das heißt, wenn man es von innen
bemalt, müsste man mit der Farbschicht
eigentlich auch immer dünner werden, und
wenn man das dann so rechnet, dann ist
halt doch die Farbmenge wieder begrenzt.
Das heißt dieses mit der – also, mit Farbe
füllen funktioniert, mit Farbe anmalen,
ist unendlich viel Farbe, kann man dadurch
so ein bisschen auflösen, und auch diese
Eigenschaft, dass die Oberfläche unendlich
groß ist und das Volumen endlich, also,
man kann sich das ausrechnen. Man kann
sich Integrale aufschreiben mit dieser
Funktion 1/x und dann irgendwie
integrieren über die Länge und so, und
sich ausrechnen wie groß die Oberfläche
ist, man sieht sie ist unendlich, und wie
groß das Volumen ist, und man sieht es ist
endlich. Das ist allerdings nicht
besonders intuitiv. Ich könnte euch jetzt
die Formeln zeigen und dann würdet ihr das
vielleicht glauben oder vielleicht auch
nicht, aber was ich dann noch fand ist
eine Betrachtung oder ein Vergleich, der
einem das so ein bisschen schmackhafter
macht, nämlich: Wenn ihr euch vorstellt,
ihr nehmt ein Stück Knete, eine definierte
Menge Knete, macht daraus irgendwie eine
kleine dicke Schlange oder so was, so
einen Zylinder, zylindrische Form, und
guckt euch dann mal die Oberfläche von dem
ganzen Ding an. Dann ist die Oberfläche
halt ungefähr so der Umfang dieser Form
des Zylinders mal der Länge. Das ist quasi
so, als würde man da irgendwie Papier
darum legen, wenn man das aufrollt hat man
so ein Rechteck, die eine Kantenlänge des
Rechtecks ist so lang wie der Umfang, die
andere Länge so lang wie diese Schlange
lang ist. Und jetzt nehmen wir diese Knete
und rollen sie ein bisschen dünner, dass
sie nur noch halb so dick ist. Was dann
damit passiert, ist, dass, naja, also die
Höhe halbiert sich und das heißt, es
halbiert sich auch der Umfang dabei.
Allerdings wird die Querschnittsfläche,
wenn ihr das einmal durchschneiden würdet,
auf ein Viertel sinken. Und das bedeutet,
weil ja das Volumen konstant bleibt – wir
nehmen ja keine Knete weg oder so was –
wird diese Schlange danach viermal so lang
sein. Das heißt, okay, was haben wir?
Wir haben die vierfache Länge, wir haben den
halben Umfang, das heißt die Oberfläche
dieses Dings hat sich verdoppelt gerade,
während das Volumen konstant geblieben
ist. Und das bedeutet, je dünner man diese
Schlange rollt, desto mehr verschiebt sich
dieses Verhältnis von Fläche und Volumen,
und das ist halt auch genau das, was hier
bei diesem Objekt passiert, dass man das
quasi unendlich weiter dünner macht und
dabei halt dieses Verhältnis völlig aus
dem Gewicht gerät und dadurch diese
Eigenschaft zustande kommt. Ein bisschen
ähnlich und mit Unendlichkeit zu tun hat
auch das „coastline paradox“, wo es darum
geht, dass man die Länge einer
Landesgrenze messen will. Und da kommt es
dann sehr darauf an, wie genau man das
macht, was dabei rauskommt. Wenn ihr euch
vorstellt, ihr habt irgendwie ein sehr
langes Lineal, und man legt das dann jetzt
irgendwie mal an diesen Landesumriss an,
kippt das immer so ein bisschen weiter,
geht da irgendwie einmal rum, dann kriegt
man irgendeine Zahl raus, okay, man könnte
sagen, das ist die Länge, aber dann könnte
jemand kommen: „das hast du nicht genau
genug gemessen, und wir müssten eigentlich
das mit einem kürzeren Lineal machen, was
das irgendwie genauer misst, und irgendwie
in Meeresbuchten noch reingeht“, das ist
so der Unterschied hier zwischen dem
linken Beispiel und dem rechten, wo man
halt beim rechten einen viel kürzeren
Maßstab genommen hat und damit genauer
diesen Umrisse misst. Das heißt, davon
hängt es sehr ab, was man da für eine Zahl
herauskriegt für die Länge dieses
Landesumrisses. Und das lässt sich halt
beliebig weit fortführen, wenn ihr euch
jetzt vorstellt, ihr steht irgendwie am
Strand dieses Landes und wollt messen die
Länge der Linie zwischen dem Sand und der
Wasserkante oder so was, könnt ihr jetzt
ein 30-cm-Lineal nehmen oder so, und da
hinlegen und dann weiterlegen und so, und
sagen, okay, das sind jetzt 60 cm, aber
dann kommt vielleicht irgendwie ein
Lebewesen, was noch viel kleiner ist als
ihr, und sagt, ihr hättet doch auch jetzt
so um die einzelnen Sandkörner herum
messen müssen und so, und dann noch in die
Lücken gehen, und dann kriegt man halt
noch eine längere Länge raus. Und das
führt sich beliebig fort weiter,
irgendwie, die Sandkörner haben dann
vielleicht Unregelmäßigkeiten, wo man rein
messen kann, und wenn man auf atomare
Ebene kommt, wird das irgendwie alles sehr
merkwürdig, aber trotzdem sehen irgendwie,
dass das Konzept einer Länge eines
Landesumrisses halt nicht gut definiert
ist. Mathematiker sprechen davon, dass
diese Form eine fraktale Dimension > 1
hat, das heißt, je genauer man hinguckt,
desto länger wird dieses Ding. Und das
finde ich nicht besonders intuitiv. Und
das letzte Paradox, das ich mitgemacht
habe, ist das Geburtstagsparadoxon. Manche
von euch kennen das vielleicht.
Im Wesentlichen geht es darum, also, wenn ich
jetzt hier im Saal mich mal umgucke und
irgendwie hier diese rechte Sitzspalte von
euch nehme, ihr seid vielleicht 30 Leute
oder so, würde ich schätzen, und die Frage
dieses Paradoxons ist ist dann: Wie
wahrscheinlich ist es, dass zwei von euch
am genau gleichen Tag Geburtstag haben?
Und wenn ihr mögt, und das noch nicht
kennt, könnt ihr mal versuchen zu
schätzen, irgendwie, was da so – also
einfach so einen Prozentwert, wie
wahrscheinlich das wäre, wenn ihr mögt.
Habt ihr da irgendwie Ideen?
Publikum: Gehen wir von 30 aus?
blinry: Gehen wir von 30 aus.
Publikum: Wahrscheinlich 30!
blinry: lacht
Publikum: Das ist hoch!
blinry: Da wird gesagt, die
Wahrscheinlichkeit sei hoch. Und, also –
über 50 wird gesagt? Mhm. Das habe ich
jetzt natürlich auch als Paradoxon
eingeleitet, wo schon ein bisschen klar
ist, dass wahrscheinlich irgendwie was
Unerwartetes rauskommt. Wenn man da naiv
rangeht, könnte man halt denken, okay, 30
Leute, es gibt irgendwie 365 Tage im Jahr,
dass es da irgendwie eine Übereinstimmung
gibt, ist die Wahrscheinlichkeit nicht so
super hoch. Aber dadurch, dass, wenn man
eine Person einer Gruppe hinzufügt, es
halt viel mehr Paare gibt auf einmal,
steigt diese Wahrscheinlichkeit halt
schneller, als man denkt. Wenn man das als
Graphen aufmalt, kriegt man hier auf der
x-Achse die Anzahl Leute und auf der
y-Achse die Wahrscheinlichkeit, dass es da
irgendwie, dass zwei Leute an einem Tag
Geburtstag haben. Und bei 30 Leuten sind
wir da halt tatsächlich über 50%,
irgendwie so bei 65% oder sowas, was ich
wieder erstaunlich hoch finde. Und
tatsächlich, ungefähr, also, genau – 23
Leute ist so die Grenze wo es dann – wo
die Wahrscheinlichkeit über 50% ist. Weiß
jetzt nicht, ob ihr Lust habt, irgendwie
nach dem Vortrag mal rauszufinden, ob das
tatsächlich der Fall ist bei euch
irgendwie, und die beiden Leute zu finden,
die vielleicht am gleichen Tag Geburtstag
haben, könnt euch irgendwie nach Monaten
gruppieren oder so, das werden wir nicht
anleiten. Aber dieses Ergebnis finde ich spannend.
bleeptrack: Im Sommer, vor dem Camp,
wollte ich mir einen coolen Stuhl bauen,
ich habe mir gedacht, der soll irgendwie
ein tolles Muster noch haben, und ich habe
mich ein bisschen umgeguckt im Netz und
habe ein spannendes Paper gefunden, das
heißt „Modeling and visualization of leaf
venation patterns“. Klingt jetzt erstmal
irgendwie wirr. Also, es geht um das
Adernwachstum in Blättern. Und die haben
dann einen Algorithmus beschrieben, der
eigentlich ganz simpel ist, den wollte ich
euch mal zeigen, der ergibt nämlich enorm
tolle Ergebnisse. Da können wir mal ein
paar angucken. Das sind Ergebnisse, die
die erzeugt haben damit, bei a) haben sie
halt erstmal diese Wenigen ganz spärlich
wachsen lassen, Richtung e) dann schon
sehr verzweigt, und ihr seht schon, es
gibt auch unterschiedliche Varianten, die
bei c), die hören so in der Luft auf, und
bei e) fangen die Adern an, auch so Loops
wieder zu schließen, und bei f), g), h),
da ist dann praktisch auch noch mal so ein
bisschen unterschiedliche Parameter, dann
bilden sich da größere Zellen oder
kleinere Zellen. Und wir können uns mal
ganz kurz anschauen, wie das funktioniert,
das ist nämlich gar nicht so schwer.
Die gehen davon aus, dass die Blattform
vorgegeben ist, das ist dieser Umriss bei a.
Die schwarzen Punkte, die ihr seht, ist
die Vene oder die Ader, wie sie bisher
gewachsen ist, die wird da in so Punkten
dargestellt, und die roten Punkte sind
Auxine, das sind in Blättern… ich weiß
nicht, ob das Hormone sind, aber
Wachstumsregler in so einem Blatt. Und
eine Vene möchte zu seinem roten
Auxinpunkt wachsen. Diese Auxinpunkte, die
werden erstmal platziert in diesem Blatt,
und danach wird geschaut, welcher
Venenpunkt oder welcher Adernpunkt denn am
nächsten zu welchem Auxinpunkt liegt, das
sind dann die roten Linien, die ihr in b
seht. Und jede Verbindung, jeder
nächstgelegene Auxinpunkt beeinflusst die
Richtung, in die die nächste
Adernwachstumsphase eingeleitet wird. Das
heißt, hier oben, der obere Punkt hier,
der wird von zwei Punkten beeinflusst, das
heißt der Mittel davon, praktisch die…
genau, die – nee, der wird von drei
beeinflusst, sorry, den hier unten hab ich
vergessen, von den dreien beeinflusst, das
heißt die Mittelrichtung ist dann die, in
die der nächste Punkt gesetzt wird, das
wäre dann der hier oben, der wird dann
platziert. Im nächsten Schritt wird
geguckt, es gibt so einen Umkreisradius,
der wird als Parameter definiert, liegt in
diesem Umkreis ein Venenpunkt, dann wird
das Auxin vernichtet, dann wurde das Auxin
praktisch gefressen von der Vene und
verschwindet. Im nächsten Schritt ist das
Blatt dann gewachsen, das heißt man
skaliert diesen Blatt-Shape einfach ein
bisschen größer und setzt dann neue
Auxinpunkte, die werden erstmal zufällig
gesetzt, und dann wird aber geguckt, ob
zwei zu nahe beieinander liegen, da gibt
es dann auch so einen eigenen Umkreis, das
heißt, wenn zwei sehr nah sind, dann wird
auch wieder einer rausgelöscht, so dass –
das ist ein bisschen wie Poisson disc
sampling, also da werden einfach Punkte
verteilt, dass sie einfach einen
Mindestabstand haben, und dann fängt das
Ganze eigentlich immer von vorne an. Das
heißt, es wird immer geguckt, wie viele
Auxinpunkte gibt es, welche beeinflussen
die Ader, das heißt die wachsen immer
irgendwie so zu dem Auxin, die können
dieses Auxin fressen oder verbrauchen, und
so… naja, so verästeln sich da diese
Adern. Und ich habe das dann einfach mal
implementiert, das sieht dann zum Beispiel
so aus, wenn es dann denkt, abzuspielen –
genau. Was ihr hier aber auch schon seht,
was ich in diesem Fall passiert ist, ist,
dass die Venen mitskalieren, das sind
praktisch zwei Modi in der Simulation, die
die vorstellen, einmal skalieren diese
Venen mit in diesem Skalierschritt und
einmal nicht, und je nachdem, ob man das
macht oder nicht, enthält man Adern, die
einfach sehr blitzförmig nach außen
wachsen oder die eben sehr stark nach
innen verästeln. Das habe ich eben einfach
einmal nachimplementiert, das ist
irgendwie nicht so tragisch, und die
ganzen Sachen sind jetzt hier bunt, damit
man es – damit ich für mich praktisch
sehe, wo so einzelne Abschnitte liegen. Im
letzten Schritt, wenn die Simulation dann
fertig durchgelaufen ist, dann kann ich
noch berechnen, wie dick so eine Ader sein
soll, wenn die nämlich mehrere
Verzweigungen hat, dann ist die Ader
natürlich dicker, da fließt ja der
Adernsaft durch, und wenn diese Adern
Richtung Blattende gehen, dann werden die
dünner. Und das sind noch Ergebnisse, die
die auch in dem Paper veröffentlicht
haben, die ich ganz spannend fand, links
ist immer eine Fotografie und rechts deren
gerendertes Modell auf praktisch den
gleichen Umriss, und da sieht man mal, wie
ähnlich tatsächlich die Ergebnisse sind,
also ich finde, mit ihrer Simulation haben
die das eigentlich ganz gut erfasst, wie
das Wachstum funktioniert. Und, wie
gesagt, es sollte ja ein Stuhl werden, das
heißt, ich hatte mir das implementiert und
habe das dann einfach mal auf meine CNC-
Fräse gelegt, die ist leider nicht, naja,
die ist so eine Eigenbau-CNC-Fräse, also
da dauert das alles ziemlich lang, das
heißt das Ausfräsen von einem so’n Teil
hat immer ungefähr 5 Stunden gedauert, und
ich brauchte zwei von diesen Teilen, damit
da ein ganzer Stuhl daraus wird. Da hat
dann – so eine Platte hat dann zum Schluss
so ausgesehen, ich habe von Hand diese
Quadrate noch eingesetzt, das sind so –
„Nuten“ ist falsch, aber der steht
praktisch, wo ich die Stuhlbeine
einstecken möchte, später, und ich habe
die Venen außenrum geschlossen, damit es
ein bisschen stabiler wird. Und das
Stuhlergebnis schaut dann so aus, die
Files sind online auf der Webseite,
solltet ihr euch den nachbauen wollen, und
ich – der Knackpunkt, den ich dann zum
Schluss festgestellt habe, wenn man so was
hat wie Adernwachstum, und man maximiert
da ja praktisch die Oberfläche, das
verästelt sich ja total, dann wird
Nachbearbeiten von Holz auf einmal ganz
spannend, weil man auf einmal sehr viel
Oberfläche hat, und von Hand mit
Schmirgelpapier nochmal jede kleine Ritze
nachtzuarbeiten, hat sehr viel Spaß
gemacht. Aber es ist ein sehr netter Stuhl
und irgendwie, ja – war ein sehr schönes
Projekt für den Sommer mit generativer
Kunst. Mir wurde gerade 0 Minuten
angezeigt, aber nach uns ist niemand,
stört euch das, wenn wir einfach noch kurz
ein paar Minuten weitermachen? Dann machen
wir nämlich einfach direkt weiter.
blinry: Hallo. Danke. Ich möchte euch
erzählen die Geschichte der illegalen
Primzahlen. Und diese ganze Sache hat zu
tun mit DVDs. Wir haben einige junge Leute
im Publikum, wer von euch hatte schon mal
eine DVD in der Hand? Ich würde auch gerne
die Gegenprobe machen, ob jemand das noch
nicht hatte? Das ist tatsächlich niemand,
das ist spannend, da sind wir alle auf
demselben Level, das ist gut. Also, DVDs.
Ihr kamt vielleicht mal in die Situation,
dass ihr eine hattet und eine
Sicherheitskopie davon machen wolltet, und
dann hat vielleicht das Programm eurer
Wahl so etwas gesagt, dass die DVD
kopiergeschützt wäre und das deshalb nicht
ginge. Da haben sich Leute mal Gedanken
darüber gemacht, wie kriegen wir das hin,
das Leute sich nicht einfach irgendwie
unseren Content kopieren, haben sich ein
Verfahren ausgedacht, den Inhalt darauf zu
verschlüsseln. Das ist ein Verfahren, das
nennt sich CSS, lustigerweise, steht für
Content Scrambling System, und ist halt so
ein Verfahren, das irgendwie geheime Keys
und geheime Verfahren hat und irgendwie
die Bits auf der DVD durch einen
komplizierten Algorithmus routet, den ich
mir nicht genau angeguckt habe, wo dann am
Schluss irgendwie eine entschlüsselte
Version rauskommt. Und, naja, die haben
halt Informationen darüber, wie man das
verschlüsseln kann, an Leute gegeben, die
Content herstellen, und Informationen über
Entschlüssellung an Hersteller von
Abspielgeräten, so authentifizierten
Abspielgeräten, die keine bösen Sachen
damit machen, sondern das nur auf einen
Bildschirm leiten oder sowas, und, ja,
haben gehofft, dass das längere Zeit so
bleibt, dass Leute keinen Unfug damit
treiben. Dann haben sich Leute hingesetzt,
sich einen DVD-Spieler genommen, irgendwie
versucht zu reverse engineeren, wie dieses
Verfahren funktioniert und was die Keys
sind und so, und haben das halt mal in C
nachimplementiert, CSS-Descrambling. Das
ist jetzt so die Hauptfunktion dieses
Verfahrens, drumrum im Sourcecode stehen
noch ein paar längere Tabellen von Zahlen,
das sind so ein paar Tables, die hier
irgendwie mit CSSt2 und so referenziert
werden, wo ab und zu mal Lookups drin
passieren, aber das ist so der Kern davon,
und andere Personen haben sich dieses
Programm genommen, haben dazu eine GUI
geschrieben, was es den Leuten sehr
einfach machte, irgendwie DVDs zu
kopieren. Und das gefiel natürlich dann
vielen Leuten nicht, es gab irgendwie
verschiedene Gerichtsverfahren irgendwie
gegen diese Person, die die GUI
geschrieben hat, ich glaube es war ein
Norweger, und, naja, da wurde es dann
relativ schnell knifflig, irgendwie, was
man dann da eigentlich genau verbieten
will, irgendwie wie dieser Algorithmus
funktioniert oder die Keys oder was? Und
Leute haben sich dann tatsächlich mal,
naja, ein bisschen kreativer damit
auseinandergesetzt, wo eigentlich so die
Grenze liegt zu dem, was eigentlich
geschützt werden soll, und dann zum
Beispiel „DeCSS – The Movie“ produziert,
da scrollt im Wesentlichen der Sourcecode
zu dramatischer Musik durch den Weltraum,
so ein bisschen Star Wars-mäßig irgendwie,
und da ist dann halt die Frage, ist das
jetzt irgendwie ein künstlerisches
Produkt, was schützenswert ist, oder was
verboten werden soll, oder wo es da… wie
ist das so? Oder Leute haben eine
dramatische Lesung gemacht des
Sourcecodes, ich dachte, da hören wir mal
kurz rein, das geht 7 Minuten, einfach mal
so die ersten Sekunden oder so…
Aufnahme: Ciphermagi(?) productions
present: css_descramble.c. Written by
Derek Fawcus. Read by Xader Vartec.
Procedure css_descramble. /***
This function does the actual descrambling. *
sec: encrypted sector (2048 bytes). key:
encrypted title key obtained from CSS…
blinry: Und so weiter. Ihr versteht die
Idee. Was ist noch passiert? Leute haben
Haikus geschrieben, also jetzt nicht nur
einen, sondern ungefähr – ich glaube 600
Stück oder so, die beschreiben, wie der
Algorithmus funktioniert. Tatsächlich sind
darin auch die Keys untergebracht, und das
ist jetzt hier so ein Kernstück davon,
also Haikus, ihr kennt das irgendwie: fünf
Silben, sieben Silben, fünf, stimmt das?
So eine japanische klassische
Gedichtsform, irgendwie, an die man sich
relativ strikt halten kann, wenn einem das
Spaß macht, und da schreibt dann halt
jemand: „All we have to do / is this: copy
our DKEY / into im1; use the rule above /
that decrypts a disk key (with / im1 and
its; friend im2 as / inputs) – thus we
decrypt the / disk key im1.“ Und so
weiter, über viele, viele Seiten. Ist das
Kunst? Ist das ein Programm, ist das ein
Algorithmus? Wer weiß. Leute haben das
übrigens auch auf T-Shirts gedruckt und
auf Krawatten, und das irgendwie
angefangen zu verkaufen und zu tragen und
so. Naja, und ein Mathematiker hat sich
mal hingesetzt und hat diese Zahl
bestimmt. Die Zahl ist interessant, weil
wenn man sie in hexadezimaler Notation
schreibt, ist das eine ZIP-Datei, die
dieses C-Programm enthält.
Lautes Lachen im Publikum
Und das ist eine Primzahl, und das macht
es so spannend, also der Trick über den
das gefunden wurde, war tatsächlich, dass
bei einer ZIP-Datei, da kann man irgendwie
beliebig Null-Bytes hinten anhängen, ohne
die Bedeutung der Datei zu verändern, und
das hat halt der Mensch ausgenutzt,
irgendwie, um mal ziemlich brute force-
mäßig irgendwie nach einer bestimmten
Regel zu gucken, okay, was sind so
Primzahlkandidaten davon, irgendwie, und
dann mal ein paar darauf zu überprüfen, ob
es wirklich welche sind und bei einer Zahl
hatte er halt Glück, und, genau, hatte
diese Primzahl, die jetzt vielleicht eine
illegale Primzahl ist. Das war die
allererste, die er gefunden hat, er hat
später auch noch eine bestimmt, die
ungefähr doppelt so lang war, und das war
interessant, weil es zu dem Zeitpunkt, zu
dem der das gemacht hat, das war so
irgendwie kurz nach der Jahrtausendwende,
glaube ich, zu den zehn größten
Primzahlen, die bekannt waren überhaupt,
gehörte, und das machte sie halt allein
durch diesen Umstand schon irgendwie
veröffentlichungswürdig, und dann ist es
so gelandet in Highscore-Listen von den
größten Primzahlen, also, ist auf ganz
vielen Webseiten gelandet, und das finde
ich ein sehr charmanten Hack, irgendwie,
die Informationen zu verbreiten.
bleeptrack: Zum Schluss noch ein bisschen
Kunst, ein bisschen Kunst aus dem KI-
Umfeld, und ich will nicht viel über
neuronale Netze reden, nur eine
Kleinigkeit vorneweg, damit man so ein
bisschen ein Gefühl hat, was eigentlich
passiert. Was wir hier anschauen, ist ein
„variational autoencoder“, das ist so eine
der einfachsten Methoden für ein
neuronales Netz, irgendwie Bilder zu
generieren. Was ihr oben seht, ist ein
Teil des Netzes, da kann ich vorne ein
Bild reinschmeißen, ich sage jetzt mal
ganz banal, der macht da Neuronale-Netz-
Magie, wir landen in einem Raum, der nennt
sich „latent space“, das ist eine sehr
heruntergebrochene Repräsentation von
Bildern, und ich kann das ganze auch
wieder rückwärts machen, um daraus wieder
das ursprüngliche Bild zu rekonstruieren,
das mache ich in meiner Trainingsphase.
Das heißt ich schmeiße Bild rein, der
verwurstelt das, rekonstruiert, und dann
gucke ich mir die Differenz an und kann
mit dieser Differenz praktisch lernen und
das Verfahren optimieren. Was ich aber
auch machen kann, ist, ich schmeiße am
Anfang kein Bild rein, sondern steige
tatsächlich direkt in diesen latent space
ein und mach da, such mir da drin, in
diesem space, in diesem Raum einen
zufälligen Vektor und lass den mal
rekonstruieren, und mal gucken, was dann
für ein Bild rauskommt. Das sind so
Verfahren, mit denen da gearbeitet wird.
Und was ich dann halt auch machen kann,
angenommen, ich habe hier irgendwie zwei
Bilder, zum Beispiel irgendwie links
diesen Hund und rechts diesen – ist es ein
Leopard? ich glaube schon, mit zwei
komischen Ohren, also irgendwas – beim
Generieren im Modell auch nicht so toll –
aber was ihr schon seht, man kann jetzt
auch auf einmal Zwischenbilder berechnen,
ganz spannend, das was man ganz früh in
den 90ern mit so komischer Morph-Software
gemacht hat, kann man mal jetzt mit
neuronalen Netzen machen, das heißt, ich
suche mir die beiden Bilder in diesem
latent space und kann dazwischen
interpolieren. Und das sieht halt viel
spannender – diese Interpolation ist viel
spannender, als tatsächlich auf Pixelebene
zu interpolieren, weil auf Pixelebene
interpolieren wäre überblenden, wie man es
in einem Video kennt, ja, ich blende von A
nach B über, das ist doof, und hier habe
ich halt, naja inhaltlich zumindest
halbwegs korrekte Bilder, die rauskommen,
das kann man dann auch in Videos rendern,
das sieht dann vielleicht so aus. (Den Ton
brauchen wir in dem Fall nicht, der ist
nicht so spannend.) Das Modell hier heißt
„Big GAN“, da wurden auch unterschiedliche
– die Bilder in unterschiedliche Klassen
kategorisiert, in Hunde, Blumen und so,
die benutzen aber keinen variational
autocoder, das sind dann andere neuronale
Strukturen, aber die besitzen halt
trotzdem diesen latent space, das heißt,
diese Interpolation kann ich trotzdem
machen. Und dieses Morphing, nenne ich’s
jetzt mal, das da stattfindet, sieht halt,
finde ich, total faszinierend aus. Was man
dann auch auf einmal machen kann, ist
Vektor-Mathe in diesem Raum, das heißt,
man kann sich mal angucken, ob es
bestimmte Vektoren gibt, um die ich diesen
Punkt verschieben kann in dem Raum, die
bestimmte Sachen auslösen, oder ich kann
mir Punkte in diesem Raum angucken und die
halt clustern und zum Beispiel sagen, in
dem Fall haben wir hier zum Beispiel
irgendwie ein Clustering gefunden mit
Damen, die lächeln, und Damen, die neutral
sehen, und jetzt kann ich auch so was
sagen, wie: Ich nehme den einen Punkt, den
einen Vektorpunkt, ziehe den vom anderen
ab, das heißt smiling woman minus neutral
woman wurde auf einmal neutral man, weil
dieses Frauen-Attribut praktisch
wegsubtrahiert wird, ich kann es aber auch
zum Beispiel ganz unten mit Sonnenbrillen
oder mit Brillen machen und sag, man with
glasses minus man without glasses ist dann
auf einmal woman without glasses, weil ich
das halt auch praktisch wegsubtrahiert
hab. Und da kann man sehr viel Spaß mit
haben, weil wir es ja vorhin von Twitter-
Bots hatten gibt es hier nämlich auch noch
einen, das ist der „smiling vector bot“,
der sucht sich einfach Bilder, sucht dann
dieses Bild passend im latent space und
addiert da einen Lächeln-Vektor drauf,
oder zum Teil subtrahiert ihn dann auch
wieder, je nachdem, und es gibt oft so ein
bisschen creepy Ergebnisse, aber man kann
sich da halt mal durchscrollen… vielleicht
klicken wir nochmal den kompletten Account
an, dann schauen wir mal was er aktuell
gepostet hat… Ups, okay… genau, der postet
halt eben auch regelmäßig und nimmt da –
ich weiß ehrlich gesagt nicht, wo er die
Bilder reinfüttert oder wo die herkommen,
zum Teil macht er das auch auf Videos und
morpht da dann hin und her. Was ihr
vielleicht auch schon gesehen habt, ist
„DeepDream“, das ist praktisch so eine
Überoptimierung auf einem Bild. Ihr seht
schon hier (da machen wir auch den Ton
aus, glaub ich, der ist ein bisschen
komisch), hier wurde das auf einem Video
gemacht, das ist ganz spannend, und ihr
seht schon, trainiert wurde das neuronale
Netz eigentlich auf Bildern von Hunden,
das heißt, hier werden sich praktisch
jetzt überall Hunde reingedacht, und ich
glaube… jetzt weiß ich nicht… ich habe
noch kein LSD probiert, sieht so ein LSD-
Trip aus? Aber so würde man sich’s
vorstellen, würde ich mal sagen, es ist
sehr… es ist super trippy und super
abstrakt, und es ist auch ganz spannend,
zu sehen, wo überall so Gesichter und
Muster auftauchen. Was bei dem Video jetzt
auch sehr bemerkenswert ist, ist, dass es
sehr konsistent ist, also wenn man so
einen Kameraschwenk hat, dann bleibt so
ein Hundegesicht stehen, das war am Anfang
bei den ersten Versuchen, so neuronale
Netze auf Videos anzuwenden, oft nicht, da
muss man mal ein bisschen mittricksen,
dass Sachen da konsistent bleiben,
ansonsten wobbelt es noch viel mehr. Ah,
genau, das habe ich jetzt auch noch vor
ein paar Tagen gefunden, das ist noch mal
so eine Interpolation, aber nur auf
Katzenbildern, die fand ich auch irgendwie
sehr schön. Ich habe auch immer das
Gefühl, man sieht halt auch zum Teil, wie
die Positionen wechseln, also gerade wenn
dann der Körper so anfängt, zu wobbeln,
sind es hat diese ganzen typischen
unterschiedlichen Fußpositionen, die die
Katze so haben kann, die da halt auch mal
so durchpermutiert werden praktisch. Ich
kann übrigens den Twitter-Account generell
sehr empfehlen, roadrunner01, ist zwar
irgendwie so ein bisschen nichtssagend,
aber der experimentiert ganz viel mit
neuronalen Netzen und postet ganz oft so
Videos, die sind immer alle ganz spannend
anzugucken. Und wir waren ja bei Kunst,
ich möchte euch noch ein paar
Kunstprojekte zeigen, die ich sehr
beeindruckend fand in der letzten Zeit.
Das ist von Helena Sarin, die macht ganz
viel, und da ist es sehr beeindruckend,
dass die immer – die Datensätze, mit denen
sie ihre neuronalen Netze trainiert, sind
ihre eigenen Bilder und Fotos und
Zeichnungen und sowas, und es ist oft –
das sieht man nicht oft, weil Leute
kratzen sich oft halt irgendwie Datensätze
von irgendwo oder nehmen so große
Bilderdatenbanken, und die macht alles auf
ihren eigenen Datensätzen und hängt da
diverse… also ich glaube, dass die mit
GANs arbeitet, hauptsächlich aneinander,
und generiert da irgendwie oft sehr
abstrakte Bilder, die meisten Projekte
laufen unter dem Namen „GAN Weaver“, dass
sind oft so Bilder, die dann auch wie so
ein Puzzle aneinanderhängen, also die
finde ich sehr spannend anzuschauen, und
in dem Fall war das glaube ich – genau,
steht auch da, das ist ein Datensatz, das
aus zwei unterschiedlichen Sachen
trainiert wurde, einmal mit blühenden
Bäumen und mit Bücherseiten, in denen
Haikus standen. Anderes schönes Projekt
ist von Tom White, der exploitet
eigentlich neuronale Netze oder
Bilderkennungssoftware, und der hat sich
eine ganz spannende Architektur
geschrieben, um praktisch an so abstrakte
Bilder zu kommen, die aber immer noch
erkannt werden von der Bilderkennung,
also, ihr könnt ja, ich weiß nicht,
vielleicht könnt ihr erraten, zum Beispiel
das hier in der Mitte oben, was denkt ihr,
nach was das aussieht?
Publikum: Flugzeug?
bleeptrack: Flugzeug, ja, könnte auch gut
sein, ist etwas anderes. Das ist wohl auf
das Modell von einem Hai trainiert, oder
mit dem Modell von einem Hai trainiert.
Was haben wir noch, wo man vielleicht noch
ganz gut drauf kommt? Das andere
dunkelblaue hier unten vielleicht, genau,
ist ein Fön, was ich noch im Kopf hab, das
hier war „cabbage“, also ein Krautkopf,
und das hier unten, da stand
„jack-o'-lantern“ dabei, also so eine
Halloween-Kürbis… wie sagt man,
geschnitzter Kürbis für Halloween. Und ich
finde es halt ganz spannend, weil es ist
ja sehr abstrakt, aber man erkennt als
Mensch auch eigentlich schon immer noch
ganz gut, was es eigentlich darstellt, und
der experimentiert da auch in die Richtung
sehr viel, finde ich sehr schöne Projekte.
Uah, das war falsche Richtung, hier sind
wir noch. Okay, noch drei kleine Sachen
zum Schluss. Die sind alle von einem
Künstlerduo aus Südkorea, und ich versuche
das jetzt mal korrekt zu sprechen,
„Shinseungback Kimyonghun“ heißen die (und
ich hoffe, sie nehmen mir das jetzt nicht
übel), da möchte ich drei kleine Projekte
vorstellen. Das erste Projekt heißt
„Nonfacial Mirror“, das ist ein Spiegel,
wie ihr gleich sehen werdet, mit
Gesichtserkennung, der aber eigentlich
nicht möchte, dass man sich darin anschaut.
[Unverständlich]
Stimmt, ja, aber dreht der sich
weg von der Person? Ich glaube, der ist
umgekehrt, der verfolgt, oder, hab ich das
richtig gesehen? Der ist praktisch das
umgekehrte Äquivalent. Falls man es nicht
gehört hat, gerade sagte jemand im
Publikum, wir haben hier auch so eine
Installation, das stimmt, da bin ich auch
kurz vorbeigelaufen. Den finde ich sehr
nett. Die Beispiele, die ich jetzt habe,
sind alle mit Gesichtserkennung, die
machen aber auch andere Sachen. Und die
haben zum Beispiel einfach mal eine Kamera
mit Gesichtserkennung in die Wolken
gehalten, was man ja sonst so vielleicht
auch ganz gerne macht und mal so schaut,
was in den Wolken erkannt wird, und die
haben halt sich immer das Bild
gespeichert, wenn ein Gesicht erkannt
wird, und haben das mal sehr groß
abgezogen. Und die finde ich zum Teil auch
sehr schön, weil man wirklich halt oft
Gesichter da drin sieht. Und das
allerletzte Projekt, auch sehr spannend,
da haben die andere Künstler gebeten, ein
Porträt zu zeichnen. Die Challenge dabei
war aber, dass von oben eine Kamera auf
die Leinwand gerichtet wird, mit
Gesichtserkennung, und das Ziel war, das
Porträt sollte eben nicht als Person
erkannt werden, und das ist gar nicht so
einfach. Und der Künstler hatte neben sich
stehen den Laptop und konnte halt sehen,
was wie erkannt wurde. Da liefen
unterschiedliche Algorithmen, also ihr
seht jetzt ja da praktisch immer, zum
Beispiel den grünen, roten, oder einen
blauen Rahmen, ich glaube, da liefen drei
Algorithmen parallel, die versucht haben,
da ein Gesicht darin zu erkennen. Man
sieht ja dann schon, wie der Künstler halt
dann hartnäckig versucht, irgendwie hier
Augen anders zu platzieren, später werden
dann auch mal irgendwie Linien einfach
quer durchgemalt, so ein bisschen glaube
ich vielleicht auch aus Frustration, dass
immer noch ein Gesicht erkannt wird. Und
das haben die mit sehr vielen Künstlern
gemacht, die haben alle das gleiche
Porträt bekommen, und da sind sehr
spannende Gemälde dabei entstanden.
blinry: Gut! Das waren die Themen, die wir
euch mitgebracht haben heute. Ich hoffe,
es hat ein bisschen Spaß gemacht, wir
haben die Folien unter dieser URL, da sind
auch verlinkt die beiden bisherigen
Versionen dieses Formats, wenn euch das
interessiert. Genau. Sonst quatscht uns
an, wenn ihr uns rumlaufen seht, wir sind
irgendwie auf Mastodon und Twitter
unterwegs… und dann danke, dass ihr da
wart, und habt noch einen tollen Congress!
Abspannmusik
Untertitel erstellt von c3subtitles.de
im Jahr 2020. Mach mit und hilf uns!