36C3 Vorspannmusik Herald: Hallo, na? Willkommen auf der Wikipaka-Bühne im Esszimmer! Es ist 21 Uhr, Primetime, wir sind live, mit Übersetzung, und bleeptrack und blinry sind da und haben die inzwischen dritte Version von Operation Mindfuck, und es wird sehr lustig. Viel Spaß! Applaus bleeptrack: Von uns auch nochmal einen schönen guten Abend, wir freuen uns riesig dass ihr alle da seid, hallo in den Stream, hallo auch ins Wikipaka- Wohnzimmer, wo vielleicht auch noch ein paar sitzen, der Raum ist relativ voll, und mich freut dass ihr euch jetzt alle schön zusammen gekuschelt habt. Wir haben heute Abend Kunst, Computer und Kuriositäten dabei, wir werden uns immer so ein bisschen abwechseln und spannende Sachen vorstellen, und zum Start übergebe ich direkt mal an blinry. blinry: Jo, danke! Ich fange an mit Schachvarianten. Ich war vor ein paar Monaten auf der MRMCD in Darmstadt. Und da gab’s einen Vortrag über mittelalterliche Brettspiele, und eines der Spiele, das gezeigt wurde, war dies. Das ist irgendwie, es hat spanische Wurzeln, ich kann kein mittelalterliches Spanisch, aber vielleicht spricht man es so ähnlich wie „Grant Acedrex“, bedeutet „großes Schach“, und ihr seht, wenn ihr Standard-Schach von heute kennt, dass das auf einem größeren Feld gespielt wird. Das ist ein 12×12-Feld, und auch die Figuren sehen so ein bisschen komisch aus, also da gibt’s irgendwie so die Giraffe, und ich glaube dieses Ding hier neben dem König ist der Elefantenvogel zum Beispiel, und die haben halt sehr ungewöhnliche Bewegungsmuster, die wir heute so bei unseren Standard- Schachfiguren nicht kennen. Die Giraffe zum Beispiel geht glaube ich 2 Felder diagonal und dann noch 1 gerade, das ist quasi so eine große – Moment, genau 3 Felder diagonal und 1 gerade, das ist die große Variante von dem Springer, den wir heute hätten, und man steigt so über alle anderen Figuren drüber. Oder der Elefantenvogel geht 1 Feld diagonal und slidet dann noch beliebig weit irgendwie durch die Gegend was auch super weird ist, irgendwie, wenn ihr mal Schach gespielt habt. Und es stellt sich raus, es gibt tatsächlich eine ganze Community hinter solchen Schachvarianten, die „fairy chess pieces“ beinhalten, also es gibt irgendwie Listen darüber, wo Leute sich so was ausdenken und sammeln und irgendwie lustig zusammenwürfeln und dann irgendwie sich neue Schachvarianten ausdenken, das fand ich beeindruckend. Dieses Spiel, hm, also die Bauern zum Beispiel ziehen normal, unten die Seihe ist halt irgendwie – sind sehr ungewöhnliche Figuren, und damit man ein bisschen beschleunigt irgendwie den Ablauf dieses Spiels, gab es auch die Regel, dass man einen zusätzlichen Würfel hatte, der bestimmt, mit welcher Art von Figuren man dann als nächstes ziehen darf. Na gut. Eine andere Schachvariante, die es gibt, ist losing chess. Da geht es darum, dass man möglichst schnell alle eigenen Figuren verlieren möchte. Es gibt außerdem Schlagzwang, das heißt, wenn man eine Figur schlagen kann, muss man das tun, wenn man mehrere schlagen kann, kann man sich aussuchen, welche, immerhin. Und der König hat keinen Sonderstatus, ist eine ganz normale Figur wir alle anderen auch, kann sich normal bewegen, kann geschlagen werden, es gibt kein Schach oder kein Schachmatt, aber wird zuerst alle Figuren verliert, gewinnt das Spiel. Und das hat so ein paar komische Effekte, wo manchmal, wenn man einen Zug macht, es sehr krasse Kettenreaktion gibt, wo einfach beide Spieler die ganze Zeit irgendwie Figuren schlagen müssen und das nicht mehr stoppen können. Und in diesem GIF, das die ganze Zeit spielt, wird zuerst ein Bauer bewegt, ich glaube, genau, D3 ist der Zug, und das ist ein sehr schlechter Zug, weil dann Schwarz, stellt sich heraus, immer gewinnen kann. Haben Leute irgendwie mal Modelle aufgestellt und durchgerechnet und so, es gibt dann eine Folge für Schwarz, die auf jeden Fall erzwingt, dass Schwarz alle Figuren verliert. Insofern gibt es so ein paar Eröffnungsvarianten, die offenbar für Weiß keine gute Idee sind. „Infinite Chess“ hat Standardfiguren in Standardanordnung, aber das Brett ist unendlich groß, das ist eher so ein theoretisches Modell, ich glaube – ich weiß nicht, ob Leute das wirklich spielen, das ist in der echten Welt ein bisschen schwierig, aber Leute machen sich darüber Gedanken und probieren irgendwie mal aus, ob man da Dinge darüber herausfinden kann. Also eine sehr merkwürdige Situation, wo irgendwie man mit der Dame oder sowas eine Million Felder irgendwie nach oben ziehen kann, und dann brauchen Bauern erst mal so ein bisschen, bis sie da hinterherkommen. Und dadurch ist es komisch zu analysieren, es gibt irgendwie Leute, die haben sich das mal angeguckt und haben rausgefunden, dass es, also, gegeben eine Anordnung dieser Figuren und eine Zahl n kann man herausfinden, ob es eine Möglichkeit gibt, für den aktuellen Spieler, der dran ist, zu gewinnen in n Zügen. So. Das ist ein ganz cooles Ergebnis, ist aber nicht so super hilfreich, irgendwie, um das zu analysieren oder KIs zu schreiben oder so, denn eigentlich was man ja machen möchte ist aus einer bestimmten Position heraus vielleicht herausfinden, ob die Person, die gerade dran ist, gewinnen kann überhaupt. Wenn man weiß, irgendwie, in 10 Zügen kann sie gewinnen, hat das begrenzte Aussagekraft wenn man dann irgendwie mit der Dame wie gesagt eine Million Felder nach oben macht oder sowas, und dann kann es ganz lange dauern, irgendwie, bis dann mehr Sachen passieren. Genau, insofern, ja – theoretische Schachvariante. Es gibt „Blind Chess“, das is zu unterscheiden – also, ihr kennt vielleicht „Blindfolded Chess“, wo Leute sich die Augen verbinden und dann angesagt bekommen, welche Züge passieren, und dann irgendwie im Kopf behalten müssen, wie die Figuren gerade stehen und was sie machen wollen. „Blind Chess“ ist noch ein bisschen anders, da sitzen beide Spieler irgendwie vor einem Brett jeweils, sehen die Figuren der anderen Farbe nicht, sehen nur ihre eigenen Figuren, und kriegen auch nicht angesagt was passiert oder sowas, das müssen sie erstmal herausfinden, so irgendwie durch ein bisschen vorsichtiges Vorziehen der eigenen Figuren, das können sie ausprobieren, und denen wird dann gesagt, wenn es ein ungültiger Zug war, und dann dürfen sie noch was anderes probieren. Also kann man sich so langsam vortasten, und mal gucken, wie die Position des anderen Spielers ist irgendwie, darüber Rückschlüsse zu ziehen und ne eigene gute Strategie zu finden. Das heißt, man braucht da irgendwie eine dritte Person, die zwischen den beiden hin- und herkommuniziert und aufpasst, dass da nichts Illegales passiert. Ich hab mal geguckt, es gibt da irgendwie einen sehr definierten Satz von Wörtern, die diese dritte Person sagen kann, zum Beispiel „no“, wenn es ein nicht gültiger Zug ist, wenn man gerade irgendwie versucht, über eine fremde Figur zu gehen oder so was, und wenn man einen Zug macht, der unabhängig von den Figuren des anderen Spielers nicht möglich wäre, sagt die Person „hell no“, das gefiel mir irgendwie. Genau, das ist noch so eine kleine Webseite, oh ja, da muss jetzt tatsächlich auch mal rausklicken, gucken, schauen wir uns mal an, das hat geschrieben irgendwie ein Mensch, Pippin Barr, der auch sonst total interessante Spielprototypen baut, und in dem Fall sind es halt auch tatsächlich mal ausprobierbare Schachvarianten. Was ich zum Beispiel sehr gerne mag, ist sowas wie „Quantum Chess“. Man kriegt nicht erklärt, was die Regeln sind, man muss das durch Ausprobieren herausfinden. Wir machen mal irgendwie einen Zug, einen Bauern, so – da haben wir zwei Bauern auf einmal. Jetzt ist Schwarz dran – es gibt da leider keine KIs oder so, man kann halt mit zwei Menschen gegeneinander spielen, aber dieses System achtet dann schon auf Einhaltung der Regeln. Also in dieser „Quantum Chess“-Variante ist es so, dass, wenn man einen Zug macht, dann geht die Figur auf alle möglichen Positionen, die gehen. Wenn wir jetzt hier irgendwie mit der Dame einen Zug machen, haben wir auf einmal sehr sehr viele Damen, was vielleicht praktisch ist, vielleicht ist es aber auch irgendwie störend. „Quantum Chess“. Dann wollte ich euch noch zeigen… „Gravity Chess“ zum Beispiel… Können auch versuchen, einen Zug zu machen – Gelächter im Publikum blinry: ihr lacht schon! Genau. Und so weiter. Und dann rucken irgendwie alle Figuren immer nach. Und auch das ist tatsächlich spielbar, es gibt irgendwie Leute, also, diese Person hat das vertwittert und andere Leute haben das gespielt, und haben dann so irgendwie Endsituationen dieses Spiels gezeigt, irgendwie, wo nur noch sehr wenig geht und dann irgendwie auch Personen schachmatt gesetzt werden. Find ich cool. So, und als Letztes wollte ich euch noch zeigen: Schachboxen! Vielleicht habt ihr davon mal gehört. Das ist ein ernstzunehmender Sport, ursprünglich startete das mal als Kunstprojekt, wo sich jemand dachte, ha, wäre irgendwie lustig wenn Leute abwechseln Schach spielen und boxen, das war dann aber so beliebt dass das irgendwie richtig populär wurde und es gibt jetzt ganz viele Schachbox-Vereine, die irgendwie Wettkämpfe darin organisieren und so, es funktioniert so: es ist in Runden aufgeteilt, man spielt drei Minuten Schach und dann boxt man für drei Minuten, jeweils abwechselnd. Und man kann gewinnen entweder durch, dass man den Gegner K.O. schlägt, oder dass man ihn schachmatt setzt. Außerdem sagen die Regeln, dass man aufgeben kann, und das ist explizit hervorgehoben, dass man das sowohl in dem Schachteil als auch im Boxteil tun kann. Find ich gut. Alles klar. Dann leite ich über an Bine. bleeptrack: Eine Sache, die mich in letzter Zeit öfter beschäftigt hat, sind Twitter-Bots, im Speziellen so künstlerisch angehauchte Twitter-Bots. Unter Twitter-Bot versteht man eigentlich einfach einen Twitter-Account, hinter dem irgendwie ein Programm hängt, das autonom Sachen postet, oft so einmal am Tag, einmal die Woche, mehrmals am Tag, und dann aber auch ganz unterschiedliche Sachen, und ich hab euch mal eine kleine Reihe meiner Lieblings-Twitter-Bots mitgebracht. Einer, der ist ganz einfach, der heißt „endless screaming“ und postet einfach immer nur „aaaah!“ in unterschiedlicher Länge (das ist ganz wichtig). Ein anderer ist „Big Ben Clock“, der ist so ähnlich, der schreibt einfach immer nur die Glockenschläge der Londoner Uhr aus, aber natürlich auch immer zeitlich passend. Nächster, der ist auch sehr schön, der heißt „choose to accept“ und er gibt einem immer Geheimmissionen, die er zufällig generiert. Eine ist zum Beispiel: „Your mission, should you choose to accept it, is to sneak into the casino of Colin the Hairstylist. There, you must steal the Horn of Plenty, Melvin the rent- a-mab, inflate Colin, and finally escape using a secret tunnel.“ Die sind oft sehr, naja, wirr, und werden einfach zufällig aus so einer Grammatik und aus Satzbausteinen generiert. Dann gibt's noch den Cocktail-Bot, da seh ich jetzt gerade, dass leider in dem Beispielbild kein schönes Beispiel dabei steht, aber der baut sich auch aus zufälligen Zutaten witzige Cocktails zusammen, und man kann den antwittern, also der ist interaktiv, also man kann dem irgendwie schreiben „misch mir einen…“ und dann denkt man sich einen schönen Cocktailnamen aus und dann denkt der sich halt rückwirkend aus, was denn das so für ein Cocktail sein könnte. Und da sind dann halt auch oft die absurdesten Zutaten drin – und wir möchten Linux gerade nicht updaten – und was jetzt noch ein neues Feature bei dem Bot ist, ist, dass man noch sagen kann „surprise me!“ und dann baut er sich eben einen ganz zufälligen Cocktail und twittert den zurück. Dann gibt es noch den „Amazing Bot“ oder den „Mazing Bot“, der macht Labyrinthe die er zufällig generiert, und man kann da spielen, das ist sehr schön, das sieht dann zum Beispiel so aus, dass wäre die Startposition, man kann dann unter dem Tweet antworten mit einer Richtung – in dem Fall macht jetzt nur „up“ und „down“ irgendwie großartig Sinn – und wenn man den angetwittert hat, dann postet er da drunter wieder ein neues Bild mit dem neuen Zustand, das heißt man kann praktisch kollaborativ so ein kleines Labyrinth lösen. Dann ist noch einer, der gefällt mir besonders gut, das ist der „Nixie Bot“, da hat sich jemand – steht das hier sogar drin, wem er gehört? glaube leider nicht – da hat sich jemand so eine Nixie-Tube-Uhr oder so einen Nixie-Tube- Aufbau gebaut, und man kann den Bot dann antwittern mit einem… oh nein, probieren wir mal nochmal, ja, sehr schön – mit einem Text, und das wird dann eingeblendet, da steht eine RasPi-Cam davor, die filmt das ab oder macht ein Foto, je nachdem, was man dem Bot schickt, und man bekommt es zurückgetwittert. Es dauert oft ein paar Minuten und es ist halt – also ich find's super witzig anzusehen, weil der Herr oder die Person, muss kein Herr sein, die Person die den Twitter-Bot hat, die sieht man schon, die dekoriert auch ab und zu diese Nixie-Tube mal ein bisschen um, und man sieht halt auch immer die Tageszeit, die da halt gerade herrscht, mal ist der Raum irgendwie dunkel wenn es mitten in der nacht ist oder halt mal leuchtet, wenn es gerade Tag ist, und das ist halt irgendwie sehr lebendig und der Bot postet auch immer noch einen so’n Tagesrückblick, also alles, was pro Tag an diesen Bot geschickt wurde, wird dann noch mal zu so einer Art Zusammenfassungsvideo verarbeitet und noch einmal pro Tag gepostet, und den kann ich sehr empfehlen, also twittert den mal an, wenn ihr schon immer euren Nickname in Nixie-Tubes geschrieben haben wolltet, dann ist der wirklich sehr nett. Zum Schluss möchte ich euch noch auf einen meiner Bots aufmerksam machen, den ich mal gebaut habe, der lebt nicht auf Twitter in dem Fall, sondern auf Mastodon, das ist der Touritafel-Bot. Touritafel, kurz für „touristische Unterrichtungstafel“, das sind diese Tafeln, die ihr wahrscheinlich von der Autobahn kennt, die da immer so an der Seite stehen und oft auch so ein bisschen obskur sind und irgendwie darauf hinweisen, für was diese Region oder diese Stadt gerade bekannt ist. Und ich habe einen Bot gebaut, der sich solche Tafeln generieren kann, der holt sich hier Daten aus zwei Datenbanken, einmal aus Wikidata, wenn ihr hier in der WikipakaWG sitzt, dann kennt ihr vielleicht auch Wikidata, das ist das Schwesterprojekt zur Wikipedia, nur als maschinenlesbare Datenbank, und da hole ich mir Städtenamen und Objektenamen raus, das heißt es sind alles, ja, irgendwie reale Objekte und Städte die da verarbeitet werden, dann brauche ich noch ein Icon, das hole ich mir aus „The Nouns Project“, das ist so eine Ansammlung von SVG-Grafiken, die man benutzen kann, und mein Bot verbastelt das dann eben zu einem Bild, das so in etwa nach so einer Touritafel aussieht, und ihr seht schon, die sind halt auch oft sehr obskur, dann gibt es halt so was wie ein Pommes frites Museum oder ein, was haben wir da noch schönes, oh es sind alles Museen zufällig, normalerweise variiert der Text immer noch ein bisschen mehr, das sind dann auch mal irgendwie, keine Ahnung, die Kuchenstadt Magdeburg oder sowas kann dann auch mal rauskommen. Und der Grund, warum der Bot zum Beispiel auf Mastodon lebt, ist finde ich auch eine sehr spannende Geschichte. Vor einiger Zeit hat Twitter seine API-Schnittstelle geändert, ich weiß nicht ob ihr das mitbekommen habt, und das ist mittlerweile sehr viel schwerer, sich so einen API- Schlüssel abzuholen bei Twitter, man muss mittlerweile so ein ganzes Formular ausfüllen, was man denn gedenkt zu tun, für was man diesen Twitter-Account überhaupt benutzen will, und eigentlich will Twitter diesen API-Schlüssel am liebsten gar nicht mehr rausgeben, und das hat diese Twitter-Bot-Kunstszene tatsächlich sehr aufgerüttelt, weil es jetzt schwerer geworden ist, neue Bots zu bauen, weil zum Teil auch alte Bots durch eine eingeschränkte API einfach nicht mehr funktionsfähig sind. Und dann kommen auch auf einmal ganze Diskussionen hoch, gerade wenn es um Medienkunst geht, wie gehe ich denn eigentlich auch um Archivierung, wie gehe ich damit um, wenn Sachen eingestellt werden, nicht mehr funktionieren, das ist natürlich problematisch, Medienkunst zu archivieren, weil sich Technik so schnell verändert und so schnell wandelt. Und der Ausweg, den sehr viele gefunden haben, ist Mastodon, eine Twitter-Alternative, die dezentral funktioniert, und da gibt es eine eigene Instanz, die heißt „botsin.space“, und auf der leben jetzt nur solche künstlerisch angehauchten und witzigen – also nicht mehr Twitter-, sondern Mastodon-Bots dann in dem Moment. Kann ich euch sehr empfehlen da mal durchzuklicken, da gibt es auch sehr sehr viele schöne Projekte. Und wenn ihr mal Lust habt, vielleicht selber so einen Bot zu bauen, dann kann ich euch ein paar Sachen empfehlen. Einmal gibt es die „Botwiki“. Das ist ein Projekt, wo eben solche Bot-Varianten gesammelt werden, klickt euch da mal durch, die ist noch nicht sehr voll und nicht sehr vollständig, finde ich, also – vielleicht findet ihr auch mal einen Bot, den ihr besonders gern mögt, dann tragt den da gerne ein, aber man kann sich da auch hervorragend durchklicken und mal sich anschauen, was andere so machen. Da gibt's Bots, die machen Gedichte oder die machen Musik, also da gibt’s massig, das man erkunden kann. Und wenn ihr wirklich selber einen bauen wollt, dann gibt es die Seite „Cheap Bots, Done Quick!“, die ist dafür da, um sehr schnell praktisch so einen Bot zu hosten, ohne großartige Vorkenntnisse, und das kann man dann auch noch ergänzen mit Tracery, das ist ein Tool, mit dem man sich sehr einfach Grammatiken bauen kann um zum Beispiel Texte zu generieren, aber auch um Bilder zu generieren. Wenn euch das noch mehr interessiert, das habe ich leider nicht verlinkt, aber dann könnt ihr nochmal bei blinry auf seinem Blog schauen, der hat da nämlich auch mal einen schönen Workshop gehalten – wurde der aufgezeichnet? Leider nicht. Aber da hast du Folien online? Genau, dann schaut doch mal auf blinrys Blog, dann gibt es da Folien, wie das ganz genau funktioniert. blinry: Als nächstes geht es um Ray Marching und Signed Distance Functions. Das klingt ganz furchtbar gruselig, aber ich erkläre euch mal, wie ich dazu kam. Wir waren vor ungefähr drei Jahren mal auf einer Demoparty in Köln, der Evoke, das ist so ein Treffen, da tun sich einige hundert Leute zusammen und setzen sich irgendwie für ein paar Tage in dunkle Hallen und setzen sich an ihre Laptops und coden irgendwie coole Videos, also, die coden irgendwie kleine Schnipsel, die also sehr interessante grafische und audiell interessante Dinge tun, so ein paar Minuten. Und es gibt dann verschiedene Kategorien, unter denen sie die einreichen können, verschiedene Wettbewerbe. Und einer davon ist eine Einschränkung für das Programm, das man da schreibt, dass das Programm eine bestimmte Größe nicht überschreiten darf. Und dann zum Beispiel so eine Größenbeschränkung hat wie vier Kilobyte zum Beispiel. Was, finde ich, unglaublich wenig ist, sind halt so ein paar Zeilen – ein paar Seiten Code im Wesentlichen. Und die Herausforderung ist, mit dieser Platzbeschränkung irgendwie coole Dinge zu tun. Was da dann zum Beispiel rauskommt ist sowas hier, also das ist jetzt eine 4k-Demo von der Evoke, die total spannende komplexe Geometrien beinhaltet. Gucken wir mal ein bisschen rein. Ne, man sieht da irgendwie diese Nebeleffekte im Raum, irgendwie eine interessante Kameraführung und so, und man fliegt dann da durch so eine fraktale Geometrie durch. Gehen wir mal ein bisschen weiter hinten rein… So, da bewegen sich Sachen in dieser Welt, und – oh, übrigens haben wir auch Musik, irgendwie, das ist auch durch diesen Code generiert, in dem Moment, also das läuft alles live auf dem Rechner. Also irgendwie so die Oberfläche schillernd, als wäre da Nebel, naja. Und ich saß da mit offenem Mund und habe gedacht: wie machen die das? Wie kriegen die mit so wenig Code irgendwie so komplexe Sachen hin? Und dann habe ich auf der Rückfahrt im Zug irgendwie so ein bisschen recherchiert und bin auf eine Sache gefunden, die Leute immer wieder erwähnt haben, nämlich Fragment Shaders. Das ist ein OpenGL-Ding, da geht es darum, dass man ein kleines Programm schreibt, was, wenn man ein Bild erzeugen will, für jeden Pixel einzeln ausgeführt wird. Also man kriegt die Pixel-Koordinaten in dieses Programm rein, das Programm rechnet einem dann irgendeine Farbe aus, die dieser Pixel haben soll. Und der Vorteil ist, wenn man das so macht, kann man das super gut parallelisieren. Grafikkarten sind halt darauf ausgelegt, dass die total parallel für ganz viele Pixel gleichzeitig irgendwie dann diese Farbe ausrechnen können. Dafür ist diese Technologie gedacht. Und ich habe online dieses Buch gefunden, „The Book of Shaders“, das sich selbst nennt, irgendwie, „a gentle step- by-step guide through the abstract and complex universe of Fragment Shaders“. Das ist wirklich gut, das kann ich empfehlen, das nimmt einen sehr nett an die Hand, irgendwie, und zeigt einem mal wie das funktioniert, zeigt einem so ein paar Generierungsmöglichkeiten für komplexere Geometrien und so. Allerdings macht das nur 2D-Kram, also damit kann man jetzt noch nicht diese Demos bauen, die wir da gesehen hatten. Dann habe ich ein bisschen weiter geguckt und habe noch andere Webseiten gefunden und bin auf verschiedene Techniken gestoßen, um 3D-Geometrien – also, 3D-Grafik zu machen. Was ich in der Uni schon mal gehört hatte und was ihr vielleicht auch mal gehört habt ist „Raytracing“, wo man im Wesentlichen – wenn man so ein Bild ausrechnen will, das aus verschiedenen Pixeln besteht, dann schießt man von der Kamera aus, die irgendwie sich im 3D-Raum befindet, für jeden Pixel einen Strahl in die Szene rein und guckt mal, wo der auftrifft. In der Szene können dann, weiß ich nicht, hier, Kugeln sein oder irgendwie komplexere Sachen, und man guckt sich dann im Wesentlichen an, wo trifft dieser Strahl, den ich gerade schieße, als erstes auf, und welche Farbe hat das Objekt, und so ein bisschen vielleicht wie ist das schattiert, liegt das im Schatten, ist das irgendwie besonders angeleuchtet oder sowas, und diese Farbe kriegt dann halt der Pixel. Das ist so ein Standardverfahren, um irgendwie hübsche 3D-Geometrie zu rendern. Damit kann man dann sehr gut so was machen wie Glasobjekte, zum Beispiel, oder irgendwie weiche Schatteneffekte und so was. Und das ist eine Technik, die sehr lange es schon gibt und sehr etabliert ist, allerdings hat sie ein Problem, nämlich wenn man sehr komplexe Geometrie hat, dann sind diese Schnitttests total kompliziert. Also, wenn man herausfinden will, ob der Strahl jetzt mit irgendwas davon kollidiert, ist das vielleicht super aufwendig herauszufinden. Insofern eignet sich das nicht so gut für diese Demo, die ihr da gerade gesehen habt zum Beispiel. Sondern was man da macht ist ein anderes Verfahren, das nennt sich „Raymarching“. Hatte ich vorher noch nie gehört. Was macht man da? Man definiert sich eine mathematische Funktion, die einem für jeden Punkt im Raum gibt den Abstand zur nächsten Oberfläche eines Objekts. In diesem Beispiel ist das 2D, aber das funktioniert auch in 3D. Also stellt euch vor, irgendwie, ihr habt irgendwie eine Funktion, da tut ihr eine Koordinate rein, und ihr kriegt eine einzelne Zahl raus, und die sagt euch dann, okay, die nächste Oberfläche ist irgendwie einen Meter weit weg oder sowas. Und wenn ihr dann wieder die Sache macht, einen Strahl in die Szene zu schießen, dann könnt ihr halt, wenn ihr wisst, okay, der Strahl ist irgendwie hier, die nächste Oberfläche ist einen Meter weg, ich weiß nicht, in welche Richtung, aber irgendwie einen Meter ist sie weg, dann ist halt in einer Kugel mit einem Meter Radius auf jeden Fall kein Objekt drin. Das heißt, ich kann einen Meter nach vorne gehen, ohne gegen irgendwas gegen zu stoßen. Dann mache ich das und werte dann diese Funktion für den Punkt, an dem ich angekommen bin, noch mal aus. Und die sagt dann vielleicht, okay, das nächste Objekt ist einen halben Meter weg oder so, gehe ich wieder einen halben Meter nach vorne, und das wiederhole ich so lange, bis der Abstand zu einem Objekt ausreichend klein ist. Also in dieser Grafik ist es halt für den 2D-Fall demonstriert, wo man bei P0 anfängt und dann irgendwie als erstes so einen Abstand kriegt entsprechend des Radius dieses Kreises, den man dann vorwärts geht, und das so lange wiederholt, bis man irgendwo auftrifft. Und, genau, das kann man halt auch in 3D machen, und dadurch dann sehr elegant irgendwie Formulierungen finden für diese komplexen Geometrien, die ihr gesehen habt, wo man dann vielleicht Teile des Raumes beschreibt und die dann periodisch wiederholt oder so was, dann kann man diese Funktion auch einfach wiederholen. Naja, und wenn man das richtig gut kann, kann man damit halt so coolen Scheiß machen. Ich habe Anfang letzten Jahres auch mal einen kleinen Workshop dazu gemacht – wir verlinken die Folien nachher, dann könnt ihr euch das angucken wenn euch das interessiert – wo ich auch nochmal so ein bisschen demonstriere, wie das funktioniert, und dann auch anfange irgendwie, erstmal so mit dem 2D-Fall, irgendwie, wie man da einzelne Formen malt, wie man irgendwie sich Kreise definiert und irgendwie den Farben zuordnet und so, und später kann man dann vielleicht verschiedene 2D-Formen haben und sie so ein bisschen verschmelzen… gucken, ob ich da eine Stelle finde, genau, hier so was… das ist dann auch mit dieser distance function total einfach, sich das zu definieren, dass man halt irgendwie die Mittelpunkte der beiden Kreise hat und sich dann diese bisschen komplexere, bisschen, ja, irgendwie bouncy, knetbar aussehende Oberfläche erzeugt. Und von da kann man dann halt weitergehen in den 3D-Raum und da im Wesentlichen das Gleiche machen, sich dann irgendwie, zum Beispiel hier so einen Würfel mit runden Ecken definieren, wie gesagt, und dann irgendwie irgendeinen Untergrund bauen und dem vielleicht Wellen geben, und am Schluss dann das Ganze irgendwie ganz oft wiederholen, und da hat man so einen Flug durch irgendwie eine komplexe 3D-Welt mit Code, das sind ungefähr so, weiß nicht, vielleicht die doppelte Menge Code, die ihr da seht, oder so was, die man braucht um das zu schreiben. Naja, und insgesamt, sowohl Fragment Shaders als auch dieses Raymarching sind halt zwei Ansätze, Grafik zu machen, die ich vorher so noch nicht kannte und die mich ziemlich umgehauen haben, und ich dachte das interessiert euch vielleicht auch. Wenn man das richtig gut kann, kommt dabei so was raus. Das ist ein Mensch, der heißt – also der nennt sich IQ und macht so was seit vielen, vielen Jahren, und ich gucke mal, wenn man ans Ende springt – also das ist ein Video, in dem er tatsächlich mal erklärt, wie er arbeitet und wie seine Demos funktionieren, und einen da mitnimmt – ihr seht, das geht irgendwie knapp sechs Stunden, also das ist kein triviales Programm, ich hätte gerne… mal gucken, ob ich noch eine animierte Version davon finde, das ist halt so eine kleine niedliche Figur, die durch die Gegend springt, genau. Und sowohl der Untergrund bewegt sich als auch diese Figur bewegt sich, Und da hat IQ halt genau das Gleiche gemacht, sich eine Funktion definiert, zum Beispiel, die einem den Abstand zu der Oberfläche des Körpers dieser kleinen Figur angibt, und darüber kann man das rendern. Und generell hat dieser Mensch auch eine Webseite mit sehr, sehr guten Ressourcen zu dem Thema. Genau! Soweit dazu. bleeptrack: Vor einigen Jahren habe ich mal angefangen, jeden Tag ein kleines Bildchen zu zeichnen und das zu veröffentlichen, und denen hab ich einen Namen gegeben, die heißen jetzt Schnipsel, das eben so kleine snippets sind, die eben einfach jeden Tag entstehen. Und ich wollte einfach mal so ein bisschen was davon erzählen. So richtig genau weiß ich eigentlich nicht mehr, warum ich damit angefangen hatte, aber es ging auf jeden Fall ein bisschen darum, besser zu reflektieren, was man so macht, das habe ich während dem Studium noch angefangen, und euch geht’s vielleicht ähnlich wie mir, ich bin so jemand der mal voll gern so Projekte anfängt, aber dann vielleicht auch nicht fertig macht oder so ein Jahr später mal wieder dran weiterbastelt, und, naja, ich hatte irgendwie das Gefühl, ich verliere so ein bisschen den Überblick, was ich eigentlich am Tag mache, und dann studiert man noch und macht noch irgendwie 3000 andere Sachen parallel, dann fand ich es eigentlich immer schön, immer am Ende vom Tag oder am Beginn des nächsten Tages so ein bisschen zu reflektieren, was war denn der wichtigste Punkt in meinen letzten 24 Stunden? Und nachdem ich ganz gern zeichne und auch das Gefühl hatte, während meinem Informatikstudium, ich zeichne gar nicht mehr so viel, dachte ich, ich halte das einfach in kleinen Bildern fest. Und für mich war dann halt irgendwie wichtig, dass das auch irgendwie schnell gehen muss, und – können wir jetzt hier mal schon auf diesen Link klicken – ich habe kürzlich mal bei Twitter praktisch so einen kleinen Screencast, wenn man das so nennen will, aufgenommen, wie ich das zeichne. Also es musste für mich halt irgendwie schnell gehen, das ist halt wirklich wie so ein scribble, ich mach da nicht lange rum, ein so’n Bild dauert vielleicht irgendwie zehn Minuten oder eine Viertelstunde oder so was, und ich habe hier so ein Thinkpad, das hat so einen integrierten Digitizer, also einen Stift, das heißt ich kann das direkt digital machen, ich brauche da gar kein Papier, und probier halt einfach so ein bisschen rum, und verzichte auch irgendwie komplett auf Farbe, weil ich irgendwie für mich festgestellt hab, ich bin echt schlecht im kolorieren, und für so was reicht es total, irgendwie ein bisschen mit Schwarz-weiß zu arbeiten, aber Schatten haben mir Spaß gemacht, also ich hab immer so ein bisschen Schattierungen reingezeichnet. Die Auflösung ist auch total popelig, sind irgendwie 250 x 250 Pixel, das schränkt einen auch nochmal ziemlich ein, weil man dann so richtig Details eigentlich auch nicht mehr festhalten kann, ist im Nachhinein vielleicht ein bisschen schade, weil ich manchmal mittlerweile das Gefühl hätte, ich würde mir gerne auch mal so einen großen Abzug machen mit so einer Sammlung, und dann ist die Pixelauflösung tatsächlich ein bisschen arg gering, und ich hab dann auch irgendwann angefangen, die, wie ihr hier seht, einfach mal auf Twitter zu posten, weil ich dachte, das ist immer so ein bisschen schade, ich habe die zwar immer auf meine Webseite gepackt, aber da versauern die halt, da guckt die eigentlich irgendwie niemand an. Und dann hatte ich mal gefragt, würde sich das jemand angucken, wenn ich das auf Twitter posten würde? Dann kam von ein paar Leuten so, ja, ich würde mir das angucken, und dann hab ich das jetzt einfach mal probiert. Das ist einfach ein Bot das auch immer jeden Tag direkt mit auf meinen Twitter-Account haut, und ich habe tatsächlich auch sehr positives Feedback dann bekommen, weil ich habe oft mal auch so Tage, wo es halt so stressig, und ich verchecks dann einfach, die zu zeichnen, das kommt schon auch mal vor, beim Scrollen habt ihr vielleicht auch gesehen, da gibt es ein paar Monate wo fast gar nichts drin ist, da hatte ich einfach so viel Stress, dass ich es nicht gebacken bekommen habe. Dann haben auch wirklich Leute geschrieben, ist voll schade, dass du gerade nichts zeichnest, ich freue mich eigentlich jeden Tag auf dein kleines Bildchen. Und blinry hat es zum Beispiel auch mal ausprobiert, einen Monat lang, das könnt ihr euch gerne auch mal angucken, oder wir klicken da vielleicht auch mal drauf, dann können wir das mal groß machen. Du hast dir ein anderes Format ausgesucht, du hast das immer so kreisförmig gemacht, und du hattest das auch schon mal gemacht mit… Achtecken, wenn ich das richtig im Kopf habe, oder Sechsecken, oder hast dir immer andere Formate ausgesucht, das finde ich auch sehr schön. Bei mir ist halt quadratisch, blinry hat ja auch so einen schönen Monatszusammenschluss gemacht und das halt von Hand gezeichnet, das ist auch irgendwie sehr schön und sehr ästhetisch, wie ich finde. Und ich hatte ja schon gesagt, ich hab das jetzt gerade auf so einem Bot laufen, und kürzlich hatte ich halt nochmal eine API dazugenommen, dass er noch wo posten soll, und hab dann so einen Fehler nicht abgefangen, und dann ist mein – bin ins Bett gegangen, das war irgendwie so eine dumme Idee, und dann ist mein Bot ein bisschen Amok gelaufen, hat alle zehn Minuten das gleiche Bild noch mal gepostet, und dann kam halt irgendwie von 20 – also, früh wacht man dann halt auf, und man sieht dann irgendwie so aus… Aber ich hatte halt irgendwie die ganze Inbox voll mit „Oh, dein Bot läuft Amok! Oh mein Gott, die ganze Timeline von mir wird zugespamt! Das kann ja nicht wahr sein!“ Und irgendwelche haben dann schon runter geschrieben, „hihi, die schläft, die Nacht ist noch lang“, und ich bin auch irgendwie, ich dachte, das war so ein Tag, wo ich so ausgeschlafen habe bis um 10, und das war dann halt irgendwie nicht so schön, aber das Schöne ist, wenn man halt täglich ein kleines Bildchen zeichnet, dann kann man da halt auch einen kleinen Witz draus machen, mit einem fiktiven Bot, der sagt, „Hm, diesen Schnipsel mag ich sehr, sehr gerne! Und den zeige ich jetzt die ganze Nacht über“, und, naja. Ich finde – ich möchte euch eigentlich ein bisschen dazu ermutigen, mal so eine Reflektionstechnik sich auszusuchen, weil ich finde, das bringt einem sehr viel, gerade auch so – man hat so Tage wie den Congress, da passieren irgendwie 3000 Sachen an einem Tag, und die Tage verschwimmen so ineinander, und ich habe auch festgestellt, man kann – man hat – man findet so den positiven Aspekt in einem Tag, auch wenn es vielleicht eher so ein Scheißtag war, und man kann sich viel besser – also ich kann mich zumindest viel besser erinnern, was so passiert ist, vielleicht noch vor einem Monat, oder vor zwei Monaten, weil ich weiß ja noch, welches Bildchen ich an dem Tag gezeichnet habe. Also probiert es gerne mal aus – wer weiß, ob das jetzt ein Bildchen ist, vielleicht schreibt ihr auch nur ein Wort pro Tag auf, aber ich finde, das ist eine sehr schöne Technik, um sich mal selber zu verdeutlichen, was man eigentlich so schafft und eigentlich so macht. blinry: Ich möchte euch als nächstes etwas erzählen über mathematische Paradoxe, die ich ganz spannend finde. Zum Beispiel gibt es etwas, das nennt sich das „interesting number paradox“, das so etwas aussagt, wie: „alle Zahlen sind interessant“. Und das ist erstmal überraschend, für mich zumindest. Lasst uns das zusammen mal beweisen. Also, das ist ein Beweis, der läuft über einen Widerspruchsbeweis, das heißt wir machen am Anfang eine Annahme. Wir nehmen an, es gäbe überhaupt uninteressante Zahlen. Man beschränkt das üblicherweise auf natürliche Zahlen, irgendwie nicht negative ganze Zahlen, mit denen irgendwie Objekte zählen könnten oder so was, und wir nehmen mal an, es gäbe welche, die wären uninteressant. So. Stellt euch irgendwie einen Zahlenstrahl vor, und da sind jetzt diejenigen markiert, die uninteressant sind. Und wenn wir uns das angucken, dann gibt es halt unter denen auch eine, das ist die kleinste uninteressante Zahl: die, die halt auf dem Strahl am weitesten links sitzt. Und, ok, das ist irgendwie komisch, das ist eine Zahl, die ist gleichzeitig… ist sie uninteressant, aber diese Eigenschaft, dass sie die kleinste uninteressante Zahl ist, ist natürlich schon wieder total interessant. Und da kommt ein Widerspruch zustande, und wenn das passiert bei so einem Beweis, dann ist halt die Aussage, dass unsere Annahme falsch war. Und das zeigt uns halt, dass die Annahme, die kann nicht stimmen – wir haben angenommen, es gibt irgendwelche uninteressanten Zahlen, das heißt, das Ergebnis ist, alle natürlichen Zahlen sind interessant. Das ist ein Beweis, der klingt irgendwie komisch, da ist allerdings kein doppelter Boden drin, es gibt so ein paar Beweise, wo man sich irgendwie 1 = 2 herleitet oder so, wo man dann irgendwo durch 0 teilt, das ist natürlich Quatsch – das ist ein relativ wasserdichter Beweis, der nicht ganz ernst gemeint ist, aber der schon irgendwie einer kritischen Betrachtung standhält. Naja. Ach so, genau, ich wollte noch erzählen: trotzdem gibt es Leute, die versuchen dann, diese kleinste uninteressante Zahl zu finden, und nehmen dann verschiedene Kriterien her, irgendwie. Es gibt so eine Online- Enzyklopädie der Nummersequenzen, die gucken sich dann da die kleinste Zahl an, die da nicht drin vorkommt oder so was. Oder zum Beispiel die kleinste Zahl, die keinen eigenen Wikipedia-Artikel hat: ich habe vorhin mal nachgeguckt, das ist momentan die 262. Ist die besonders interessant? Vielleicht – gibt wohl nichts über sie zu erzählen, bisher. Das nächste Paradox, das ich mitgebracht habe, hat mit diesem geometrischen Objekt zu tun. „Gabriels Horn“. Diese Oberfläche ist so definiert: ihr nehmt euch die Funktion 1/x her, das ist hier diese rote Linie, diese Kästchen sind jeweils eine Längeneinheit lang. Und wir gucken uns dann einen bestimmten Bereich davon an, nämlich schneiden wir den an dieser Stelle 1 ab und gucken uns den ganzen Teil, der dann nach rechts läuft, an, nehmen diesen Verlauf und rotieren den um die x-Achse. So ist dieses Objekt konstruiert. Was wir dann kriegen, ist halt so ein sehr, sehr spitz, unendlich weit nach rechts zulaufendes, Ding, was irgendwie aussieht wie ein Trichter. Und dieses Objekt hat eine super spannende Eigenschaft, nämlich: Also, die Oberfläche des Objektes ist unendlich groß, was irgendwie einleuchtet, weil es ja unendlich weit nach rechts läuft. Wenn man irgendwie das versuchen würde mit Farbe anzumalen oder so was, würde man unendlich viel Farbe brauchen, weil man irgendwie das ganze Ding nie vollgemalt bekommt. Allerdings, wenn man es jetzt mit der Öffnung nach oben dreht und die Farbe da reingießt, irgendwie, um das Volumen zu messen, dann stellt man fest, das ist ein endliches Volumen, das Ding ist irgendwann voll. Und das ist eine super spannende Kombination von zwei Eigenschaften, finde ich, also wenn man das mit Farbe aufgefüllt hat, innen, könnte man sagen, okay, das berührt ja jetzt irgendwie die gesamte Oberfläche von innen, aber trotzdem, wenn wir es anmalen, reicht es halt nicht. Und, naja, dieses Paradox mit der Farbe, das klingt erstmal total komisch – man kann das ein bisschen auflösen, indem man sich vorstellt, wenn wir das nicht von außen anmalen würden, sondern von innen, dann kämen wir halt irgendwann, wenn wir weiter nach rechts in diese Spitze reinmalen, in so einen Bereich, wo die Farbschicht vielleicht so dick ist, dass sie da gar nicht mehr rein passt. Das heißt, wenn man es von innen bemalt, müsste man mit der Farbschicht eigentlich auch immer dünner werden, und wenn man das dann so rechnet, dann ist halt doch die Farbmenge wieder begrenzt. Das heißt dieses mit der – also, mit Farbe füllen funktioniert, mit Farbe anmalen, ist unendlich viel Farbe, kann man dadurch so ein bisschen auflösen, und auch diese Eigenschaft, dass die Oberfläche unendlich groß ist und das Volumen endlich, also, man kann sich das ausrechnen. Man kann sich Integrale aufschreiben mit dieser Funktion 1/x und dann irgendwie integrieren über die Länge und so, und sich ausrechnen wie groß die Oberfläche ist, man sieht sie ist unendlich, und wie groß das Volumen ist, und man sieht es ist endlich. Das ist allerdings nicht besonders intuitiv. Ich könnte euch jetzt die Formeln zeigen und dann würdet ihr das vielleicht glauben oder vielleicht auch nicht, aber was ich dann noch fand ist eine Betrachtung oder ein Vergleich, der einem das so ein bisschen schmackhafter macht, nämlich: Wenn ihr euch vorstellt, ihr nehmt ein Stück Knete, eine definierte Menge Knete, macht daraus irgendwie eine kleine dicke Schlange oder so was, so einen Zylinder, zylindrische Form, und guckt euch dann mal die Oberfläche von dem ganzen Ding an. Dann ist die Oberfläche halt ungefähr so der Umfang dieser Form des Zylinders mal der Länge. Das ist quasi so, als würde man da irgendwie Papier darum legen, wenn man das aufrollt hat man so ein Rechteck, die eine Kantenlänge des Rechtecks ist so lang wie der Umfang, die andere Länge so lang wie diese Schlange lang ist. Und jetzt nehmen wir diese Knete und rollen sie ein bisschen dünner, dass sie nur noch halb so dick ist. Was dann damit passiert, ist, dass, naja, also die Höhe halbiert sich und das heißt, es halbiert sich auch der Umfang dabei. Allerdings wird die Querschnittsfläche, wenn ihr das einmal durchschneiden würdet, auf ein Viertel sinken. Und das bedeutet, weil ja das Volumen konstant bleibt – wir nehmen ja keine Knete weg oder so was – wird diese Schlange danach viermal so lang sein. Das heißt, okay, was haben wir? Wir haben die vierfache Länge, wir haben den halben Umfang, das heißt die Oberfläche dieses Dings hat sich verdoppelt gerade, während das Volumen konstant geblieben ist. Und das bedeutet, je dünner man diese Schlange rollt, desto mehr verschiebt sich dieses Verhältnis von Fläche und Volumen, und das ist halt auch genau das, was hier bei diesem Objekt passiert, dass man das quasi unendlich weiter dünner macht und dabei halt dieses Verhältnis völlig aus dem Gewicht gerät und dadurch diese Eigenschaft zustande kommt. Ein bisschen ähnlich und mit Unendlichkeit zu tun hat auch das „coastline paradox“, wo es darum geht, dass man die Länge einer Landesgrenze messen will. Und da kommt es dann sehr darauf an, wie genau man das macht, was dabei rauskommt. Wenn ihr euch vorstellt, ihr habt irgendwie ein sehr langes Lineal, und man legt das dann jetzt irgendwie mal an diesen Landesumriss an, kippt das immer so ein bisschen weiter, geht da irgendwie einmal rum, dann kriegt man irgendeine Zahl raus, okay, man könnte sagen, das ist die Länge, aber dann könnte jemand kommen: „das hast du nicht genau genug gemessen, und wir müssten eigentlich das mit einem kürzeren Lineal machen, was das irgendwie genauer misst, und irgendwie in Meeresbuchten noch reingeht“, das ist so der Unterschied hier zwischen dem linken Beispiel und dem rechten, wo man halt beim rechten einen viel kürzeren Maßstab genommen hat und damit genauer diesen Umrisse misst. Das heißt, davon hängt es sehr ab, was man da für eine Zahl herauskriegt für die Länge dieses Landesumrisses. Und das lässt sich halt beliebig weit fortführen, wenn ihr euch jetzt vorstellt, ihr steht irgendwie am Strand dieses Landes und wollt messen die Länge der Linie zwischen dem Sand und der Wasserkante oder so was, könnt ihr jetzt ein 30-cm-Lineal nehmen oder so, und da hinlegen und dann weiterlegen und so, und sagen, okay, das sind jetzt 60 cm, aber dann kommt vielleicht irgendwie ein Lebewesen, was noch viel kleiner ist als ihr, und sagt, ihr hättet doch auch jetzt so um die einzelnen Sandkörner herum messen müssen und so, und dann noch in die Lücken gehen, und dann kriegt man halt noch eine längere Länge raus. Und das führt sich beliebig fort weiter, irgendwie, die Sandkörner haben dann vielleicht Unregelmäßigkeiten, wo man rein messen kann, und wenn man auf atomare Ebene kommt, wird das irgendwie alles sehr merkwürdig, aber trotzdem sehen irgendwie, dass das Konzept einer Länge eines Landesumrisses halt nicht gut definiert ist. Mathematiker sprechen davon, dass diese Form eine fraktale Dimension > 1 hat, das heißt, je genauer man hinguckt, desto länger wird dieses Ding. Und das finde ich nicht besonders intuitiv. Und das letzte Paradox, das ich mitgemacht habe, ist das Geburtstagsparadoxon. Manche von euch kennen das vielleicht. Im Wesentlichen geht es darum, also, wenn ich jetzt hier im Saal mich mal umgucke und irgendwie hier diese rechte Sitzspalte von euch nehme, ihr seid vielleicht 30 Leute oder so, würde ich schätzen, und die Frage dieses Paradoxons ist ist dann: Wie wahrscheinlich ist es, dass zwei von euch am genau gleichen Tag Geburtstag haben? Und wenn ihr mögt, und das noch nicht kennt, könnt ihr mal versuchen zu schätzen, irgendwie, was da so – also einfach so einen Prozentwert, wie wahrscheinlich das wäre, wenn ihr mögt. Habt ihr da irgendwie Ideen? Publikum: Gehen wir von 30 aus? blinry: Gehen wir von 30 aus. Publikum: Wahrscheinlich 30! blinry: lacht Publikum: Das ist hoch! blinry: Da wird gesagt, die Wahrscheinlichkeit sei hoch. Und, also – über 50 wird gesagt? Mhm. Das habe ich jetzt natürlich auch als Paradoxon eingeleitet, wo schon ein bisschen klar ist, dass wahrscheinlich irgendwie was Unerwartetes rauskommt. Wenn man da naiv rangeht, könnte man halt denken, okay, 30 Leute, es gibt irgendwie 365 Tage im Jahr, dass es da irgendwie eine Übereinstimmung gibt, ist die Wahrscheinlichkeit nicht so super hoch. Aber dadurch, dass, wenn man eine Person einer Gruppe hinzufügt, es halt viel mehr Paare gibt auf einmal, steigt diese Wahrscheinlichkeit halt schneller, als man denkt. Wenn man das als Graphen aufmalt, kriegt man hier auf der x-Achse die Anzahl Leute und auf der y-Achse die Wahrscheinlichkeit, dass es da irgendwie, dass zwei Leute an einem Tag Geburtstag haben. Und bei 30 Leuten sind wir da halt tatsächlich über 50%, irgendwie so bei 65% oder sowas, was ich wieder erstaunlich hoch finde. Und tatsächlich, ungefähr, also, genau – 23 Leute ist so die Grenze wo es dann – wo die Wahrscheinlichkeit über 50% ist. Weiß jetzt nicht, ob ihr Lust habt, irgendwie nach dem Vortrag mal rauszufinden, ob das tatsächlich der Fall ist bei euch irgendwie, und die beiden Leute zu finden, die vielleicht am gleichen Tag Geburtstag haben, könnt euch irgendwie nach Monaten gruppieren oder so, das werden wir nicht anleiten. Aber dieses Ergebnis finde ich spannend. bleeptrack: Im Sommer, vor dem Camp, wollte ich mir einen coolen Stuhl bauen, ich habe mir gedacht, der soll irgendwie ein tolles Muster noch haben, und ich habe mich ein bisschen umgeguckt im Netz und habe ein spannendes Paper gefunden, das heißt „Modeling and visualization of leaf venation patterns“. Klingt jetzt erstmal irgendwie wirr. Also, es geht um das Adernwachstum in Blättern. Und die haben dann einen Algorithmus beschrieben, der eigentlich ganz simpel ist, den wollte ich euch mal zeigen, der ergibt nämlich enorm tolle Ergebnisse. Da können wir mal ein paar angucken. Das sind Ergebnisse, die die erzeugt haben damit, bei a) haben sie halt erstmal diese Wenigen ganz spärlich wachsen lassen, Richtung e) dann schon sehr verzweigt, und ihr seht schon, es gibt auch unterschiedliche Varianten, die bei c), die hören so in der Luft auf, und bei e) fangen die Adern an, auch so Loops wieder zu schließen, und bei f), g), h), da ist dann praktisch auch noch mal so ein bisschen unterschiedliche Parameter, dann bilden sich da größere Zellen oder kleinere Zellen. Und wir können uns mal ganz kurz anschauen, wie das funktioniert, das ist nämlich gar nicht so schwer. Die gehen davon aus, dass die Blattform vorgegeben ist, das ist dieser Umriss bei a. Die schwarzen Punkte, die ihr seht, ist die Vene oder die Ader, wie sie bisher gewachsen ist, die wird da in so Punkten dargestellt, und die roten Punkte sind Auxine, das sind in Blättern… ich weiß nicht, ob das Hormone sind, aber Wachstumsregler in so einem Blatt. Und eine Vene möchte zu seinem roten Auxinpunkt wachsen. Diese Auxinpunkte, die werden erstmal platziert in diesem Blatt, und danach wird geschaut, welcher Venenpunkt oder welcher Adernpunkt denn am nächsten zu welchem Auxinpunkt liegt, das sind dann die roten Linien, die ihr in b seht. Und jede Verbindung, jeder nächstgelegene Auxinpunkt beeinflusst die Richtung, in die die nächste Adernwachstumsphase eingeleitet wird. Das heißt, hier oben, der obere Punkt hier, der wird von zwei Punkten beeinflusst, das heißt der Mittel davon, praktisch die… genau, die – nee, der wird von drei beeinflusst, sorry, den hier unten hab ich vergessen, von den dreien beeinflusst, das heißt die Mittelrichtung ist dann die, in die der nächste Punkt gesetzt wird, das wäre dann der hier oben, der wird dann platziert. Im nächsten Schritt wird geguckt, es gibt so einen Umkreisradius, der wird als Parameter definiert, liegt in diesem Umkreis ein Venenpunkt, dann wird das Auxin vernichtet, dann wurde das Auxin praktisch gefressen von der Vene und verschwindet. Im nächsten Schritt ist das Blatt dann gewachsen, das heißt man skaliert diesen Blatt-Shape einfach ein bisschen größer und setzt dann neue Auxinpunkte, die werden erstmal zufällig gesetzt, und dann wird aber geguckt, ob zwei zu nahe beieinander liegen, da gibt es dann auch so einen eigenen Umkreis, das heißt, wenn zwei sehr nah sind, dann wird auch wieder einer rausgelöscht, so dass – das ist ein bisschen wie Poisson disc sampling, also da werden einfach Punkte verteilt, dass sie einfach einen Mindestabstand haben, und dann fängt das Ganze eigentlich immer von vorne an. Das heißt, es wird immer geguckt, wie viele Auxinpunkte gibt es, welche beeinflussen die Ader, das heißt die wachsen immer irgendwie so zu dem Auxin, die können dieses Auxin fressen oder verbrauchen, und so… naja, so verästeln sich da diese Adern. Und ich habe das dann einfach mal implementiert, das sieht dann zum Beispiel so aus, wenn es dann denkt, abzuspielen – genau. Was ihr hier aber auch schon seht, was ich in diesem Fall passiert ist, ist, dass die Venen mitskalieren, das sind praktisch zwei Modi in der Simulation, die die vorstellen, einmal skalieren diese Venen mit in diesem Skalierschritt und einmal nicht, und je nachdem, ob man das macht oder nicht, enthält man Adern, die einfach sehr blitzförmig nach außen wachsen oder die eben sehr stark nach innen verästeln. Das habe ich eben einfach einmal nachimplementiert, das ist irgendwie nicht so tragisch, und die ganzen Sachen sind jetzt hier bunt, damit man es – damit ich für mich praktisch sehe, wo so einzelne Abschnitte liegen. Im letzten Schritt, wenn die Simulation dann fertig durchgelaufen ist, dann kann ich noch berechnen, wie dick so eine Ader sein soll, wenn die nämlich mehrere Verzweigungen hat, dann ist die Ader natürlich dicker, da fließt ja der Adernsaft durch, und wenn diese Adern Richtung Blattende gehen, dann werden die dünner. Und das sind noch Ergebnisse, die die auch in dem Paper veröffentlicht haben, die ich ganz spannend fand, links ist immer eine Fotografie und rechts deren gerendertes Modell auf praktisch den gleichen Umriss, und da sieht man mal, wie ähnlich tatsächlich die Ergebnisse sind, also ich finde, mit ihrer Simulation haben die das eigentlich ganz gut erfasst, wie das Wachstum funktioniert. Und, wie gesagt, es sollte ja ein Stuhl werden, das heißt, ich hatte mir das implementiert und habe das dann einfach mal auf meine CNC- Fräse gelegt, die ist leider nicht, naja, die ist so eine Eigenbau-CNC-Fräse, also da dauert das alles ziemlich lang, das heißt das Ausfräsen von einem so’n Teil hat immer ungefähr 5 Stunden gedauert, und ich brauchte zwei von diesen Teilen, damit da ein ganzer Stuhl daraus wird. Da hat dann – so eine Platte hat dann zum Schluss so ausgesehen, ich habe von Hand diese Quadrate noch eingesetzt, das sind so – „Nuten“ ist falsch, aber der steht praktisch, wo ich die Stuhlbeine einstecken möchte, später, und ich habe die Venen außenrum geschlossen, damit es ein bisschen stabiler wird. Und das Stuhlergebnis schaut dann so aus, die Files sind online auf der Webseite, solltet ihr euch den nachbauen wollen, und ich – der Knackpunkt, den ich dann zum Schluss festgestellt habe, wenn man so was hat wie Adernwachstum, und man maximiert da ja praktisch die Oberfläche, das verästelt sich ja total, dann wird Nachbearbeiten von Holz auf einmal ganz spannend, weil man auf einmal sehr viel Oberfläche hat, und von Hand mit Schmirgelpapier nochmal jede kleine Ritze nachtzuarbeiten, hat sehr viel Spaß gemacht. Aber es ist ein sehr netter Stuhl und irgendwie, ja – war ein sehr schönes Projekt für den Sommer mit generativer Kunst. Mir wurde gerade 0 Minuten angezeigt, aber nach uns ist niemand, stört euch das, wenn wir einfach noch kurz ein paar Minuten weitermachen? Dann machen wir nämlich einfach direkt weiter. blinry: Hallo. Danke. Ich möchte euch erzählen die Geschichte der illegalen Primzahlen. Und diese ganze Sache hat zu tun mit DVDs. Wir haben einige junge Leute im Publikum, wer von euch hatte schon mal eine DVD in der Hand? Ich würde auch gerne die Gegenprobe machen, ob jemand das noch nicht hatte? Das ist tatsächlich niemand, das ist spannend, da sind wir alle auf demselben Level, das ist gut. Also, DVDs. Ihr kamt vielleicht mal in die Situation, dass ihr eine hattet und eine Sicherheitskopie davon machen wolltet, und dann hat vielleicht das Programm eurer Wahl so etwas gesagt, dass die DVD kopiergeschützt wäre und das deshalb nicht ginge. Da haben sich Leute mal Gedanken darüber gemacht, wie kriegen wir das hin, das Leute sich nicht einfach irgendwie unseren Content kopieren, haben sich ein Verfahren ausgedacht, den Inhalt darauf zu verschlüsseln. Das ist ein Verfahren, das nennt sich CSS, lustigerweise, steht für Content Scrambling System, und ist halt so ein Verfahren, das irgendwie geheime Keys und geheime Verfahren hat und irgendwie die Bits auf der DVD durch einen komplizierten Algorithmus routet, den ich mir nicht genau angeguckt habe, wo dann am Schluss irgendwie eine entschlüsselte Version rauskommt. Und, naja, die haben halt Informationen darüber, wie man das verschlüsseln kann, an Leute gegeben, die Content herstellen, und Informationen über Entschlüssellung an Hersteller von Abspielgeräten, so authentifizierten Abspielgeräten, die keine bösen Sachen damit machen, sondern das nur auf einen Bildschirm leiten oder sowas, und, ja, haben gehofft, dass das längere Zeit so bleibt, dass Leute keinen Unfug damit treiben. Dann haben sich Leute hingesetzt, sich einen DVD-Spieler genommen, irgendwie versucht zu reverse engineeren, wie dieses Verfahren funktioniert und was die Keys sind und so, und haben das halt mal in C nachimplementiert, CSS-Descrambling. Das ist jetzt so die Hauptfunktion dieses Verfahrens, drumrum im Sourcecode stehen noch ein paar längere Tabellen von Zahlen, das sind so ein paar Tables, die hier irgendwie mit CSSt2 und so referenziert werden, wo ab und zu mal Lookups drin passieren, aber das ist so der Kern davon, und andere Personen haben sich dieses Programm genommen, haben dazu eine GUI geschrieben, was es den Leuten sehr einfach machte, irgendwie DVDs zu kopieren. Und das gefiel natürlich dann vielen Leuten nicht, es gab irgendwie verschiedene Gerichtsverfahren irgendwie gegen diese Person, die die GUI geschrieben hat, ich glaube es war ein Norweger, und, naja, da wurde es dann relativ schnell knifflig, irgendwie, was man dann da eigentlich genau verbieten will, irgendwie wie dieser Algorithmus funktioniert oder die Keys oder was? Und Leute haben sich dann tatsächlich mal, naja, ein bisschen kreativer damit auseinandergesetzt, wo eigentlich so die Grenze liegt zu dem, was eigentlich geschützt werden soll, und dann zum Beispiel „DeCSS – The Movie“ produziert, da scrollt im Wesentlichen der Sourcecode zu dramatischer Musik durch den Weltraum, so ein bisschen Star Wars-mäßig irgendwie, und da ist dann halt die Frage, ist das jetzt irgendwie ein künstlerisches Produkt, was schützenswert ist, oder was verboten werden soll, oder wo es da… wie ist das so? Oder Leute haben eine dramatische Lesung gemacht des Sourcecodes, ich dachte, da hören wir mal kurz rein, das geht 7 Minuten, einfach mal so die ersten Sekunden oder so… Aufnahme: Ciphermagi(?) productions present: css_descramble.c. Written by Derek Fawcus. Read by Xader Vartec. Procedure css_descramble. /*** This function does the actual descrambling. * sec: encrypted sector (2048 bytes). key: encrypted title key obtained from CSS… blinry: Und so weiter. Ihr versteht die Idee. Was ist noch passiert? Leute haben Haikus geschrieben, also jetzt nicht nur einen, sondern ungefähr – ich glaube 600 Stück oder so, die beschreiben, wie der Algorithmus funktioniert. Tatsächlich sind darin auch die Keys untergebracht, und das ist jetzt hier so ein Kernstück davon, also Haikus, ihr kennt das irgendwie: fünf Silben, sieben Silben, fünf, stimmt das? So eine japanische klassische Gedichtsform, irgendwie, an die man sich relativ strikt halten kann, wenn einem das Spaß macht, und da schreibt dann halt jemand: „All we have to do / is this: copy our DKEY / into im1; use the rule above / that decrypts a disk key (with / im1 and its; friend im2 as / inputs) – thus we decrypt the / disk key im1.“ Und so weiter, über viele, viele Seiten. Ist das Kunst? Ist das ein Programm, ist das ein Algorithmus? Wer weiß. Leute haben das übrigens auch auf T-Shirts gedruckt und auf Krawatten, und das irgendwie angefangen zu verkaufen und zu tragen und so. Naja, und ein Mathematiker hat sich mal hingesetzt und hat diese Zahl bestimmt. Die Zahl ist interessant, weil wenn man sie in hexadezimaler Notation schreibt, ist das eine ZIP-Datei, die dieses C-Programm enthält. Lautes Lachen im Publikum Und das ist eine Primzahl, und das macht es so spannend, also der Trick über den das gefunden wurde, war tatsächlich, dass bei einer ZIP-Datei, da kann man irgendwie beliebig Null-Bytes hinten anhängen, ohne die Bedeutung der Datei zu verändern, und das hat halt der Mensch ausgenutzt, irgendwie, um mal ziemlich brute force- mäßig irgendwie nach einer bestimmten Regel zu gucken, okay, was sind so Primzahlkandidaten davon, irgendwie, und dann mal ein paar darauf zu überprüfen, ob es wirklich welche sind und bei einer Zahl hatte er halt Glück, und, genau, hatte diese Primzahl, die jetzt vielleicht eine illegale Primzahl ist. Das war die allererste, die er gefunden hat, er hat später auch noch eine bestimmt, die ungefähr doppelt so lang war, und das war interessant, weil es zu dem Zeitpunkt, zu dem der das gemacht hat, das war so irgendwie kurz nach der Jahrtausendwende, glaube ich, zu den zehn größten Primzahlen, die bekannt waren überhaupt, gehörte, und das machte sie halt allein durch diesen Umstand schon irgendwie veröffentlichungswürdig, und dann ist es so gelandet in Highscore-Listen von den größten Primzahlen, also, ist auf ganz vielen Webseiten gelandet, und das finde ich ein sehr charmanten Hack, irgendwie, die Informationen zu verbreiten. bleeptrack: Zum Schluss noch ein bisschen Kunst, ein bisschen Kunst aus dem KI- Umfeld, und ich will nicht viel über neuronale Netze reden, nur eine Kleinigkeit vorneweg, damit man so ein bisschen ein Gefühl hat, was eigentlich passiert. Was wir hier anschauen, ist ein „variational autoencoder“, das ist so eine der einfachsten Methoden für ein neuronales Netz, irgendwie Bilder zu generieren. Was ihr oben seht, ist ein Teil des Netzes, da kann ich vorne ein Bild reinschmeißen, ich sage jetzt mal ganz banal, der macht da Neuronale-Netz- Magie, wir landen in einem Raum, der nennt sich „latent space“, das ist eine sehr heruntergebrochene Repräsentation von Bildern, und ich kann das ganze auch wieder rückwärts machen, um daraus wieder das ursprüngliche Bild zu rekonstruieren, das mache ich in meiner Trainingsphase. Das heißt ich schmeiße Bild rein, der verwurstelt das, rekonstruiert, und dann gucke ich mir die Differenz an und kann mit dieser Differenz praktisch lernen und das Verfahren optimieren. Was ich aber auch machen kann, ist, ich schmeiße am Anfang kein Bild rein, sondern steige tatsächlich direkt in diesen latent space ein und mach da, such mir da drin, in diesem space, in diesem Raum einen zufälligen Vektor und lass den mal rekonstruieren, und mal gucken, was dann für ein Bild rauskommt. Das sind so Verfahren, mit denen da gearbeitet wird. Und was ich dann halt auch machen kann, angenommen, ich habe hier irgendwie zwei Bilder, zum Beispiel irgendwie links diesen Hund und rechts diesen – ist es ein Leopard? ich glaube schon, mit zwei komischen Ohren, also irgendwas – beim Generieren im Modell auch nicht so toll – aber was ihr schon seht, man kann jetzt auch auf einmal Zwischenbilder berechnen, ganz spannend, das was man ganz früh in den 90ern mit so komischer Morph-Software gemacht hat, kann man mal jetzt mit neuronalen Netzen machen, das heißt, ich suche mir die beiden Bilder in diesem latent space und kann dazwischen interpolieren. Und das sieht halt viel spannender – diese Interpolation ist viel spannender, als tatsächlich auf Pixelebene zu interpolieren, weil auf Pixelebene interpolieren wäre überblenden, wie man es in einem Video kennt, ja, ich blende von A nach B über, das ist doof, und hier habe ich halt, naja inhaltlich zumindest halbwegs korrekte Bilder, die rauskommen, das kann man dann auch in Videos rendern, das sieht dann vielleicht so aus. (Den Ton brauchen wir in dem Fall nicht, der ist nicht so spannend.) Das Modell hier heißt „Big GAN“, da wurden auch unterschiedliche – die Bilder in unterschiedliche Klassen kategorisiert, in Hunde, Blumen und so, die benutzen aber keinen variational autocoder, das sind dann andere neuronale Strukturen, aber die besitzen halt trotzdem diesen latent space, das heißt, diese Interpolation kann ich trotzdem machen. Und dieses Morphing, nenne ich’s jetzt mal, das da stattfindet, sieht halt, finde ich, total faszinierend aus. Was man dann auch auf einmal machen kann, ist Vektor-Mathe in diesem Raum, das heißt, man kann sich mal angucken, ob es bestimmte Vektoren gibt, um die ich diesen Punkt verschieben kann in dem Raum, die bestimmte Sachen auslösen, oder ich kann mir Punkte in diesem Raum angucken und die halt clustern und zum Beispiel sagen, in dem Fall haben wir hier zum Beispiel irgendwie ein Clustering gefunden mit Damen, die lächeln, und Damen, die neutral sehen, und jetzt kann ich auch so was sagen, wie: Ich nehme den einen Punkt, den einen Vektorpunkt, ziehe den vom anderen ab, das heißt smiling woman minus neutral woman wurde auf einmal neutral man, weil dieses Frauen-Attribut praktisch wegsubtrahiert wird, ich kann es aber auch zum Beispiel ganz unten mit Sonnenbrillen oder mit Brillen machen und sag, man with glasses minus man without glasses ist dann auf einmal woman without glasses, weil ich das halt auch praktisch wegsubtrahiert hab. Und da kann man sehr viel Spaß mit haben, weil wir es ja vorhin von Twitter- Bots hatten gibt es hier nämlich auch noch einen, das ist der „smiling vector bot“, der sucht sich einfach Bilder, sucht dann dieses Bild passend im latent space und addiert da einen Lächeln-Vektor drauf, oder zum Teil subtrahiert ihn dann auch wieder, je nachdem, und es gibt oft so ein bisschen creepy Ergebnisse, aber man kann sich da halt mal durchscrollen… vielleicht klicken wir nochmal den kompletten Account an, dann schauen wir mal was er aktuell gepostet hat… Ups, okay… genau, der postet halt eben auch regelmäßig und nimmt da – ich weiß ehrlich gesagt nicht, wo er die Bilder reinfüttert oder wo die herkommen, zum Teil macht er das auch auf Videos und morpht da dann hin und her. Was ihr vielleicht auch schon gesehen habt, ist „DeepDream“, das ist praktisch so eine Überoptimierung auf einem Bild. Ihr seht schon hier (da machen wir auch den Ton aus, glaub ich, der ist ein bisschen komisch), hier wurde das auf einem Video gemacht, das ist ganz spannend, und ihr seht schon, trainiert wurde das neuronale Netz eigentlich auf Bildern von Hunden, das heißt, hier werden sich praktisch jetzt überall Hunde reingedacht, und ich glaube… jetzt weiß ich nicht… ich habe noch kein LSD probiert, sieht so ein LSD- Trip aus? Aber so würde man sich’s vorstellen, würde ich mal sagen, es ist sehr… es ist super trippy und super abstrakt, und es ist auch ganz spannend, zu sehen, wo überall so Gesichter und Muster auftauchen. Was bei dem Video jetzt auch sehr bemerkenswert ist, ist, dass es sehr konsistent ist, also wenn man so einen Kameraschwenk hat, dann bleibt so ein Hundegesicht stehen, das war am Anfang bei den ersten Versuchen, so neuronale Netze auf Videos anzuwenden, oft nicht, da muss man mal ein bisschen mittricksen, dass Sachen da konsistent bleiben, ansonsten wobbelt es noch viel mehr. Ah, genau, das habe ich jetzt auch noch vor ein paar Tagen gefunden, das ist noch mal so eine Interpolation, aber nur auf Katzenbildern, die fand ich auch irgendwie sehr schön. Ich habe auch immer das Gefühl, man sieht halt auch zum Teil, wie die Positionen wechseln, also gerade wenn dann der Körper so anfängt, zu wobbeln, sind es hat diese ganzen typischen unterschiedlichen Fußpositionen, die die Katze so haben kann, die da halt auch mal so durchpermutiert werden praktisch. Ich kann übrigens den Twitter-Account generell sehr empfehlen, roadrunner01, ist zwar irgendwie so ein bisschen nichtssagend, aber der experimentiert ganz viel mit neuronalen Netzen und postet ganz oft so Videos, die sind immer alle ganz spannend anzugucken. Und wir waren ja bei Kunst, ich möchte euch noch ein paar Kunstprojekte zeigen, die ich sehr beeindruckend fand in der letzten Zeit. Das ist von Helena Sarin, die macht ganz viel, und da ist es sehr beeindruckend, dass die immer – die Datensätze, mit denen sie ihre neuronalen Netze trainiert, sind ihre eigenen Bilder und Fotos und Zeichnungen und sowas, und es ist oft – das sieht man nicht oft, weil Leute kratzen sich oft halt irgendwie Datensätze von irgendwo oder nehmen so große Bilderdatenbanken, und die macht alles auf ihren eigenen Datensätzen und hängt da diverse… also ich glaube, dass die mit GANs arbeitet, hauptsächlich aneinander, und generiert da irgendwie oft sehr abstrakte Bilder, die meisten Projekte laufen unter dem Namen „GAN Weaver“, dass sind oft so Bilder, die dann auch wie so ein Puzzle aneinanderhängen, also die finde ich sehr spannend anzuschauen, und in dem Fall war das glaube ich – genau, steht auch da, das ist ein Datensatz, das aus zwei unterschiedlichen Sachen trainiert wurde, einmal mit blühenden Bäumen und mit Bücherseiten, in denen Haikus standen. Anderes schönes Projekt ist von Tom White, der exploitet eigentlich neuronale Netze oder Bilderkennungssoftware, und der hat sich eine ganz spannende Architektur geschrieben, um praktisch an so abstrakte Bilder zu kommen, die aber immer noch erkannt werden von der Bilderkennung, also, ihr könnt ja, ich weiß nicht, vielleicht könnt ihr erraten, zum Beispiel das hier in der Mitte oben, was denkt ihr, nach was das aussieht? Publikum: Flugzeug? bleeptrack: Flugzeug, ja, könnte auch gut sein, ist etwas anderes. Das ist wohl auf das Modell von einem Hai trainiert, oder mit dem Modell von einem Hai trainiert. Was haben wir noch, wo man vielleicht noch ganz gut drauf kommt? Das andere dunkelblaue hier unten vielleicht, genau, ist ein Fön, was ich noch im Kopf hab, das hier war „cabbage“, also ein Krautkopf, und das hier unten, da stand „jack-o'-lantern“ dabei, also so eine Halloween-Kürbis… wie sagt man, geschnitzter Kürbis für Halloween. Und ich finde es halt ganz spannend, weil es ist ja sehr abstrakt, aber man erkennt als Mensch auch eigentlich schon immer noch ganz gut, was es eigentlich darstellt, und der experimentiert da auch in die Richtung sehr viel, finde ich sehr schöne Projekte. Uah, das war falsche Richtung, hier sind wir noch. Okay, noch drei kleine Sachen zum Schluss. Die sind alle von einem Künstlerduo aus Südkorea, und ich versuche das jetzt mal korrekt zu sprechen, „Shinseungback Kimyonghun“ heißen die (und ich hoffe, sie nehmen mir das jetzt nicht übel), da möchte ich drei kleine Projekte vorstellen. Das erste Projekt heißt „Nonfacial Mirror“, das ist ein Spiegel, wie ihr gleich sehen werdet, mit Gesichtserkennung, der aber eigentlich nicht möchte, dass man sich darin anschaut. [Unverständlich] Stimmt, ja, aber dreht der sich weg von der Person? Ich glaube, der ist umgekehrt, der verfolgt, oder, hab ich das richtig gesehen? Der ist praktisch das umgekehrte Äquivalent. Falls man es nicht gehört hat, gerade sagte jemand im Publikum, wir haben hier auch so eine Installation, das stimmt, da bin ich auch kurz vorbeigelaufen. Den finde ich sehr nett. Die Beispiele, die ich jetzt habe, sind alle mit Gesichtserkennung, die machen aber auch andere Sachen. Und die haben zum Beispiel einfach mal eine Kamera mit Gesichtserkennung in die Wolken gehalten, was man ja sonst so vielleicht auch ganz gerne macht und mal so schaut, was in den Wolken erkannt wird, und die haben halt sich immer das Bild gespeichert, wenn ein Gesicht erkannt wird, und haben das mal sehr groß abgezogen. Und die finde ich zum Teil auch sehr schön, weil man wirklich halt oft Gesichter da drin sieht. Und das allerletzte Projekt, auch sehr spannend, da haben die andere Künstler gebeten, ein Porträt zu zeichnen. Die Challenge dabei war aber, dass von oben eine Kamera auf die Leinwand gerichtet wird, mit Gesichtserkennung, und das Ziel war, das Porträt sollte eben nicht als Person erkannt werden, und das ist gar nicht so einfach. Und der Künstler hatte neben sich stehen den Laptop und konnte halt sehen, was wie erkannt wurde. Da liefen unterschiedliche Algorithmen, also ihr seht jetzt ja da praktisch immer, zum Beispiel den grünen, roten, oder einen blauen Rahmen, ich glaube, da liefen drei Algorithmen parallel, die versucht haben, da ein Gesicht darin zu erkennen. Man sieht ja dann schon, wie der Künstler halt dann hartnäckig versucht, irgendwie hier Augen anders zu platzieren, später werden dann auch mal irgendwie Linien einfach quer durchgemalt, so ein bisschen glaube ich vielleicht auch aus Frustration, dass immer noch ein Gesicht erkannt wird. Und das haben die mit sehr vielen Künstlern gemacht, die haben alle das gleiche Porträt bekommen, und da sind sehr spannende Gemälde dabei entstanden. blinry: Gut! Das waren die Themen, die wir euch mitgebracht haben heute. Ich hoffe, es hat ein bisschen Spaß gemacht, wir haben die Folien unter dieser URL, da sind auch verlinkt die beiden bisherigen Versionen dieses Formats, wenn euch das interessiert. Genau. Sonst quatscht uns an, wenn ihr uns rumlaufen seht, wir sind irgendwie auf Mastodon und Twitter unterwegs… und dann danke, dass ihr da wart, und habt noch einen tollen Congress! Abspannmusik Untertitel erstellt von c3subtitles.de im Jahr 2020. Mach mit und hilf uns!