Musik Herald: Hallo, hallo! So, jetzt im Abendprogramm der Wikipaka WG haben wir ein kleines Potpourri der Kuriositäten. Ein bisschen Kunst, ein bisschen Technologie und ich nehme an, ganz viel Fusion aus den beiden. Also einen schönen Applaus für Operation Mindfuck Vol. 2 mit bleeptrack und blinry! Applaus blinry: Hallo! Also wir fangen an mit ein bisschen über künstliche Intelligenz. Da hat man den Eindruck, über die letzten Jahre hat sich da viel getan. Und so Programme, die irgendwie kluge Dinge tun, sind irgendwie immer klüger geworden. Und ich hab euch ein paar Sachen mitgebracht, die je nachdem wie ihr das interpretiert - entweder danach denkt, glaub ich, man braucht gar nicht so viel Angst zu haben, dass die wirklich die Welt übernehmen oder, dass sie es vielleicht doch schneller tun, als ihr denkt. Gucken wir mal rein. Es geht um ein paar Forschungsthemen. Also, eine Gruppe von Forschern hat versucht, ein Programm zu basteln, die ein Retro Spiel spielen und dabei lernen, wie man das spielt, also von 0 auf. Haben die irgendwie vor Donkey Kong gesetzt oder so. Und dann hat halt das Programm gelernt, um den Score hochzutreiben, muss man irgendwie so ein bisschen rumlaufen und über Dinge springen und so und irgendwie Leitern hochklettern. Und das hat das ganze erfolgreich gemacht. Und dann haben sie das vor Tetris gesetzt und da ist irgendwie was Komisches passiert, wenn sie das angeguckt haben, was das Programm tut. Das hat einfach die Kästchen irgendwie so übereinander gestapelt, keine rein gecleart oder sowas, und dann total chaotisch irgendwie das Feld gefüllt. Und kurz bevor es oben angekommen ist und das nächste Teil gekommen wäre und Game Over gewesen wäre, hat es auf Pause gedrückt und ist da einfach geblieben. Was dann dazu führte, dass, ja, nach den Kriterien, die dem vorgegeben wurden, hat es halt nicht verloren und ist dann da halt... hat unbegrenzt viele Punkte gekriegt auf diese Art und Weise. Ja. Oder ein anderes Team wollte einen virtuellen Roboter bauen, der sich über eine Spielfläche möglichst schnell bewegt, also der eine Strecke möglichst schnell zurücklegt. Und dieser Roboter konnte aus Rechtecken, 3D Rechtecken oder Quadern bestehen, die zusammenhängen, die Muskelverbindungen haben oder sowas und auf Berührung mit dem Boden irgendwas besonderes tun oder sowas. Und die dachten: Okay, wir geben mal die Kriterien vor und lassen da einen generativen Algorithmus irgendwie drüber laufen und gucken mal, was da passiert. Und was ist passiert? Das Programm hat einen Roboter gebaut, der ein ganz ganz langes, dünnes Bein hatte und oben war so ein schwerer Würfel drauf. Das ist dann halt zur Seite umgekippt und hat diese Strecke dadurch sehr schnell zurückgelegt. Seitlich. Manche haben auch gelernt, noch am Ende so einen kleinen Salto, einen Überschlag zu machen, um noch ein bisschen extra Strecke dabei drauf zu kriegen. Nicht das, was die Forscher erwartet haben, aber da haben sie dann im Paper beschrieben, dass das passiert ist und fanden das wahrscheinlich selber ganz witzig. Dann gab es ein Programm, das sollte einen Algorithmus reparieren. Ein Algorithmus, der eigentlich eine Liste von Zahlen sortieren sollte. Der Algorithmus hat das meistens richtig sortiert. Manchmal gab's aber irgendwie ein paar Fehler. Und die Aufgabe für das Programm war, dass es lernen sollte, wie man den Algorithmus so fixt, dass es danach immer eine sortierte Liste ausgibt. Was hat das Programm gemacht? Es hat immer eine leere Liste ausgegeben, weil es gemerkt hat: Okay, dann akzeptiert meine Umgebung das als sortiert. Gut, auch nicht das, was die Forscher erwartet haben. Genau, das war so ein Fahrsimulator, wo Leute sich dachten: Okay, wir wollen nun ein autonomes Auto simulieren und mal gucken, dass das die Rundkurse möglichst schnell zurücklegt. Und deshalb geben wir als Vorgabe, dass die Durchschnittsgeschwindigkeit so hoch sein soll wie möglich. Und haben das angeworfen, haben irgendwie das wieder selbst lernen lassen und so. Tja, was ist passiert? Das Auto hat sich immer im Kreis gedreht. Das GIF spielt gerade nicht, aber ihr könnt euch vorstellen, es war einfach auf dieser Strecke irgendwie möglichst enge Kreise gefahren. Möglichst schnell, ist da so langgeschlittert, hatte dadurch eine super hohe Durchschnittsgeschwindigkeit, aber ist halt nicht vorangekommen. Und auch da waren halt die Vorgaben von außen falsch, was das Programm eigentlich lernen soll. Genau das war auch... das ist vielleicht eines meiner Lieblingsbeispiele. Da ging es darum, virtuelle Agenten zu bauen, die Fußball spielen auf einem 3D Feld und die Gruppe dachte sich: Okay, was ist da ein gutes Kriterium für einen guten Fußballspieler? Wahrscheinlich, dass man irgendwie oft an den Ball kommt. Das ist ein Zeichen dafür, dass man irgendwie am Spiel teilnimmt, dass man irgendwie den Ball weitergibt oder so. Und genau. Und was hat das Programm dann gemacht? Die Agenten haben sich den Ball gegriffen und möglichst schnell dagegen vibriert mit einem ihrer Körperteile, um halt möglichst viele Berührungen zu erzeugen dabei. Und, ja. Gut, und hier noch ein letztes Beispiel, was mal schiefgegangen ist. Da ging es um Klassifizierung von Bildern. Das ist so ein relativ typisches KI- Problem, dass man dem irgendwie ein Bild zeigt und das Programm soll entscheiden: Ist da eine Katze drauf? Oder ist da keine Katze drauf? Zum Beispiel. Und in dem Fall hat jemand so ein Programm geschrieben und irgendwie trainieren lassen und hat festgestellt, dass das total schnell supergut wurde. Mit Treffersicherheiten über 90 Prozent oder so. Und aus der Vergangenheit und aus alter Forschung wusste die Person, dass das eigentlich länger dauert und nicht so zuverlässig funktioniert und hat da irgendwie länger rein geguckt, was da wohl geschehen ist. Und der Grund war, dass die beiden Typen von Bildern aus zwei verschiedenen Datenbanken kamen. Also die mit Katze aus der einen und die ohne Katze aus der anderen. Und die eine hatte ein bisschen mehr Delay und das Programm hat dabei irgendwie gelernt, das ist so eine Art Timing-Atttacke, die da stattgefunden ist. Also wenn es lange dauert, das Bild zu holen, dann ist da offenbar keine Katze drauf. Und daran hat es sich gehalten und hat dann super zuverlässig dieses Ding hingekriegt, das zu klassifizieren. Tja. Genau. Wenn euch das Spaß gemacht hat, gibt es noch eine ziemlich lange Liste von solchen ähnlichen Fällen irgendwie unter dieser URL, wo ich jetzt hier ein paar herausgegriffen habe, die ich ganz lustig fand. Aber da gibt es noch viel mehr. Applaus bleeptrack: Ich beschäftige mich momentan ganz viel mit Generative Art, also mit Kunst, die irgendwie aus dem Computer erzeugt wird und ein Teil davon sind zelluläre Automaten. Und ein Beispiel haben wir zum Beispiel hier, das ist das Game of Life. Meldet euch doch mal, wer das Game of Life kennt oder vielleicht sogar schon mal programmiert hat, selber. Ein bisschen weniger. Also für den Stream: Fast der ganze Saal hat sich jetzt hier... der Raum hat sich jetzt gemeldet. Und ja, Game of Life ist ein ganz klassischer zellulärer Automat. Man befindet sich in einer Grid World. Man hat also ein Raster an Punkten. Und bei Game of Life ist es so, dass ein Punkt eben entweder belebt sein kann oder nicht. Wenn er lebt, dann ist er hier schwarz markiert und wenn nicht, dann ist er weiß. Und es gibt Regeln, wie sich dieses Leben fortpflanzen darf. Wenn es nämlich eine kleine - ich weiß gar nicht, ich kann sie ganz auswendig ehrlich gesagt nicht - wenn es eine kleine Anzahl an umliegenden Punkten gibt, die schon leben, dann entsteht neues Leben. Und wenn es aber zu viele Punkte sind, die außenrum leben, dann stirbt das Leben praktisch ab. Und jetzt kann man Schritt für Schritt über diese Grid World, über dieses Raster gehen und sich eben anschauen, wo neues Leben entsteht und wo es stirbt. Und dann kann man solche Animationen erstellen. Was da ganz witzig ist, was ihr so nach unten rechts weglaufen seht, das ist dann eine Form, die dabei entsteht. Die hat man dann Glider getauft. Die können sich nämlich so fortbewegen in diesem Raum, das ist ganz witzig. So, Game of Life ist wahrscheinlich so der bekannteste zellulärer Automat, aber wir können mal noch ein paar andere angucken. Man kann nämlich das Grid auch einfach ganz anders definieren, zum Beispiel in Form von Hexagons. Da muss man sich halt überlegen, wie man die Regeln anpasst. Aber da kann man genauso witzige Lebens... kleine Lebensformen und Animationen draus machen. Was mir immer noch besonders gut gefällt, sind solche Sachen hier. Das sind eindimensionale zelluläre Automaten und die bauen sich nach so, zum Beispiel so eine Regel auf. Das heißt, ich habe in dem Fall als Streifen in der x-Achse den momentanen Zustand und die Veränderung über die Zeit mache ich nicht in Form von Animationen, also dass ich immer ein neues Bild zeichne, sondern die Zeit läuft praktisch nach unten weg. Und hier seht ihr z.B. die Regeln für den rule 30 eindimensionalen zellulären Automat. Das heißt - sieht man die Maus - genau, wenn wir hier ganz rechts gucken. Wenn es praktisch hier im momentanen Zustand kein Leben gibt, dann wird es auch weiterhin kein Leben geben. Wenn es bei oberen Pixeln einen Lebenspunkt oder hier zwei gibt, dann entsteht halt neues Leben. Und wenn es zu viele gibt, nehme ich hier zwei oder mehr Punkte, dann stirbt das Leben wieder ab. Und da kann man eben solche hübschen Formen und Muster damit produzieren. Und was mich dann sehr überrascht hat, ist: Solche Formen kommen natürlich... äh, nicht natürlich, aber solche Formen kommen auch in der Natur vor. Es gibt nämlich zum Beispiel hier eine Schneckenart, die praktisch genau nach diesem Prinzip die Schale... also das Muster tritt genau so auf dieser Schale auf. Und man kann das Spielchen jetzt natürlich auch noch weitertreiben, und zwar nicht in der eindimensionalen Variante, sondern in der zweidimensionalen Variante. Aber wir können natürlich vom praktisch diskreten Raum, wo es nur eins und null gibt, also lebend und nicht lebend in einen größeren Raum gehen, wo es noch Zwischenzustände gibt. Und da gibt's ein Projekt, das heißt z.B. Smooth Life. Also es ist eine Weiterentwicklung von einem typischen Game of Life und man hat noch so graue Zwischenzustände. Und da entstehen dann auf einmal ganz andere Formen. Aber was ich besonders witzig ist... äh, witzig finde, ist, dass auch solche Glider entstehen. Das sind immer diese Punkte hier. Und wenn wir mal ein bisschen abwarten, genau, dann seht ihr, die hier ab und zu schon mal so rum flitzen. Also solche sich fort bewegenden Konstrukte entstehen da halt immer noch. Und ich finde das sehr faszinierend, solche Animationen anzuschauen. Applaus blinry: Ich hab euch ein paar kleine Schriftarten mitgebracht. Das erste Beispiel heißt Mini Text. Hat sich jemand ausgedacht: Eine Schriftart, die nur einen Pixel breit ist. Das Alphabet sieht dann so aus. Ich glaube, oben ist eine Zahlenreihe. Unten ist das Alphabet von A bis Z. Und wenn man das erst mal anguckt, könnte man denken: Ok, so ein bisschen, weiß nicht, wie ein Flaggen Alphabet oder so. Muss man halt auswendig lernen, welche Farbkombinationen für welchen Buchstaben stehen. Aber tatsächlich steckt da ein bisschen mehr hinter. Der Trick ist nämlich, dass vor zehn Jahren, als die Person sich das ausgedacht hat, super verbreitet waren LCD Bildschirme, wo einzelne Pixel halt aus drei Farbstreifen bestanden: Aus roten, grünen und blauen Subpixeln, die dann zusammen irgendwie eine weiße Farbe erzeugen, wenn alle angeschaltet sind. Und das führt dann dazu, dass wenn man nur bestimmte Teile der Farben anmacht, dann kriegt er halt irgendwie, weiß nicht... wenn ihr jetzt einen blauen Pixel anschaltet, dann ist nur der rechte Streifen davon an. Das führt dazu, dass wenn man das wirklich auf einem echten LCD Bildschirm tut, auf nativer Auflösung, und das mit einem eine Lupe anguckt oder groß fotografiert oder sowas, dann ergeben sich halt da die Buchstaben durch, dass man irgendwie Kombinationen bauen kann aus diesen drei Spalten. Und das ist ziemlich cool. Ich hab das neulich mal vertwittert und Leute haben das bei sich ausprobiert und heutzutage ist die Diversität ein bisschen höher. Ja, genau. Ich hatte damals, als ich das gefunden habe, kurzfristig meinen Twitteravatar mal so auf einen Mini-Text getan, wo dann irgendwie drinstand, dass man mehr als 140 Zeichen im Avatar unterbringen kann. Aber es empfiehlt dann, seinen Followern eine Lupe auszuteilen, damit die das auch lesen können. Und genau - Leute haben das neulich nochmal ausprobiert. Da passierte dann z.B. sowas, wo offenbar Rot und Blau Subpixel vertauscht waren, bei dieser Person. Also da sind die Buchstaben im Grunde zu erkennen, aber alle sind falschrum. Works for me, könnte man sagen. Oder bei anderen Personen passierte das. Das ist eine superweirde Subpixel-Anordnung, so wie sie bei Sensoren von digitalen Foto Kameras verwendet wird, zum Beispiel. Da ist es halt nicht brauchbar und tja, für die Person ist es dann halt nicht lesbar. Ich hab gehört, beim CTF gibt es irgendwie eine Challenge, die mit dieser Font auch zu tun hat. Ja, genau. Und dann saßen wir neulich im Hackerspace rum und haben nochmal ein bisschen damit gespielt und haben überlegt: Okay, wie viel Text kann man auf wie viel Platz darstellen? Und haben mal den ersten Band von Herr der Ringe genommen, die Gefährten. Haben uns einen Generator für Mini-Text geschrieben und festgestellt, dass tatsächlich der ganze erste Band auf Englisch in ein Bild passt mit 3500 Pixel Breite quadratisch. Das ist ziemlich cool. Auf 5k Bildschirmen oder so kann man dann quasi das ganze Buch auf einem Bildschirm haben, muss nur zwischen den einzelnen Bänden einmal umblättern, sozusagen. Und ja, in dem Moment haben wir versucht... Applaus. Viel ist halt wirklich schwer zu lesen und das tat unseren Augen weh und so. Und Lena hier meinte dann, wir könnten das ja mal an die Wand werfen mit einem Projektor, um näher ran gehen zu können und so. Das war aber leider eine Technologie in dem Beamer, die gar nicht mit so Pixeln arbeitete. Insofern nützte uns das in dem Moment nichts. Genau, und die zweite kleine Schrift, die ich euch mitgebracht habe, ist Dotsies. Auch da sind einzelne Buchstaben einen Pixel breit. Das funktioniert nur ein bisschen anders: Das ist halt eine Kombination... also ihr habt eine 5-Pixel-Reihe, also 5 Pixel hoch, 1 Pixel breit und unterschiedlich viele davon sind an oder aus. Das sind dann halt... hier muss man wirklich auswendig lernen, welche Buchstaben welche Pixelanordnungen sind. Und was cool ist an dieser Schrift ist, dass wenn man daraus Wörter zusammen baut, dann haben die einen relativ kleinen visuellen Eindruck. Also hier ist der gleiche Text oben und unten. Ihr seht schon, beim einen ist der Text in Dotsies viel viel kleiner und viel kompakter. Und außerdem bilden die einzelnen Wörter relativ gut visuell erkennbare Muster. Da kann man ein bisschen leichter Mustererkennung machen, wenn man Dotsies lesen kann im Vergleich zu lateinischen Buchstaben. Genau. Wenn ihr das lernen wollt, kann ich total empfehlen: Geht hier auf dotsies.org, da gibt es ein Tutorial, was so funktioniert, dass ihr erst einmal einen Text mit lateinischen Buchstaben, die aber schon so angeordnet sind wie später die Dotsies. Das heißt, ihr lest diesen Text von oben nach unten und gewöhnt euch schon mal ein bisschen an diese Struktur und nach und nach werden dann immer mehr Buchstaben durch die Dotsies-Äquivalente ersetzt. Also da unten kommt... geht es dann los, das irgendwie ein Wort schon einmal exemplarisch in Dotsies gezeigt wird, aber - weiß nicht - das E wird dann als erstes komplett ersetzt oder sowas. Man kann immer mit der Maus drüber fahren um nochmal zu spicken, quasi, was das jetzt eigentlich für ein Buchstabe war. Und das ist ein Text, weiß nicht, das dauert eine Viertelstunde den zu lesen oder sowas. Wenn ihr unten auf der Seite angekommen seid, könnt ihr auf einmal Dotsies lesen. Das ist eine total coole Erfahrung irgendwie, dass das so flüssig ins Gehirn geht. Das ist total irre. Kann ich empfehlen. Applaus bleeptrack: So, ich möchte euch gerne eine kleine Anekdote erzählen: Ich war kürzlich eingeladen in die Schweiz, um einen Vortrag zu halten über Lernen in Online- Communities. Und die Erfahrung habt ihr wahrscheinlich auch alle gemacht, dass ihr euch wahnsinnig viel aus dem Internet selber irgendwie beigebracht habt. Und ich hab mich dann gefragt: Was war eigentlich meine erste Online-Community, in der ich irgendwie Technicksachen gelernt habe? Und mir ist dann eingefallen: Das war ein Online-Forum. So was gibt's ja fast gar nicht mehr. Ein Online-Forum zu einem Spiel, das hieß Petz. Das ist eigentlich so ein - ja, ihr seht das - ein Tamagotchi Spiel. Ja, man kann da mit kleinen Hunden und Katzen spielen und die adoptieren und streicheln und es ist ganz niedlich. Und ich hab da mal nach diesem Spiel gesucht und interessante Sachen gefunden. Die Community bestand - das war so in meinem Fall zumindest so um die 2000er, da hatte die so gerade ihre Hochkultur - bestand hauptsächlich aus jungen Frauen, die sich gegenseitig hacken beigebracht haben. Es ist die Frage, was hackt man denn an diesem Spiel? Da ging es jetzt gar nicht um Cracken für das Spiel oder so. Das war nicht das Problem. Es ging darum, neue Hunderassen zu bauen und es ging halt so einfach: Man hat nämlich einfach die Dateien der Rasse genommen, also jede Rasse war in einer Datei hinterlegt und hat die im Hex Editor aufgemacht und saß dann vor einer Riesenwand an komischen, für mich zumindest damals ziemlich kryptischen Zahlen und hat die halt versucht zu verändern um andere Farben zu kriegen, um, keine Ahnung, den Hund größer zu machen oder kleiner oder längere Ohren und sowas. Und da gab es eine riesige Community, die einfach nur Tutorials geschrieben hat, wie ich mit dem Hex Editor Files bearbeite, was ich wo ändern muss, damit es funktioniert. Und ja, diese Community bestand halt nur aus jungen Frauen. Und das jetzt im Nachhinein zu erfahren fand ich super witzig, dass es die gab. Weil ich glaube, so eine Community gibt es heute vermutlich eher nicht mehr. Zumindest kenne ich keine. Also sagt mir gerne Bescheid, wenn es da was equivalentes gibt. Und es ist sehr witzig, da jetzt Berichte nachzulesen. Also sucht gerne mal nach dem Spiel Petz 5, da gibt's ein paar sehr spannende Artikel von Leuten, die das so Retrospektiven drüber geschrieben haben und ich freue mich sehr, dass ich damals Teil dieser Community war. Applaus blinry: Ich möchte euch etwas über Lipogramme erzählen. Der Begriff kommt aus dem altgriechischen "Lipogrammatikos", bedeutet "leaving out a letter". Und da geht es um Texte, in denen tatsächlich ein Buchstabe nicht vorkommt. Es gibt in der Literatur ein paar Beispiele. Das ist irgendwie aus den Dreißigern, Gatsby. Ist ein ganzes Buch ohne den Buchstaben E. Und irgendwie hab ich gelesen, dass der Autor mal behauptet hätte, er hätte auf seiner Tastatur damals die - auf seiner Schreibmaschine - die Taste, den Hebel für die Taste E irgendwie fixiert, damit er nicht versehentlich drückt. Trotzdem ist es passiert, dass in diesem Buch, ich glaube, vier Vorkommen von E sind. Also auf dem Cover offensichtlich auch, in diesem Slogan "Without the letter E". Da kommt es natürlich dann vor, aber innerhalb der Seiten gibt es viermal das E, was irgendwie versehentlich reingerutscht ist. Es gibt dreimal das Wort "the" und einmal das Wort "Officers", glaube ich. Aber sonst ist das, finde ich, eine starke Leistung, auf die Art und Weise ein Buch zu schreiben. Das hat dann inspiriert noch andere Autoren, das auch zu versuchen. Zum Beispiel hier ist ein französisches Werk, das auch genauso ohne E auskommt. Und da finde ich nicht nur beeindruckend, dass der Autor es geschafft hat, das zu schreiben, sondern dass das auch in viele Sprachen übersetzt wurde, unter Beibehaltung des gleichen Constraints. Also es gibt da einen irgendwie auf Englisch "A Void" oder auf Deutsch heißt das dann "Anton Yoyles Fortgang" von Verlag "zwi tausnd ins", wie ihr seht. Und ich hab euch mal mitgebracht, den allerersten Absatz davon, dass ihr ein bisschen Gefühl dafür kriegt, wie das ist, wenn man dieses harte Constraints hat. Also, ich lese mal ein bisschen: Kardinal, Rabbi und Admiral als Führungsfigur null und nichtig und darum völlig abhängig vom Ami-Trust , tat durch Radionachricht und Plakatanschlag kund, dass Nahrungsnot und damit Tod aufs Volk zukommt. Zunächst tat man das als Falschinformation ab. Das ist Propagandagift, sagt man. Doch bald schon ward spürbar, was man ursprünglich nicht glaubt. Das Volk griff zum Stock und zum Dolch. "Gib uns das täglich Brot", hallts durchs Land und "pfui auf das Patronat, auf Ordnung, Macht und Staat". Und so weiter. Und an dem Ausdruck merkt man schon so ein paar Tricks, die da benutzt werden, dass man "jetzt hallts" schreibt statt "hallt es" oder sowas, um irgendwie das E zu vermeiden oder hat ganz viele Verbformen wählt, wo die verschiedenen Zeitformen, die man hat, halt keine E enthalten. Genau. Gibt noch mindestens fünf andere Sprachen, in die das übersetzt wurde. Und ja, den Umstand finde ich krass. Ich möchte nicht mit den Übersetzern tauschen, ehrlich gesagt. Genau, das ist noch ein Buch, das ich tatsächlich gelesen habe, die ersten beiden kenne ich nur vom Hörensagen. "Ella Minnow Pea" heißt das und erzählt die Geschichte einer Kleinstadt. Die haben so einen... also die Person, die diese Stadt gegründet hat und die irgendwie deren großes Mythos-Vorbild ist, hat dort eine Statue stehen, mitten in der Stadt. Und da ist eine Inschrift drunter, die nämlich... dieser Satz ist "The quick brown fox jumps over the lazy dog", was jeden Buchstaben des Alphabets enthält. Und eines Tages fällt von dieser Inschrift ein Buchstabe ab und alle Bewohner sehen das natürlich als Zeichen, dass unbedingt dieser Buchstabe vermieden werden muss. Es ist ein Roman, der aus Briefen besteht, den sich die Dorfbewohner untereinander schreiben. Und da fangen die dann relativ schnell an, das auch konsequent durchzuziehen und halt diesen Buchstaben wegzulassen. Und naja, über die Zeit fallen dann mehr Buchstaben ab und dann müssen sie mehr Buchstaben vermeiden. Und über den Verlauf dieses Romans eskaliert das ziemlich und es bleiben echt wenig Buchstaben übrig. Ja, das kann ich sehr empfehlen, dieses Buch. Genau. Und wenn ihr das mal ausprobieren wollte, wie es ist, so zu schreiben, gibt es tatsächlich eine Mastodon Instanz, nämlich Oulipo.social, wo es verboten ist, den Buchstaben E zu benutzen. Also wenn ihr irgendwas schreibt, was ein E enthält, dann kriegt ihr eine Fehlermeldung, dass man das nicht abschicken kann und die Leute dahinter haben tatsächlich auch das gesamte Interface übersetzt. Ich weiß nicht, ob euch das auffällt, da steht jetzt nicht "Nickname" oben links, sondern "Login Alias" und so. Also auf allen Knöpfen werdet ihr auch kein E finden und wenn, ist es ein Bug. Es gibt ein paar GitHub Issues, wo Leute dann doch ein E gefunden haben. Ich glaub ich hab mal... Also ich hab das eine zeitlang mal benutzt, ein bisschen, und habe dann später nochmal reingeguckt und dann stand irgendwie in einem Tutoren "year ago" mit e in dem "year", was irgendwie die Leute offenbar nicht auf dem Schirm hatten, weil das halt so neu war, dass nichts ein Jahr alt war. Aber das hab ich als Bug gemeldet und es wurde gefixt und jetzt steht da irgendwie 24 Monate oder so... 12 Monate. Genau. Und das ist super witzig irgendwie, da mal eine Zeit drauf zu gehen und versuchen, so Texte zu formulieren. Weiß nicht, hier in der rechten Spalte schreibt blabla irgendwie darüber, wie ein Film besucht wo... es geht offenbar um "group of young individuals that do hacking stuff using computing units and shout 'hack this world'". Und das hat auch einen ganz komischen psychischen Effekt, wenn man da eine Weile ist, wenn man dann die Seite wieder verlässt und versucht, andere Texte zu schreiben, weil man dann immer noch so denkt, ich muss das doch vermeiden. Und was könnte ich dann stattdessen benutzen? Oder man liest irgendwie andere Texte, wo ganz viele Es drin sind und man denkt: Was ist denn da kaputt? Naja, und zum Ausgleich, wo man hier kein e benutzen kann, gibt es auch eine Mastodon Instanz, wo man nur Es benutzen kann. Das ist dolphin.town. Also man darf Es und Zahlen benutzen als Username und als Inhalt der TUDs. Ich denke, da haben die Leute vielleicht auch viel Spaß. Ich weiß es nicht. Da hab ich keinen Account. Aber macht euch doch einen. Applaus bleeptrack: Ein sehr anderes spannendes Thema, was ich euch näherbringen möchte, ist Sinneserweiterung für den Körper. Und ja, so in der Hacking Szene - naja, populär wäre übertrieben, aber was man schon öfter mal antrifft, sind so NFC Implantate oder implantierte Magneten oder sowas. Ich meine, das hat nichts so sehr mit Sinneserweiterungen zu tun. Wobei doch. Wobei der Magnet ist ja schon eine Sinneserweiterung. Man fühlt ja zum Teil elektromagnetische Felder. Sowas ist irgendwie gängig. Ich möchte euch aber über einem Projekt erzählen, was ich in meinem Masterstudium in der Uni mit zwei anderen sehr netten Kommilitonen gemacht habe und ich es damals sehr spannend fand. Wir haben eine Smartphone-App geschrieben und wir haben vier Arm-Manschetten gebaut, die uns unsere, ja, unsere normalen Sinne erweitern sollten. Und wie ihr schon seht okay, eine Manschette war keine richtige Manschette. Wir haben einmal praktisch so Elektro-Pads genommen, die ihr kennt von den Muskel Kontraktionen, wenn man Muskeln aufbauen möchte. Genau. Also da kann man Strom drauf geben und dann merkt ihr selber den Muskel ein bisschen zucken. Dann gab es noch diese zweite Manschette hier. Da waren vier Servos drin verbaut. Das heißt, man konnte so eine Art Druck erzeugen. Also man hat so ein Kneifen am Arm gespürt, wenn man da was ausgelöst hat. Die Dritte hier, die waren ein bisschen schwierig anzulegen, der Prototyp. Aber die hatte so zirka zehn kleine Vibrations-Motoren rundrum verbaut, die man halt auch einzeln ansteuern konnte im Zweifelsfall, um so Pattern abfahren zu lassen. Und die große Arm-Manschette hier, die hatte so vier Pedier-Elemente. Das heißt, man konnte praktisch Hitze oder Kälte auf der Haut fühlen. So die konnte man auch alle in Reihe schalten und theoretisch alle gleichzeitig tragen, was dann sehr futuristisch aussieht. Und man musste ein Täschchen tragen wegen Akku. Und der Plan war folgender: Man hat diese Handy-App und man sollte diverse Informationsquellen auf diese Manschetten mappen können. Das heißt, ich kann z.B... könnte fühlen, wie viele Leute sich im WLAN befinden durch Vibrationen. Oder ich könnte fühlen... keine Ahnung, den Herzschlag von meinem Freund... den irgendwie auf die Wärme mappen lassen, wenn der Sport treibt, dass das dann warm wird oder sowas. Das war ja die Idee und damit haben wir experimentiert. Und wir haben natürlich auch ein bisschen selbst Tests damit gemacht. Und ich hab zwei Selbsttest gemacht, die ich ganz spannend fand. Wir hatten einmal... haben wir versucht, die Location zu mappen, das heißt mein Kommilitone damals, der hatte ja sein Smartphone dabei und hat seine GPS Location immer zum Server geschickt. Und wenn wir uns nahe gekommen sind, dann hat die Manschette mehr vibriert. Und eines Tages fahr ich an die Uni hoch und trug diese Manschette, weil wir eben später an der Uni damit experimentieren wollten. Und ich merke es auf einmal vibrieren und denke so: Okay, wir haben einen Bug in unserer Software? Irgendwas ist voll komisch. Komm an der Uni an, erzähle es meinen Kollegen, meint er irgendwie: Wir müssen uns das nochmal angucken. Irgendwas ist nicht richtig. Als ich heute zur Uni hochgefahren bin, da die Manschette auf einmal voll vibriert. Irgendwas ist nicht okay. Und dann meint mein Kommilitone: Ja, wo seid ihr denn lang gefahren? Ja, hier den Standardweg. Ja, an der Bushaltestelle vorbei. Ja, ja, da stand ich. Also ich habe einfach gemerkt, dass er da war und wusste es nicht einmal. Das war so ein Aha-Erlebnis in dem Moment für uns. Das ist eigentlich eine ziemlich witzige Technologie ist und das andere, was ich ausprobiert habe, das ist das, was ihr hier seht. Da war das noch so der super super early Prototyp: Nur die Vibrations- Manschette, die ich anhatte und ich hab immer abgegriffen, wieviel User grad auf meiner Website sind und hab mir das auch durch Vibrationen anzeigen lassen und ich bin mir nicht mehr ganz sicher - das Rote müsste praktisch... das Rote ist ground truth, also wie viele Leute tatsächlich da waren und das Blaue, was ich vermutet habe, wie viele Leute da sind und ihr könnt sehen, dass das relativ gut ist. Also ich hab's offensichtlich auch manchmal nicht mitbekommen, gerade wenn es leicht vibriert. Also die niedrigste Vibrations Stufe war wirklich schwer zu erfühlen überhaupt. Gerade wenn man sich bewegt, dann hat man es eigentlich gar nicht gemerkt. Das kann schon sein, dass man das dann einfach nicht mitbekommt. Das ist ein ziemlich witziges Gefühl, auf einmal für so digitale Sachen ein Gefühl zu bekommen. Also gerade wenn man so Spikes hat und denkt so: Whoa, jetzt sind gerade 5 Leute, sind gerade auf meiner Website, so: Ich kann auf einmal fühlen, wie Online-Präsenz funktioniert, mit wieviel Leuten ich da virtuell interagiere. Also das sind Konzepte, die ich immer noch sehr spannend finde. Und ich kann euch, ja, ich würde euch gern ermutigen, auch mal sowas zu bauen. Ich glaube es ist jemand am Kongress, wo ich den Twitter-Handle gerade nicht weiß. Der hat ein Gerät dabei, wo man... weißt du das, hast du das auch gesehen? Man kann was fühlen durch Akustik. Genau. Aber was kann man fühlen? Was meinst du? Ja, WLAN- Stärke, genau, man kann oder die Wifi- Auslastung oder so fühlen durch Akustik, also halt nicht durch Vibrationen, sondern man kann mit Kopfhörern durch die Gegend laufen und hören, wie stark oder wie viele Leute da im Wifi sind. Also solche Projekte unbedingt mal ausprobieren. Das ist eine ganz tolle Erfahrung. Applaus blinry: Ich möchte euch noch von der Simulationshypothese erzählen. Wenn ihr auf die Webseite geht, findet ihr da auch ein Paper darüber, was das sehr lang ausbreitet. Ich versuche es nochmal ein bisschen kürzer zusammenzufassen, worum es da geht. Also es ist ein Argument, das sagt, dass wir alle wahrscheinlich in einer Simulation leben und die die Argumentation geht so, dass man sagt: Wenn man sich so ein Spiel wie Pong anguckt z.B., vor ein paar Jahrzehnten, das war super einfache Grafik, so ein paar Pixel weiß auf schwarz oder sowas, konnte nicht viel machen und heutige Spiele haben halt irgendwie eine hyperrealistische 3D Grafik mit, weiß ich nicht, wo man teilweise in VR irgendwie in diese Welt rein kann, die schon super super realistisch aussieht. Und wenn man annimmt, dass jedes Jahr es da ein kleines bisschen Verbesserung gibt in Richtung einer realistischen Simulation, ist anzunehmen, dass irgendwann der Punkt erreicht ist, wo solche Computerspiele so realistisch sind, dass wir sie nicht mehr unterscheiden können von der Wirklichkeit. Und zu diesem Zeitpunkt könnte es halt, weiß ich nicht, irgendwie so Spielekonsolen geben oder so, wo ganz viele kleine Universum Simulatoren drin laufen. Und wenn man sich dann überlegt: Okay, es gibt irgendwie eine "echte" Welt und ganz viele dieser Konsolen mit einer simulierten Welt drin. Wie wahrscheinlich ist es dann, dass wir in der echten Welt leben? Also die Wahrscheinlichkeit wird halt sehr, sehr niedrig sein. Das ist die Argumentation, die dahinter steckt. Das ist ein bisschen vereinfacht, verglichen mit dem, was der Autor hier schreibt. Aber so in die Richtung geht das. Und das finde ich einen interessanten Gedanken. Und ich glaube, richtig entkräftbar ist das nicht. Höchstens durch den Gedanken, dass Leute beschließen, es ist irgendwie nicht moralisch, solche Simulationen zu starten oder die Menschheit wird irgendwie vorher ausgerottet. Ja, irgendwie eine dieser Möglichkeiten muss so sein. Und ich habe neulich noch eine interessante Ergänzung zu dieser These gelesen, nämlich, dass die Welt über unserer, die unsere simuliert, wahrscheinlich total langweilig ist. Aus folgendem Grund: Wenn wir Menschen irgendwie ein Computerspiel oder einen Film oder sowas erzeugen, dann machen wir da ja auch immer irgendwie hochkonzentriert interessante Dinge rein. Warum sollten wir irgendwas machen, was langweiliger ist als unsere echte Welt? Und deshalb sind wir vielleicht ganz gut dran, dass wir in der Simulation sind und nicht eine Ebene höher, weil wir es hier einfach spannend haben. Und dieses Argument stackt natürlich auch beliebig nach oben: Die Welt der Wesen, die uns simulieren, könnte simuliert sein und so weiter. Ja, finde ich einen interessanten Gedanken. Und ich hab da noch gefunden beim Recherchieren: Tatsächlich haben Leute ein Experiment entworfen, mit dem sie testen wollen, ob wir in einer Simulation sind. Und ich muss sagen, ich habe die Argumentation dahinter nicht ganz verstanden. Ihr könnt gerne auf den Link gehen und das mal selber versuchen zu verstehen. Es ist irgendwie eine Argumentation in die Richtung, dass wenn man so eine Simulation ausführt des gesamten Universums, dass wir da halt super super viel Rechenkapazität verbrauchen. Und deshalb ist es wahrscheinlich, dass da irgendwie so ein paar Tricks eingebaut sind. Paar Optimierungen irgendwie, die halt nur dann das Fortschritt des Universums simulieren, wenn das tatsächlich jemand mitkriegt oder sowas irgendwie. Wenn jemand im Wald ist, dann passiert da nichts dran, sozusagen. Und ich glaube, mit diesem Experiment wollen die Forscher herausfinden, ob gewisse Dinge... also es ist so eine Art Doppelspalt-Experiment, ob das einen Unterschied macht, ob ein Mensch ein Ergebnis beobachtet oder eine Maschine. Und ich kann nicht ganz nachvollziehen, ob das ein stichhaltiges Experiment ist, weil man ja auch sagen könnte, wenn die die Rechenkapazitäten nicht reichen, okay, dann skalieren wir halt irgendwie den Computer wieder hoch, der das macht. Das soll uns nicht einschränken. Aber ich finde es interessant, dass Leute sich um sowas einen Kopf machen und herausfinden wollen, ob wir in einer Simulation sind. Ist ja dann so weit gekommen, dass die tatsächlich eine Kickstarter-Kampagne geschaltet haben zur Durchführung dieses Experiments, die super erfolgreich war. Und da bin ich mal gespannt auf die Ergebnisse. Applaus bleeptrack: Ich habe nochmal einen sehr spannenden Algorithmus dabei, wie ich finde. Der heißt Wave Funcion Collapse und ich hoffe, dass das Internet funktioniert. Dann schauen wir uns den einfach mal funktionierend an. Ja, genau. Sehr gut. Das ist ein Algorithmus aus dem Hintergrund der prozeduralen Generierung, der auch im Gamedesign viel Anwendung findet. Ihr seht schon, der bekommt immer ein kleines Input Bild und kann daraus Texturen generieren. Und ich finde das total spannend, dem beim Arbeiten zuzugucken. Das ist im Endeffekt ein Constraints Solver. Das heißt, ich beschreibe... ich versuche mal kurz zu beschreiben, wie der in etwa arbeitet: Der sucht sich eine Region in diesem Bild aus, in einem bestimmten Pixel Umfang. Also sagen wir mal so ein 2x2 Pixel Feld und ein 3x3 Pixel Feld z.B. und schaut sich, fängt, setzt einen Punkt zufällig. Ok, ich muss anders anfangen. Er sucht sich dieses 2x2 Pixel Feld und er stellt eine Häufigkeitswahrscheinlichkeit, wie oft dieses Feld in dem Startbild vorkommt. Dann hab ich diese Häufigkeit und dann kann ich, um die große Textur zu generieren, irgendwo anfangen und da ein zufälliges 2x2 Feld nehmen. Und danach muss ich halt gucken was an dieses 2x2 Feld dran passt. Und dazu kann ich ja dieses Input Bild als Referenz nehmen und mache das dann eben abhängig davon, wie oft neue Ausschnitte überhaupt in dem Bild vorkommen können. Und ich finde es total abgefahren, da zuzugucken, wie der arbeitet. Und wenn ihr da jetzt praktisch so, ich sage mal verschwommene Pixel seht, dann sind es halt noch unsichere Zustände, wo es mehrere Lösungen für das Constraints Solving geben könnte. Und ich finde daran sehr spannend, dass man mit sehr wenig Aufwand, nämlich nur mit der Erstellung von so einem Dummy Bildchen am Anfang sehr viel coole Texturen raus bekommt. Wir können das gerne mal noch ein bisschen weiter anschauen. Man kann da übrigens auch sehr gut mit der Fenstergröße spielen, um unterschiedliche Sachen zu erzeugen. Und was ich dann noch mitgebracht habe, ist so eine interaktive Demo wovon ich auch mal hoffe, dass sie lädt. Sehr gut. Jemand hat es nämlich als super coole interaktive Demo geschrieben, d.h. hier links seht ihr das Input Bild bei Modules und rechts sind die Slots. Da möchten wir jetzt praktisch unser neues Bild erzeugen. Das heißt, diese Felder hier hab ich jetzt zur Auswahl, um damit irgendwo zu starten. Und sagen wir, wir möchten mit dieser... dieses Sonnensymbol soll in unserer... könnte in unserem Bild, das wir generieren wollen hier liegen. Jetzt seht ihr schon, er klappt jetzt ganz viel um. Das ist ja ein Constraints Solver. Das heißt, es gibt im Input-Bild ja nur die Möglichkeit, dass z.B. blauer Himmel liegt und über blauem Himmel kann auch nur blauer Himmel liegen. Deswegen löst der Constraints Solver diese Felder hier schon einmal auf, weil da nichts anderes sein kann von der Wahrscheinlichkeit her. Jetzt können wir da praktisch einfach so nach und nach durchgehen und z.B. sagen: Hier daneben soll nochmal Himmel liegen. Dann löst das schon wieder die nächsten Felder, wo es keine andere Möglichkeit gibt. Und so kann ich mich da jetzt durchklicken und einfach festlegen, wo was liegt. Ich mache das jetzt hier so ein bisschen zufällig, damit es ein bisschen schneller geht. Nochmal so eine Statue, nochmal Himmel und nochmal Fels und dann nochmal Fels. Genau. Und so haben wir einfach aus dem Input Bild neue Textur generiert. Und was auch sehr nett ist: Man kann hier - ich resette das mal - dann kann man hier auch direkt auf "Solve" klicken und dem Algorithmus praktisch selber mal beim Arbeiten zugucken. Das heißt hier in rot seht ihr jetzt praktisch die Teile, die eliminiert werden beim Constraints Solving, die also keine sinnvolle Lösung sind. Ich mache mal die Geschwindigkeit hier ein bisschen schneller. Genau, sonst dauert das ewig. Genau, und in der Variante macht er ja auch... genau bei diesem Constraints Solving auch ein bisschen Back Tracking, also da, wo es halt nicht funktioniert, macht er auch mal etwas rückgängig oder so. Genau, jetzt lassen wir den einfach mal durchlaufen, dann baut er hier selber noch was schickes und hat ein neues Bild gebaut. Und wir können ja auch einfach mal ein paar Mal lösen. Und ihr seht schon, es kommen immer neue Bilder raus, die immer in sich schlüssig sind. Weil ich habe ja die Wahrscheinlichkeiten vom Input Bild, aber sie sind halt immer anders und es wird sehr gerne momentan bei, bei der... ja, beim Game-Development benutzt, um irgendwie Texturen zu bauen oder zum Teil auch Level und so was. Applaus bleeptrack: Jetzt wäre es nur cool, wenn ich da wieder rauskomme. Ja, cool. Ah, deswegen. So. blinry: Ich möchte euch noch von Dynamicland erzählen. Das ist ein Forschungsprojekt, das ich super inspirierend finde, über zukünftige Interaktionen mit Computern, wie das aussehen könnte. Und ich dachte mir, wir gehen einfach mal auf die Webseite dazu und scrollen da zusammen ein bisschen rüber. Die Idee ist im Grunde, dieses Computing, das man normalerweise in so einem Gerät hat, da rauszuholen und in den Raum um einen herum zu tun. Also was man macht, um in diesem Dynamicland-System Berechnungen auszuführen ist: Man schreibt erstmal ein Programm in so einem Lua Dialekt mit so ein paar Special Features und druckt sich das aus. Das dann auf so ein Zettel mit... ihr seht diese lustigen bunten Marker in den Ecken. Und unter der Decke dieses Raumes hängt dann zum einen eine Kamera, die das trackt und zum anderen ein Projektor, der da irgendwie Dinge drauf projezieren kann. Also die Punkte sind, glaube ich, erstmal nur so ein bisschen eine Krücke und ein Platzhalter, bis man irgendwie besseres sinnvolleres Tracking hinkriegt. Das funktioniert halt ganz stabil und naja, jedes Stück Papier, das da rumliegt, ist halt ein eigenes Programm, das irgendwie Dinge tut. Und das kann die Umgebung wahrnehmen, weiß, welche anderen Zettel da sind und man kann das irgendwie ausrichten und auf etwas anderes zeigen lassen, um zu sagen: Hier, dies ist ein Argument, das sollst du irgendwie verändern oder so. Und es funktioniert... also dieser Lua-Dialekt funktioniert so, dass man sich halt bestimmte Sachen... also man kann Aussagen über die Welt machen und man kann dann daraus was ableiten und irgendwie sich etwas wünschen. Zum Beispiel sich wünschen, dass das Papier, auf das man gerade zeigt, grün ausgeleuchtet wird oder sowas. Oder es könnte dann sein, dass ein anderes Programm sich wünscht, dass das blau ausgeleuchtet wird. Da gibt's dann irgendwie einen Konfliktauflösungs- Mechanismus, dass das nicht ständig hin und her flattert. Und genau, hier sieht ihr in dem Beispiel auch gerade mal so farbige Schnipsel irgendwie auf einen Link gelegt. Ich glaube, das war so eine Musik- Sequenzer, wo dann irgendwie eine Linie drüber läuft und abhängig von der Position dieser farbigen Dingsies, eine Melodie spielt. Und das ist halt eine völlig andere Art und Weise, ein Software-Ding zu bauen, weil man in einer Gruppe daran arbeiten kann und halt um einen Tisch herum steht und kann ziemlich parallel irgendwie neue Komponenten dazu basteln. Und ihr könnt halt auch auf einmal mit Schere und Kleber User Interface bauen. In der Mitte ist so eine Wählscheibe, die sich drehen kann und dann auf andere Sachen zeigt oder sowas. Und dadurch, dass das auf einmal in der echten Welt ist, habt ihr halt viel mehr Möglichkeiten, mit euren Händen Dinge damit zu tun. Und das finde ich total spannend. Weiß ich nicht, wenn man irgendetwas, irgendeine Software- Komponente geschrieben hat, dann speichert man die halt nicht irgendwo hin, sondern heftet sie in den Ordner und stellt sie ins Regal. Das finde ich ulkig. Ist super ulkig. Und, also, dieses Projekt ist so angelegt, dass Sie die nächsten Jahre erst einmal ein bisschen ausprobieren werden, was man so machen kann mit diesem neuen dynamischen Medium. Und später dann so ein bisschen sich erhoffen den Effekt wie bei Bibliotheken früher, dass die halt irgendwie so ein Dynamicland in einer Stadt bauen und dass man das dann irgendwie forkt und in andere Städte bringt und das dann irgendwie ein kommunes Ding ist, wo Leute hingehen können, wenn sie mal so ein Medium benutzen wollen. Und, genau. Haben sehr ambitionierte Pläne, was das angeht. Ich bin gespannt, was daraus wird. Aber ich finde das total inspirierend, das so zu sehen. Und von allem, was ich mitkriege, denke ich immer, wenn man da mal ein paar Tage drin war, ist das glaub ich super frustrierend, irgendwie so kleine Bildschirme zu haben, wo man dann so durchgucken muss und irgendwie mit dem Ding zu interagieren, statt da einfach drin zu sein und irgendwie mit seinem Körper irgendwie Dinge machen zu können. Genau. Die Person, die sich das ausgedacht hat oder mitgegründet hat ist Bret Victor. Das ist ein Mensch, der irgendwie auch viele andere coole Dinge macht. Kann ich empfehlen, mal über die Homepage zu gucken - hat Vorträge gehalten zu verschiedenen Themen, wo es sehr oft darum geht, wie man besser mit Sachen interagieren könnte. Und oft hinterlassen seine Vorträge so eine gewisse Frustration mit dem Status quo, weil man sieht: Okay, man könnte das eigentlich viel schöner machen. Man könnte, während man eine Software schreibt, auf der anderen Bildschirmhälfte schon sehen, welche Auswirkungen das hat. Direkt, statt das irgendwie zu compilen und dann muss man ne halbe Minute warten oder sowas und dann kann man das testen. Und ja, finde ich spannend. Finde ich spannend, so zu denken. Genau. Wenn euch ein bisschen mehr interessiert die Details, wie Dynamicland funktioniert, gibt es diesen Artikel eines Menschen, der dort mitforscht. Den kann ich empfehlen, der wirklich mal ganz ausführlich beschreibt, wie so ein kleiner Teil in diesem Dynamicland gebaut wurde, nämlich so ein Kartensystem, wo man ein großes Stück Papier hat, als Ausgabemedium im Wesentlichen und dann kann man da verschiedene Werkzeuge drauf richten, um damit etwas zu tun, um... da unten ist so eine Textbox z.B., da kann man dann irgendwie was rein tippen mit einer Tastatur, die auch mit getrackt wird und dann kann man irgendwie eine bestimmte, einen bestimmten Ort der Erde anwählen. Dann kann man Zoom-Linsen drauf richten, um Vergrößerungen davon zu kriegen. Und der Artikel beschreibt halt auch, wie die Sprache dahinter funktioniert und ja, das find ich spannend. Applaus bleeptrack: Dann sind wir schon beim letzten Thema angekommen. Ich möchte ein bisschen was zu Farben erzählen und wir fangen mal an mit dem Thema Synästhesie. Es gibt Menschen, bei denen verschmelzen bestimmte Wahrnehmungskanäle. Da gibt's ganz abgefahrene Sachen. Es gibt Leute, bei denen verschmilzt zum Beispiel der Geschmackssinn mit einer Erinnerung an Wörter, oder so. Das heißt, jemand denkt an Montag und hat auf einmal das Gefühl von Erdbeermarmelade im Mund. Und da geht es jetzt nicht darum, dass man sich selber irgendwie gemerkt hat, weil man mal so eine Erfahrung hatte, sondern es ist wirklich eine andere Art von Kopplung. Und es gibt Leute, die Musik hören und dabei das Gefühl haben, von... wie sich Oberflächen anfassen, eher rau oder flauschig oder vielleicht auch Farben sehen oder sowas. Und hallo, ich bin Synästhet. Bei mir ist das aber eine ziemlich milde Form und ich hab das mal in der Schule entdeckt, dass ich das habe. Bei mir verschmelzen, kann man sagen, Buchstaben und Zahlen mit Farben. Das heißt, wenn ich sehr intensiv an was lese oder was rechne, dann hab ich immer so ein leichtes Gefühl einer Farbe. Das ist relativ schwierig zu beschreiben. Ich habe das damals in der Schule gemerkt, als wir eine Mathematik Kurzarbeit geschrieben haben. Man musste etwas ausrechnen und es kam ein Bruch raus. Und ich wusste zwar, der Bruch ist richtig, aber ich ärgerte mich total, dass der voll dumme Farben hat. Also die passten halt nicht zusammen. Und da hab ich gemerkt: Das ist glaub ich nicht so ganz normal. Und hatte dann mal zufällig später eine Dokumentation über das Phänomen gesehen und mich darin praktisch wiedererkannt. Was ich hier mitgebracht habe ist "Hello 35c3". Und ich habe mal grob versucht, die Farben auf die Buchstaben zu malen, die ich da in etwa fühle, würde ich mal sagen. Und ich dachte auch immer früher, das würde mir voll bei Sudoku oder sowas helfen. Das tut es aber leider nicht. Ich bin ziemlich schlecht. Aber dafür ärgert mich Minesweeper besonders, weil die Farben halt nicht passen. Also was ihr hier praktisch seht - und das ist jetzt auch eher Zufall, dass das alles in so einem braun-gelb-blau Ton ist, also ich habe die Farbpalette, an die ich so denke oder fühle, die ist durchaus größer. Ja, das ist jetzt hier eher Zufall. Also wenn ich das Wort "Hello" sehe, dann sind die... die Ls für mich haben so eine Art, man könnte sagen so himmelblau, sind so sehr leicht, das O ist auch fast eher so transparent, das kann man da schlecht zeigen. Und es ist jetzt auch nicht so, dass ich Text lese und das wirklich so sehe, sondern es ist tatsächlich eher wie so ein Gefühl und das kennt ihr vielleicht, wenn ihr was, keine Ahnung, was Rotes anguckt - das ist ja eher eine warme Farbe, da hat man vielleicht eher so ein wohliges Gefühl, sag ich jetzt mal. Und wenn ihr was Blaues anguckt, dann ist das vielleicht eher so ein kaltes Gefühl. Und es gibt Farben, die sind eher grell, das macht eher aggressiv, sag ich mal. Es ist eher so ein Gefühl, was man in dem Moment hat. Also es ist jetzt... wie gesagt, es ist halt nicht, dass ich jetzt tatsächlich sage, ich sehe schwarzen, eigentlich ist da schwarzer Text und ich denke, der ist bunt. So ist das natürlich nicht. Es gibt auch noch andere witzige Dinge, die mit Farben passieren können. Es gibt Tetrachromaten. Die haben nämlich ein Zäpfchen mehr als die meisten Menschen auf der Netzhaut und können - das sind meistens Frauen, weil es, glaube ich, irgendwie über die Y-Chromosomen vererbt wird. Und die können den Gelb-Farbraum höher auflösen. Und ich hab vorhin nochmal nachgeguckt und das sind wohl angeblich ein Viertel der Menschen, was ich irgendwie erstaunlich hoch fand. Ehrlich gesagt, bin mir nicht ganz sicher, ob das wirklich eine sinnvolle Zahl ist. Aber das gibt es auf jeden Fall und nachweisbar... es gibt auch so Farb-Tests, die man machen kann, wo halt unterschiedliche Farbpaletten abgedruckt sind. Und wenn man da mehr erkennen kann, dann hat man wohl vermutlich ein Zäpfchen mehr im Auge. Also es gibt Menschen, die einfach, ja... noch viel höher Farben auflösen können als die meisten. Und zum Schluss, es gibt die sogenannten Impossible Colors. Da gibt es mehrere Kategorien davon. Und ich habe eine mitgebracht. Da geht es darum, dass es bestimmte Mischfarben so von der Wellenlänge/Frequenz, wie sie eben in unserem Spektrum stattfindet, nicht existiert. Und das sind in dem Fall zum Beispiel Blau und Gelb direkt nebeneinander. Die kann man so nicht wahrnehmen. Die existieren so natürlich nicht und da haben sich Leute Gedanken gemacht: Was wurde denn aber mit unserem Gehirn passieren, wenn wir sowas trotzdem sehen könnten und haben sich überlegt: Ja gut, dann mischen wir das halt einfach mal durch schielen und das kommt ja dann trotzdem beide... der Input von beiden Sachen kommt ja dann trotzdem im Gehirn an und mal schauen was da passiert. Und ich würde euch mal bitten, also wenn ihr das möchte, das mal zu probieren. Also das Ziel ist, zu schielen und die beiden Xe übereinander zu haben, sodass praktisch... ihr würdet dann praktisch links ein blaues Quadrat sehen, in der Mitte ein gemischtes Quadrat und rechts ein gelbes. Es ist ein bisschen schwierig, tatsächlich. Klappt das bei jemanden? Ja? Kannst du beschreiben, wie das aussieht, wenn du das übereinander legst durch Schielen? Die Antwort war: Es flackert in der Mitte. Das ist tatsächlich auch, was bei mir passiert. Ich versuche es mal zu beschreiben. Es ist nicht, dass sich die Farben tatsächlich so richtig mischen, sondern man hat einen... irgendwie so einen Farb-Gradienten. Also es verläuft schon so von blau nach gelb, fast ruckartig, aber die Grenze zwischen Blau und Gelb, die wabert so komisch hin und her. Die ist nicht statisch irgendwo, sondern es sieht so ein bisschen seltsam aus, wenn man das macht. Und wir können das nochmal mit zwei anderen Farben probieren, mit Rot und Grün. Wenn es bei jemand klappt, wäre das voll nett, wenn er sich melden würde. Du, zum Beispiel. Kannst du es beschreiben, wie es bei dir aussieht? unverständlich bleeptrack: Kannst du es ein bisschen lauter sagen? Ein sehr leuchtend... pardon, ein sehr leuchtendes Rot. Okay, interessant, das war bei mir ein bisschen anders. Funktioniert das bei noch jemanden mit schielen? Bei dir? Wie sieht es bei dir aus? Person: Ich sehe wieder changierende Töne, allerdings sind die verschoben gegenüber den Außen, also mein Rot ist gelblicher, mein Grün ist brauner als das Außen-Grün. bleeptrack: Ja, ist witzig. Ist ein bisschen unterschiedlich, offensichtlich. Bei mir ist es eher so, also ich hab ein ähnliches Phänomen wie bei dir, dass es so ein bisschen, so eine Farbverschiebung gibt. Aber mir ist das, als krisselt das ganz arg. Also, als hätte man bei einem Foto eine ganz hohe ISO, als würde das Rot immer permanent gegen das Grün kämpfen. Also es krisselt ganz arg. Also probiert das gerne mal aus. Und ich kann da auch generell sehr den Wiki... gerade den englischen Wikipedia-Artikel über Impossible Colors empfehlen, wo es noch andere Beispiele für solche Phänomene gibt. Und damit sind wir für dieses Jahr mit Operation Mindfuck leider schon am Ende. Wenn ihr über irgendetwas von diesen Themen oder irgendetwas, was vielleicht auch in eine ähnliche Richtung geht, mit uns quatschen wollt, dann macht das gerne. Ihr findet uns online auf bleeptrack.de oder morr.cc oder auf Twitter und auch auf Mastodon. Und die Slides findet ihr auch unten auf dem Link. Und ja, wir beide haben uns sehr gefreut, dass ihr so zahlreich gekommen seid. Macht's gut. Applaus Herald: Ja, danke euch beiden. Vielleicht haben wir ja direkt noch Fragen, die wir beantworten können. Weiß ich nicht, hat jemand von euch eine Frage an unsere beiden Speaker? Scheint nicht so. Dann sagen wir nochmal Danke an bleeptrack und blinry und dann war das leider schon unser ganzes Programm für heute in der Wikidata WG. Bis morgen dann. Applaus Musik Untertitel erstellt von c3subtitles.de im Jahr 2021. Mach mit und hilf uns!