Musik
Herald: Hallo, hallo! So, jetzt im
Abendprogramm der Wikipaka WG haben wir
ein kleines Potpourri der Kuriositäten.
Ein bisschen Kunst, ein bisschen
Technologie und ich nehme an, ganz viel
Fusion aus den beiden. Also einen schönen
Applaus für Operation Mindfuck Vol. 2 mit
bleeptrack und blinry!
Applaus
blinry: Hallo! Also wir fangen an mit ein
bisschen über künstliche Intelligenz. Da
hat man den Eindruck, über die letzten
Jahre hat sich da viel getan. Und so
Programme, die irgendwie kluge Dinge tun,
sind irgendwie immer klüger geworden. Und
ich hab euch ein paar Sachen mitgebracht,
die je nachdem wie ihr das interpretiert -
entweder danach denkt, glaub ich, man
braucht gar nicht so viel Angst zu haben,
dass die wirklich die Welt übernehmen
oder, dass sie es vielleicht doch
schneller tun, als ihr denkt. Gucken wir
mal rein. Es geht um ein paar
Forschungsthemen. Also, eine Gruppe von
Forschern hat versucht, ein Programm zu
basteln, die ein Retro Spiel spielen und
dabei lernen, wie man das spielt, also von
0 auf. Haben die irgendwie vor Donkey Kong
gesetzt oder so. Und dann hat halt das
Programm gelernt, um den Score
hochzutreiben, muss man irgendwie so ein
bisschen rumlaufen und über Dinge springen
und so und irgendwie Leitern hochklettern.
Und das hat das ganze erfolgreich gemacht.
Und dann haben sie das vor Tetris gesetzt
und da ist irgendwie was Komisches
passiert, wenn sie das angeguckt haben,
was das Programm tut. Das hat einfach die
Kästchen irgendwie so übereinander
gestapelt, keine rein gecleart oder sowas,
und dann total chaotisch irgendwie das
Feld gefüllt. Und kurz bevor es oben
angekommen ist und das nächste Teil
gekommen wäre und Game Over gewesen wäre,
hat es auf Pause gedrückt und ist da
einfach geblieben. Was dann dazu führte,
dass, ja, nach den Kriterien, die dem
vorgegeben wurden, hat es halt nicht
verloren und ist dann da halt... hat
unbegrenzt viele Punkte gekriegt auf diese
Art und Weise. Ja. Oder ein anderes Team
wollte einen virtuellen Roboter bauen, der
sich über eine Spielfläche möglichst
schnell bewegt, also der eine Strecke
möglichst schnell zurücklegt. Und dieser
Roboter konnte aus Rechtecken, 3D
Rechtecken oder Quadern bestehen, die
zusammenhängen, die Muskelverbindungen
haben oder sowas und auf Berührung mit dem
Boden irgendwas besonderes tun oder sowas.
Und die dachten: Okay, wir geben mal die
Kriterien vor und lassen da einen
generativen Algorithmus irgendwie drüber
laufen und gucken mal, was da passiert.
Und was ist passiert? Das Programm hat
einen Roboter gebaut, der ein ganz ganz
langes, dünnes Bein hatte und oben war so
ein schwerer Würfel drauf. Das ist dann
halt zur Seite umgekippt und hat diese
Strecke dadurch sehr schnell zurückgelegt.
Seitlich. Manche haben auch gelernt, noch
am Ende so einen kleinen Salto, einen
Überschlag zu machen, um noch ein bisschen
extra Strecke dabei drauf zu kriegen.
Nicht das, was die Forscher erwartet
haben, aber da haben sie dann im Paper
beschrieben, dass das passiert ist und
fanden das wahrscheinlich selber ganz
witzig. Dann gab es ein Programm, das
sollte einen Algorithmus reparieren. Ein
Algorithmus, der eigentlich eine Liste von
Zahlen sortieren sollte. Der Algorithmus
hat das meistens richtig sortiert.
Manchmal gab's aber irgendwie ein paar
Fehler. Und die Aufgabe für das Programm
war, dass es lernen sollte, wie man den
Algorithmus so fixt, dass es danach immer
eine sortierte Liste ausgibt. Was hat das
Programm gemacht? Es hat immer eine leere
Liste ausgegeben, weil es gemerkt hat:
Okay, dann akzeptiert meine Umgebung das
als sortiert. Gut, auch nicht das, was die
Forscher erwartet haben. Genau, das war so
ein Fahrsimulator, wo Leute sich dachten:
Okay, wir wollen nun ein autonomes Auto
simulieren und mal gucken, dass das die
Rundkurse möglichst schnell zurücklegt.
Und deshalb geben wir als Vorgabe, dass
die Durchschnittsgeschwindigkeit so hoch
sein soll wie möglich. Und haben das
angeworfen, haben irgendwie das wieder
selbst lernen lassen und so. Tja, was ist
passiert? Das Auto hat sich immer im Kreis
gedreht. Das GIF spielt gerade nicht, aber
ihr könnt euch vorstellen, es war einfach
auf dieser Strecke irgendwie möglichst
enge Kreise gefahren. Möglichst schnell,
ist da so langgeschlittert, hatte dadurch
eine super hohe
Durchschnittsgeschwindigkeit, aber ist
halt nicht vorangekommen. Und auch da
waren halt die Vorgaben von außen falsch,
was das Programm eigentlich lernen soll.
Genau das war auch... das ist vielleicht
eines meiner Lieblingsbeispiele. Da ging
es darum, virtuelle Agenten zu bauen, die
Fußball spielen auf einem 3D Feld und die
Gruppe dachte sich: Okay, was ist da ein
gutes Kriterium für einen guten
Fußballspieler? Wahrscheinlich, dass man
irgendwie oft an den Ball kommt. Das ist
ein Zeichen dafür, dass man irgendwie am
Spiel teilnimmt, dass man irgendwie den
Ball weitergibt oder so. Und genau. Und
was hat das Programm dann gemacht? Die
Agenten haben sich den Ball gegriffen und
möglichst schnell dagegen vibriert mit
einem ihrer Körperteile, um halt möglichst
viele Berührungen zu erzeugen dabei. Und,
ja. Gut, und hier noch ein letztes
Beispiel, was mal schiefgegangen ist. Da
ging es um Klassifizierung von Bildern.
Das ist so ein relativ typisches KI-
Problem, dass man dem irgendwie ein Bild
zeigt und das Programm soll entscheiden:
Ist da eine Katze drauf? Oder ist da keine
Katze drauf? Zum Beispiel. Und in dem Fall
hat jemand so ein Programm geschrieben und
irgendwie trainieren lassen und hat
festgestellt, dass das total schnell
supergut wurde. Mit Treffersicherheiten
über 90 Prozent oder so. Und aus der
Vergangenheit und aus alter Forschung
wusste die Person, dass das eigentlich
länger dauert und nicht so zuverlässig
funktioniert und hat da irgendwie länger
rein geguckt, was da wohl geschehen ist.
Und der Grund war, dass die beiden Typen
von Bildern aus zwei verschiedenen
Datenbanken kamen. Also die mit Katze aus
der einen und die ohne Katze aus der
anderen. Und die eine hatte ein bisschen
mehr Delay und das Programm hat dabei
irgendwie gelernt, das ist so eine Art
Timing-Atttacke, die da stattgefunden ist.
Also wenn es lange dauert, das Bild zu
holen, dann ist da offenbar keine Katze
drauf. Und daran hat es sich gehalten und
hat dann super zuverlässig dieses Ding
hingekriegt, das zu klassifizieren. Tja.
Genau. Wenn euch das Spaß gemacht hat,
gibt es noch eine ziemlich lange Liste von
solchen ähnlichen Fällen irgendwie unter
dieser URL, wo ich jetzt hier ein paar
herausgegriffen habe, die ich ganz lustig
fand. Aber da gibt es noch viel mehr.
Applaus
bleeptrack: Ich beschäftige mich momentan
ganz viel mit Generative Art, also mit
Kunst, die irgendwie aus dem Computer
erzeugt wird und ein Teil davon sind
zelluläre Automaten. Und ein Beispiel
haben wir zum Beispiel hier, das ist das
Game of Life. Meldet euch doch mal, wer
das Game of Life kennt oder vielleicht
sogar schon mal programmiert hat, selber.
Ein bisschen weniger. Also für den Stream:
Fast der ganze Saal hat sich jetzt hier...
der Raum hat sich jetzt gemeldet. Und ja,
Game of Life ist ein ganz klassischer
zellulärer Automat. Man befindet sich in
einer Grid World. Man hat also ein Raster
an Punkten. Und bei Game of Life ist es
so, dass ein Punkt eben entweder belebt
sein kann oder nicht. Wenn er lebt, dann
ist er hier schwarz markiert und wenn
nicht, dann ist er weiß. Und es gibt
Regeln, wie sich dieses Leben fortpflanzen
darf. Wenn es nämlich eine kleine - ich
weiß gar nicht, ich kann sie ganz
auswendig ehrlich gesagt nicht - wenn es
eine kleine Anzahl an umliegenden Punkten
gibt, die schon leben, dann entsteht neues
Leben. Und wenn es aber zu viele Punkte
sind, die außenrum leben, dann stirbt das
Leben praktisch ab. Und jetzt kann man
Schritt für Schritt über diese Grid World,
über dieses Raster gehen und sich eben
anschauen, wo neues Leben entsteht und wo
es stirbt. Und dann kann man solche
Animationen erstellen. Was da ganz witzig
ist, was ihr so nach unten rechts
weglaufen seht, das ist dann eine Form,
die dabei entsteht. Die hat man dann
Glider getauft. Die können sich nämlich so
fortbewegen in diesem Raum, das ist ganz
witzig. So, Game of Life ist
wahrscheinlich so der bekannteste
zellulärer Automat, aber wir können mal
noch ein paar andere angucken. Man kann
nämlich das Grid auch einfach ganz anders
definieren, zum Beispiel in Form von
Hexagons. Da muss man sich halt überlegen,
wie man die Regeln anpasst. Aber da kann
man genauso witzige Lebens... kleine
Lebensformen und Animationen draus machen.
Was mir immer noch besonders gut gefällt,
sind solche Sachen hier. Das sind
eindimensionale zelluläre Automaten und
die bauen sich nach so, zum Beispiel so
eine Regel auf. Das heißt, ich habe in dem
Fall als Streifen in der x-Achse den
momentanen Zustand und die Veränderung
über die Zeit mache ich nicht in Form von
Animationen, also dass ich immer ein neues
Bild zeichne, sondern die Zeit läuft
praktisch nach unten weg. Und hier seht
ihr z.B. die Regeln für den rule 30
eindimensionalen zellulären Automat. Das
heißt - sieht man die Maus - genau, wenn
wir hier ganz rechts gucken. Wenn es
praktisch hier im momentanen Zustand kein
Leben gibt, dann wird es auch weiterhin
kein Leben geben. Wenn es bei oberen
Pixeln einen Lebenspunkt oder hier zwei
gibt, dann entsteht halt neues Leben. Und
wenn es zu viele gibt, nehme ich hier zwei
oder mehr Punkte, dann stirbt das Leben
wieder ab. Und da kann man eben solche
hübschen Formen und Muster damit
produzieren. Und was mich dann sehr
überrascht hat, ist: Solche Formen kommen
natürlich... äh, nicht natürlich, aber
solche Formen kommen auch in der Natur
vor. Es gibt nämlich zum Beispiel hier
eine Schneckenart, die praktisch genau
nach diesem Prinzip die Schale... also das
Muster tritt genau so auf dieser Schale
auf. Und man kann das Spielchen jetzt
natürlich auch noch weitertreiben, und
zwar nicht in der eindimensionalen
Variante, sondern in der zweidimensionalen
Variante. Aber wir können natürlich vom
praktisch diskreten Raum, wo es nur eins
und null gibt, also lebend und nicht
lebend in einen größeren Raum gehen, wo es
noch Zwischenzustände gibt. Und da gibt's
ein Projekt, das heißt z.B. Smooth Life.
Also es ist eine Weiterentwicklung von
einem typischen Game of Life und man hat
noch so graue Zwischenzustände. Und da
entstehen dann auf einmal ganz andere
Formen. Aber was ich besonders witzig
ist... äh, witzig finde, ist, dass auch
solche Glider entstehen. Das sind immer
diese Punkte hier. Und wenn wir mal ein
bisschen abwarten, genau, dann seht ihr,
die hier ab und zu schon mal so rum
flitzen. Also solche sich fort bewegenden
Konstrukte entstehen da halt immer noch.
Und ich finde das sehr faszinierend,
solche Animationen anzuschauen.
Applaus
blinry: Ich hab euch ein paar kleine
Schriftarten mitgebracht. Das erste
Beispiel heißt Mini Text. Hat sich jemand
ausgedacht: Eine Schriftart, die nur einen
Pixel breit ist. Das Alphabet sieht dann
so aus. Ich glaube, oben ist eine
Zahlenreihe. Unten ist das Alphabet von A
bis Z. Und wenn man das erst mal anguckt,
könnte man denken: Ok, so ein bisschen,
weiß nicht, wie ein Flaggen Alphabet oder
so. Muss man halt auswendig lernen, welche
Farbkombinationen für welchen Buchstaben
stehen. Aber tatsächlich steckt da ein
bisschen mehr hinter. Der Trick ist
nämlich, dass vor zehn Jahren, als die
Person sich das ausgedacht hat, super
verbreitet waren LCD Bildschirme, wo
einzelne Pixel halt aus drei Farbstreifen
bestanden: Aus roten, grünen und blauen
Subpixeln, die dann zusammen irgendwie
eine weiße Farbe erzeugen, wenn alle
angeschaltet sind. Und das führt dann
dazu, dass wenn man nur bestimmte Teile
der Farben anmacht, dann kriegt er halt
irgendwie, weiß nicht... wenn ihr jetzt
einen blauen Pixel anschaltet, dann ist
nur der rechte Streifen davon an. Das
führt dazu, dass wenn man das wirklich auf
einem echten LCD Bildschirm tut, auf
nativer Auflösung, und das mit einem eine
Lupe anguckt oder groß fotografiert oder
sowas, dann ergeben sich halt da die
Buchstaben durch, dass man irgendwie
Kombinationen bauen kann aus diesen drei
Spalten. Und das ist ziemlich cool. Ich
hab das neulich mal vertwittert und Leute
haben das bei sich ausprobiert und
heutzutage ist die Diversität ein bisschen
höher. Ja, genau. Ich hatte damals, als
ich das gefunden habe, kurzfristig meinen
Twitteravatar mal so auf einen Mini-Text
getan, wo dann irgendwie drinstand, dass
man mehr als 140 Zeichen im Avatar
unterbringen kann. Aber es empfiehlt dann,
seinen Followern eine Lupe auszuteilen,
damit die das auch lesen können. Und genau
- Leute haben das neulich nochmal
ausprobiert. Da passierte dann z.B. sowas,
wo offenbar Rot und Blau Subpixel
vertauscht waren, bei dieser Person. Also
da sind die Buchstaben im Grunde zu
erkennen, aber alle sind falschrum. Works
for me, könnte man sagen. Oder bei anderen
Personen passierte das. Das ist eine
superweirde Subpixel-Anordnung, so wie sie
bei Sensoren von digitalen Foto Kameras
verwendet wird, zum Beispiel. Da ist es
halt nicht brauchbar und tja, für die
Person ist es dann halt nicht lesbar. Ich
hab gehört, beim CTF gibt es irgendwie
eine Challenge, die mit dieser Font auch
zu tun hat. Ja, genau. Und dann saßen wir
neulich im Hackerspace rum und haben
nochmal ein bisschen damit gespielt und
haben überlegt: Okay, wie viel Text kann
man auf wie viel Platz darstellen? Und
haben mal den ersten Band von Herr der
Ringe genommen, die Gefährten. Haben uns
einen Generator für Mini-Text geschrieben
und festgestellt, dass tatsächlich der
ganze erste Band auf Englisch in ein Bild
passt mit 3500 Pixel Breite quadratisch.
Das ist ziemlich cool. Auf 5k Bildschirmen
oder so kann man dann quasi das ganze Buch
auf einem Bildschirm haben, muss nur
zwischen den einzelnen Bänden einmal
umblättern, sozusagen. Und ja, in dem
Moment haben wir versucht... Applaus.
Viel ist halt wirklich schwer zu lesen und
das tat unseren Augen weh und so. Und Lena
hier meinte dann, wir könnten das ja mal
an die Wand werfen mit einem Projektor, um
näher ran gehen zu können und so. Das war
aber leider eine Technologie in dem
Beamer, die gar nicht mit so Pixeln
arbeitete. Insofern nützte uns das in dem
Moment nichts. Genau, und die zweite
kleine Schrift, die ich euch mitgebracht
habe, ist Dotsies. Auch da sind einzelne
Buchstaben einen Pixel breit. Das
funktioniert nur ein bisschen anders: Das
ist halt eine Kombination... also ihr habt
eine 5-Pixel-Reihe, also 5 Pixel hoch, 1
Pixel breit und unterschiedlich viele
davon sind an oder aus. Das sind dann
halt... hier muss man wirklich auswendig
lernen, welche Buchstaben welche
Pixelanordnungen sind. Und was cool ist an
dieser Schrift ist, dass wenn man daraus
Wörter zusammen baut, dann haben die einen
relativ kleinen visuellen Eindruck. Also
hier ist der gleiche Text oben und unten.
Ihr seht schon, beim einen ist der Text in
Dotsies viel viel kleiner und viel
kompakter. Und außerdem bilden die
einzelnen Wörter relativ gut visuell
erkennbare Muster. Da kann man ein
bisschen leichter Mustererkennung machen,
wenn man Dotsies lesen kann im Vergleich
zu lateinischen Buchstaben. Genau. Wenn
ihr das lernen wollt, kann ich total
empfehlen: Geht hier auf dotsies.org, da
gibt es ein Tutorial, was so funktioniert,
dass ihr erst einmal einen Text mit
lateinischen Buchstaben, die aber schon so
angeordnet sind wie später die Dotsies.
Das heißt, ihr lest diesen Text von oben
nach unten und gewöhnt euch schon mal ein
bisschen an diese Struktur und nach und
nach werden dann immer mehr Buchstaben
durch die Dotsies-Äquivalente ersetzt.
Also da unten kommt... geht es dann los,
das irgendwie ein Wort schon einmal
exemplarisch in Dotsies gezeigt wird, aber
- weiß nicht - das E wird dann als erstes
komplett ersetzt oder sowas. Man kann
immer mit der Maus drüber fahren um
nochmal zu spicken, quasi, was das jetzt
eigentlich für ein Buchstabe war. Und das
ist ein Text, weiß nicht, das dauert eine
Viertelstunde den zu lesen oder sowas.
Wenn ihr unten auf der Seite angekommen
seid, könnt ihr auf einmal Dotsies lesen.
Das ist eine total coole Erfahrung
irgendwie, dass das so flüssig ins Gehirn
geht. Das ist total irre. Kann ich
empfehlen.
Applaus
bleeptrack: So, ich möchte euch gerne eine
kleine Anekdote erzählen: Ich war kürzlich
eingeladen in die Schweiz, um einen
Vortrag zu halten über Lernen in Online-
Communities. Und die Erfahrung habt ihr
wahrscheinlich auch alle gemacht, dass ihr
euch wahnsinnig viel aus dem Internet
selber irgendwie beigebracht habt. Und ich
hab mich dann gefragt: Was war eigentlich
meine erste Online-Community, in der ich
irgendwie Technicksachen gelernt habe? Und
mir ist dann eingefallen: Das war ein
Online-Forum. So was gibt's ja fast gar
nicht mehr. Ein Online-Forum zu einem
Spiel, das hieß Petz. Das ist eigentlich
so ein - ja, ihr seht das - ein Tamagotchi
Spiel. Ja, man kann da mit kleinen Hunden
und Katzen spielen und die adoptieren und
streicheln und es ist ganz niedlich. Und
ich hab da mal nach diesem Spiel gesucht
und interessante Sachen gefunden. Die
Community bestand - das war so in meinem
Fall zumindest so um die 2000er, da hatte
die so gerade ihre Hochkultur - bestand
hauptsächlich aus jungen Frauen, die sich
gegenseitig hacken beigebracht haben. Es
ist die Frage, was hackt man denn an
diesem Spiel? Da ging es jetzt gar nicht
um Cracken für das Spiel oder so. Das war
nicht das Problem. Es ging darum, neue
Hunderassen zu bauen und es ging halt so
einfach: Man hat nämlich einfach die
Dateien der Rasse genommen, also jede
Rasse war in einer Datei hinterlegt und
hat die im Hex Editor aufgemacht und saß
dann vor einer Riesenwand an komischen,
für mich zumindest damals ziemlich
kryptischen Zahlen und hat die halt
versucht zu verändern um andere Farben zu
kriegen, um, keine Ahnung, den Hund größer
zu machen oder kleiner oder längere Ohren
und sowas. Und da gab es eine riesige
Community, die einfach nur Tutorials
geschrieben hat, wie ich mit dem Hex
Editor Files bearbeite, was ich wo ändern
muss, damit es funktioniert. Und ja, diese
Community bestand halt nur aus jungen
Frauen. Und das jetzt im Nachhinein zu
erfahren fand ich super witzig, dass es
die gab. Weil ich glaube, so eine
Community gibt es heute vermutlich eher
nicht mehr. Zumindest kenne ich keine.
Also sagt mir gerne Bescheid, wenn es da
was equivalentes gibt. Und es ist sehr
witzig, da jetzt Berichte nachzulesen.
Also sucht gerne mal nach dem Spiel Petz
5, da gibt's ein paar sehr spannende
Artikel von Leuten, die das so
Retrospektiven drüber geschrieben haben
und ich freue mich sehr, dass ich damals
Teil dieser Community war.
Applaus
blinry: Ich möchte euch etwas über
Lipogramme erzählen. Der Begriff kommt aus
dem altgriechischen "Lipogrammatikos",
bedeutet "leaving out a letter". Und da
geht es um Texte, in denen tatsächlich ein
Buchstabe nicht vorkommt. Es gibt in der
Literatur ein paar Beispiele. Das ist
irgendwie aus den Dreißigern, Gatsby. Ist
ein ganzes Buch ohne den Buchstaben E. Und
irgendwie hab ich gelesen, dass der Autor
mal behauptet hätte, er hätte auf seiner
Tastatur damals die - auf seiner
Schreibmaschine - die Taste, den Hebel für
die Taste E irgendwie fixiert, damit er
nicht versehentlich drückt. Trotzdem ist
es passiert, dass in diesem Buch, ich
glaube, vier Vorkommen von E sind. Also
auf dem Cover offensichtlich auch, in
diesem Slogan "Without the letter E". Da
kommt es natürlich dann vor, aber
innerhalb der Seiten gibt es viermal das
E, was irgendwie versehentlich
reingerutscht ist. Es gibt dreimal das
Wort "the" und einmal das Wort "Officers",
glaube ich. Aber sonst ist das, finde ich,
eine starke Leistung, auf die Art und
Weise ein Buch zu schreiben. Das hat dann
inspiriert noch andere Autoren, das auch
zu versuchen. Zum Beispiel hier ist ein
französisches Werk, das auch genauso ohne
E auskommt. Und da finde ich nicht nur
beeindruckend, dass der Autor es geschafft
hat, das zu schreiben, sondern dass das
auch in viele Sprachen übersetzt wurde,
unter Beibehaltung des gleichen
Constraints. Also es gibt da einen
irgendwie auf Englisch "A Void" oder auf
Deutsch heißt das dann "Anton Yoyles
Fortgang" von Verlag "zwi tausnd ins", wie
ihr seht. Und ich hab euch mal
mitgebracht, den allerersten Absatz davon,
dass ihr ein bisschen Gefühl dafür kriegt,
wie das ist, wenn man dieses harte
Constraints hat. Also, ich lese mal ein
bisschen: Kardinal, Rabbi und Admiral als
Führungsfigur null und nichtig und darum
völlig abhängig vom Ami-Trust , tat durch
Radionachricht und Plakatanschlag kund,
dass Nahrungsnot und damit Tod aufs Volk
zukommt. Zunächst tat man das als
Falschinformation ab. Das ist
Propagandagift, sagt man. Doch bald schon
ward spürbar, was man ursprünglich nicht
glaubt. Das Volk griff zum Stock und zum
Dolch. "Gib uns das täglich Brot", hallts
durchs Land und "pfui auf das Patronat,
auf Ordnung, Macht und Staat". Und so
weiter. Und an dem Ausdruck merkt man
schon so ein paar Tricks, die da benutzt
werden, dass man "jetzt hallts" schreibt
statt "hallt es" oder sowas, um irgendwie
das E zu vermeiden oder hat ganz viele
Verbformen wählt, wo die verschiedenen
Zeitformen, die man hat, halt keine E
enthalten. Genau. Gibt noch mindestens
fünf andere Sprachen, in die das übersetzt
wurde. Und ja, den Umstand finde ich
krass. Ich möchte nicht mit den
Übersetzern tauschen, ehrlich gesagt.
Genau, das ist noch ein Buch, das ich
tatsächlich gelesen habe, die ersten
beiden kenne ich nur vom Hörensagen. "Ella
Minnow Pea" heißt das und erzählt die
Geschichte einer Kleinstadt. Die haben so
einen... also die Person, die diese Stadt
gegründet hat und die irgendwie deren
großes Mythos-Vorbild ist, hat dort eine
Statue stehen, mitten in der Stadt. Und da
ist eine Inschrift drunter, die nämlich...
dieser Satz ist "The quick brown fox jumps
over the lazy dog", was jeden Buchstaben
des Alphabets enthält. Und eines Tages
fällt von dieser Inschrift ein Buchstabe
ab und alle Bewohner sehen das natürlich
als Zeichen, dass unbedingt dieser
Buchstabe vermieden werden muss. Es ist
ein Roman, der aus Briefen besteht, den
sich die Dorfbewohner untereinander
schreiben. Und da fangen die dann relativ
schnell an, das auch konsequent
durchzuziehen und halt diesen Buchstaben
wegzulassen. Und naja, über die Zeit
fallen dann mehr Buchstaben ab und dann
müssen sie mehr Buchstaben vermeiden. Und
über den Verlauf dieses Romans eskaliert
das ziemlich und es bleiben echt wenig
Buchstaben übrig. Ja, das kann ich sehr
empfehlen, dieses Buch. Genau. Und wenn
ihr das mal ausprobieren wollte, wie es
ist, so zu schreiben, gibt es tatsächlich
eine Mastodon Instanz, nämlich
Oulipo.social, wo es verboten ist, den
Buchstaben E zu benutzen. Also wenn ihr
irgendwas schreibt, was ein E enthält,
dann kriegt ihr eine Fehlermeldung, dass
man das nicht abschicken kann und die
Leute dahinter haben tatsächlich auch das
gesamte Interface übersetzt. Ich weiß
nicht, ob euch das auffällt, da steht
jetzt nicht "Nickname" oben links, sondern
"Login Alias" und so. Also auf allen
Knöpfen werdet ihr auch kein E finden und
wenn, ist es ein Bug. Es gibt ein paar
GitHub Issues, wo Leute dann doch ein E
gefunden haben. Ich glaub ich hab mal...
Also ich hab das eine zeitlang mal
benutzt, ein bisschen, und habe dann
später nochmal reingeguckt und dann stand
irgendwie in einem Tutoren "year ago" mit
e in dem "year", was irgendwie die Leute
offenbar nicht auf dem Schirm hatten, weil
das halt so neu war, dass nichts ein Jahr
alt war. Aber das hab ich als Bug gemeldet
und es wurde gefixt und jetzt steht da
irgendwie 24 Monate oder so... 12 Monate.
Genau. Und das ist super witzig irgendwie,
da mal eine Zeit drauf zu gehen und
versuchen, so Texte zu formulieren. Weiß
nicht, hier in der rechten Spalte schreibt
blabla irgendwie darüber, wie ein Film
besucht wo... es geht offenbar um "group
of young individuals that do hacking stuff
using computing units and shout 'hack this
world'". Und das hat auch einen ganz
komischen psychischen Effekt, wenn man da
eine Weile ist, wenn man dann die Seite
wieder verlässt und versucht, andere Texte
zu schreiben, weil man dann immer noch so
denkt, ich muss das doch vermeiden. Und
was könnte ich dann stattdessen benutzen?
Oder man liest irgendwie andere Texte, wo
ganz viele Es drin sind und man denkt: Was
ist denn da kaputt? Naja, und zum
Ausgleich, wo man hier kein e benutzen
kann, gibt es auch eine Mastodon Instanz,
wo man nur Es benutzen kann. Das ist
dolphin.town. Also man darf Es und Zahlen
benutzen als Username und als Inhalt der
TUDs. Ich denke, da haben die Leute
vielleicht auch viel Spaß. Ich weiß es
nicht. Da hab ich keinen Account. Aber
macht euch doch einen.
Applaus
bleeptrack: Ein sehr anderes spannendes
Thema, was ich euch näherbringen möchte,
ist Sinneserweiterung für den Körper. Und
ja, so in der Hacking Szene - naja,
populär wäre übertrieben, aber was man
schon öfter mal antrifft, sind so NFC
Implantate oder implantierte Magneten oder
sowas. Ich meine, das hat nichts so sehr
mit Sinneserweiterungen zu tun. Wobei
doch. Wobei der Magnet ist ja schon eine
Sinneserweiterung. Man fühlt ja zum Teil
elektromagnetische Felder. Sowas ist
irgendwie gängig. Ich möchte euch aber
über einem Projekt erzählen, was ich in
meinem Masterstudium in der Uni mit zwei
anderen sehr netten Kommilitonen gemacht
habe und ich es damals sehr spannend fand.
Wir haben eine Smartphone-App geschrieben
und wir haben vier Arm-Manschetten gebaut,
die uns unsere, ja, unsere normalen Sinne
erweitern sollten. Und wie ihr schon seht
okay, eine Manschette war keine richtige
Manschette. Wir haben einmal praktisch so
Elektro-Pads genommen, die ihr kennt von
den Muskel Kontraktionen, wenn man Muskeln
aufbauen möchte. Genau. Also da kann man
Strom drauf geben und dann merkt ihr
selber den Muskel ein bisschen zucken.
Dann gab es noch diese zweite Manschette
hier. Da waren vier Servos drin verbaut.
Das heißt, man konnte so eine Art Druck
erzeugen. Also man hat so ein Kneifen am
Arm gespürt, wenn man da was ausgelöst
hat. Die Dritte hier, die waren ein
bisschen schwierig anzulegen, der
Prototyp. Aber die hatte so zirka zehn
kleine Vibrations-Motoren rundrum verbaut,
die man halt auch einzeln ansteuern konnte
im Zweifelsfall, um so Pattern abfahren zu
lassen. Und die große Arm-Manschette hier,
die hatte so vier Pedier-Elemente. Das
heißt, man konnte praktisch Hitze oder
Kälte auf der Haut fühlen. So die konnte
man auch alle in Reihe schalten und
theoretisch alle gleichzeitig tragen, was
dann sehr futuristisch aussieht. Und man
musste ein Täschchen tragen wegen Akku.
Und der Plan war folgender: Man hat diese
Handy-App und man sollte diverse
Informationsquellen auf diese Manschetten
mappen können. Das heißt, ich kann z.B...
könnte fühlen, wie viele Leute sich im
WLAN befinden durch Vibrationen. Oder ich
könnte fühlen... keine Ahnung, den
Herzschlag von meinem Freund... den
irgendwie auf die Wärme mappen lassen,
wenn der Sport treibt, dass das dann warm
wird oder sowas. Das war ja die Idee und
damit haben wir experimentiert. Und wir
haben natürlich auch ein bisschen selbst
Tests damit gemacht. Und ich hab zwei
Selbsttest gemacht, die ich ganz spannend
fand. Wir hatten einmal... haben wir
versucht, die Location zu mappen, das
heißt mein Kommilitone damals, der hatte
ja sein Smartphone dabei und hat seine GPS
Location immer zum Server geschickt. Und
wenn wir uns nahe gekommen sind, dann hat
die Manschette mehr vibriert. Und eines
Tages fahr ich an die Uni hoch und trug
diese Manschette, weil wir eben später an
der Uni damit experimentieren wollten. Und
ich merke es auf einmal vibrieren und
denke so: Okay, wir haben einen Bug in
unserer Software? Irgendwas ist voll
komisch. Komm an der Uni an, erzähle es
meinen Kollegen, meint er irgendwie: Wir
müssen uns das nochmal angucken. Irgendwas
ist nicht richtig. Als ich heute zur Uni
hochgefahren bin, da die Manschette auf
einmal voll vibriert. Irgendwas ist nicht
okay. Und dann meint mein Kommilitone: Ja,
wo seid ihr denn lang gefahren? Ja, hier
den Standardweg. Ja, an der Bushaltestelle
vorbei. Ja, ja, da stand ich. Also ich
habe einfach gemerkt, dass er da war und
wusste es nicht einmal. Das war so ein
Aha-Erlebnis in dem Moment für uns. Das
ist eigentlich eine ziemlich witzige
Technologie ist und das andere, was ich
ausprobiert habe, das ist das, was ihr
hier seht. Da war das noch so der super
super early Prototyp: Nur die Vibrations-
Manschette, die ich anhatte und ich hab
immer abgegriffen, wieviel User grad auf
meiner Website sind und hab mir das auch
durch Vibrationen anzeigen lassen und ich
bin mir nicht mehr ganz sicher - das Rote
müsste praktisch... das Rote ist ground
truth, also wie viele Leute tatsächlich da
waren und das Blaue, was ich vermutet
habe, wie viele Leute da sind und ihr
könnt sehen, dass das relativ gut ist.
Also ich hab's offensichtlich auch
manchmal nicht mitbekommen, gerade wenn es
leicht vibriert. Also die niedrigste
Vibrations Stufe war wirklich schwer zu
erfühlen überhaupt. Gerade wenn man sich
bewegt, dann hat man es eigentlich gar
nicht gemerkt. Das kann schon sein, dass
man das dann einfach nicht mitbekommt. Das
ist ein ziemlich witziges Gefühl, auf
einmal für so digitale Sachen ein Gefühl
zu bekommen. Also gerade wenn man so
Spikes hat und denkt so: Whoa, jetzt sind
gerade 5 Leute, sind gerade auf meiner
Website, so: Ich kann auf einmal fühlen,
wie Online-Präsenz funktioniert, mit
wieviel Leuten ich da virtuell
interagiere. Also das sind Konzepte, die
ich immer noch sehr spannend finde. Und
ich kann euch, ja, ich würde euch gern
ermutigen, auch mal sowas zu bauen. Ich
glaube es ist jemand am Kongress, wo ich
den Twitter-Handle gerade nicht weiß. Der
hat ein Gerät dabei, wo man... weißt du
das, hast du das auch gesehen? Man kann
was fühlen durch Akustik. Genau. Aber was
kann man fühlen? Was meinst du? Ja, WLAN-
Stärke, genau, man kann oder die Wifi-
Auslastung oder so fühlen durch Akustik,
also halt nicht durch Vibrationen, sondern
man kann mit Kopfhörern durch die Gegend
laufen und hören, wie stark oder wie viele
Leute da im Wifi sind. Also solche
Projekte unbedingt mal ausprobieren. Das
ist eine ganz tolle Erfahrung.
Applaus
blinry: Ich möchte euch noch von der
Simulationshypothese erzählen. Wenn ihr
auf die Webseite geht, findet ihr da auch
ein Paper darüber, was das sehr lang
ausbreitet. Ich versuche es nochmal ein
bisschen kürzer zusammenzufassen, worum es
da geht. Also es ist ein Argument, das
sagt, dass wir alle wahrscheinlich in
einer Simulation leben und die die
Argumentation geht so, dass man sagt: Wenn
man sich so ein Spiel wie Pong anguckt
z.B., vor ein paar Jahrzehnten, das war
super einfache Grafik, so ein paar Pixel
weiß auf schwarz oder sowas, konnte nicht
viel machen und heutige Spiele haben halt
irgendwie eine hyperrealistische 3D Grafik
mit, weiß ich nicht, wo man teilweise in
VR irgendwie in diese Welt rein kann, die
schon super super realistisch aussieht.
Und wenn man annimmt, dass jedes Jahr es
da ein kleines bisschen Verbesserung gibt
in Richtung einer realistischen
Simulation, ist anzunehmen, dass
irgendwann der Punkt erreicht ist, wo
solche Computerspiele so realistisch sind,
dass wir sie nicht mehr unterscheiden
können von der Wirklichkeit. Und zu diesem
Zeitpunkt könnte es halt, weiß ich nicht,
irgendwie so Spielekonsolen geben oder so,
wo ganz viele kleine Universum Simulatoren
drin laufen. Und wenn man sich dann
überlegt: Okay, es gibt irgendwie eine
"echte" Welt und ganz viele dieser
Konsolen mit einer simulierten Welt drin.
Wie wahrscheinlich ist es dann, dass wir
in der echten Welt leben? Also die
Wahrscheinlichkeit wird halt sehr, sehr
niedrig sein. Das ist die Argumentation,
die dahinter steckt. Das ist ein bisschen
vereinfacht, verglichen mit dem, was der
Autor hier schreibt. Aber so in die
Richtung geht das. Und das finde ich einen
interessanten Gedanken. Und ich glaube,
richtig entkräftbar ist das nicht.
Höchstens durch den Gedanken, dass Leute
beschließen, es ist irgendwie nicht
moralisch, solche Simulationen zu starten
oder die Menschheit wird irgendwie vorher
ausgerottet. Ja, irgendwie eine dieser
Möglichkeiten muss so sein. Und ich habe
neulich noch eine interessante Ergänzung
zu dieser These gelesen, nämlich, dass die
Welt über unserer, die unsere simuliert,
wahrscheinlich total langweilig ist. Aus
folgendem Grund: Wenn wir Menschen
irgendwie ein Computerspiel oder einen
Film oder sowas erzeugen, dann machen wir
da ja auch immer irgendwie
hochkonzentriert interessante Dinge rein.
Warum sollten wir irgendwas machen, was
langweiliger ist als unsere echte Welt?
Und deshalb sind wir vielleicht ganz gut
dran, dass wir in der Simulation sind und
nicht eine Ebene höher, weil wir es hier
einfach spannend haben. Und dieses
Argument stackt natürlich auch beliebig
nach oben: Die Welt der Wesen, die uns
simulieren, könnte simuliert sein und so
weiter. Ja, finde ich einen interessanten
Gedanken. Und ich hab da noch gefunden
beim Recherchieren: Tatsächlich haben
Leute ein Experiment entworfen, mit dem
sie testen wollen, ob wir in einer
Simulation sind. Und ich muss sagen, ich
habe die Argumentation dahinter nicht ganz
verstanden. Ihr könnt gerne auf den Link
gehen und das mal selber versuchen zu
verstehen. Es ist irgendwie eine
Argumentation in die Richtung, dass wenn
man so eine Simulation ausführt des
gesamten Universums, dass wir da halt
super super viel Rechenkapazität
verbrauchen. Und deshalb ist es
wahrscheinlich, dass da irgendwie so ein
paar Tricks eingebaut sind. Paar
Optimierungen irgendwie, die halt nur dann
das Fortschritt des Universums simulieren,
wenn das tatsächlich jemand mitkriegt oder
sowas irgendwie. Wenn jemand im Wald ist,
dann passiert da nichts dran, sozusagen.
Und ich glaube, mit diesem Experiment
wollen die Forscher herausfinden, ob
gewisse Dinge... also es ist so eine Art
Doppelspalt-Experiment, ob das einen
Unterschied macht, ob ein Mensch ein
Ergebnis beobachtet oder eine Maschine.
Und ich kann nicht ganz nachvollziehen, ob
das ein stichhaltiges Experiment ist, weil
man ja auch sagen könnte, wenn die die
Rechenkapazitäten nicht reichen, okay,
dann skalieren wir halt irgendwie den
Computer wieder hoch, der das macht. Das
soll uns nicht einschränken. Aber ich
finde es interessant, dass Leute sich um
sowas einen Kopf machen und herausfinden
wollen, ob wir in einer Simulation sind.
Ist ja dann so weit gekommen, dass die
tatsächlich eine Kickstarter-Kampagne
geschaltet haben zur Durchführung dieses
Experiments, die super erfolgreich war.
Und da bin ich mal gespannt auf die
Ergebnisse.
Applaus
bleeptrack: Ich habe nochmal einen sehr
spannenden Algorithmus dabei, wie ich
finde. Der heißt Wave Funcion Collapse und
ich hoffe, dass das Internet funktioniert.
Dann schauen wir uns den einfach mal
funktionierend an. Ja, genau. Sehr gut.
Das ist ein Algorithmus aus dem
Hintergrund der prozeduralen Generierung,
der auch im Gamedesign viel Anwendung
findet. Ihr seht schon, der bekommt immer
ein kleines Input Bild und kann daraus
Texturen generieren. Und ich finde das
total spannend, dem beim Arbeiten
zuzugucken. Das ist im Endeffekt ein
Constraints Solver. Das heißt, ich
beschreibe... ich versuche mal kurz zu
beschreiben, wie der in etwa arbeitet: Der
sucht sich eine Region in diesem Bild aus,
in einem bestimmten Pixel Umfang. Also
sagen wir mal so ein 2x2 Pixel Feld und
ein 3x3 Pixel Feld z.B. und schaut sich,
fängt, setzt einen Punkt zufällig. Ok, ich
muss anders anfangen. Er sucht sich dieses
2x2 Pixel Feld und er stellt eine
Häufigkeitswahrscheinlichkeit, wie oft
dieses Feld in dem Startbild vorkommt.
Dann hab ich diese Häufigkeit und dann
kann ich, um die große Textur zu
generieren, irgendwo anfangen und da ein
zufälliges 2x2 Feld nehmen. Und danach
muss ich halt gucken was an dieses 2x2
Feld dran passt. Und dazu kann ich ja
dieses Input Bild als Referenz nehmen und
mache das dann eben abhängig davon, wie
oft neue Ausschnitte überhaupt in dem Bild
vorkommen können. Und ich finde es total
abgefahren, da zuzugucken, wie der
arbeitet. Und wenn ihr da jetzt praktisch
so, ich sage mal verschwommene Pixel seht,
dann sind es halt noch unsichere Zustände,
wo es mehrere Lösungen für das Constraints
Solving geben könnte. Und ich finde daran
sehr spannend, dass man mit sehr wenig
Aufwand, nämlich nur mit der Erstellung
von so einem Dummy Bildchen am Anfang sehr
viel coole Texturen raus bekommt. Wir
können das gerne mal noch ein bisschen
weiter anschauen. Man kann da übrigens
auch sehr gut mit der Fenstergröße
spielen, um unterschiedliche Sachen zu
erzeugen. Und was ich dann noch
mitgebracht habe, ist so eine interaktive
Demo wovon ich auch mal hoffe, dass sie
lädt. Sehr gut. Jemand hat es nämlich als
super coole interaktive Demo geschrieben,
d.h. hier links seht ihr das Input Bild
bei Modules und rechts sind die Slots. Da
möchten wir jetzt praktisch unser neues
Bild erzeugen. Das heißt, diese Felder
hier hab ich jetzt zur Auswahl, um damit
irgendwo zu starten. Und sagen wir, wir
möchten mit dieser... dieses Sonnensymbol
soll in unserer... könnte in unserem Bild,
das wir generieren wollen hier liegen.
Jetzt seht ihr schon, er klappt jetzt ganz
viel um. Das ist ja ein Constraints
Solver. Das heißt, es gibt im Input-Bild
ja nur die Möglichkeit, dass z.B. blauer
Himmel liegt und über blauem Himmel kann
auch nur blauer Himmel liegen. Deswegen
löst der Constraints Solver diese Felder
hier schon einmal auf, weil da nichts
anderes sein kann von der
Wahrscheinlichkeit her. Jetzt können wir
da praktisch einfach so nach und nach
durchgehen und z.B. sagen: Hier daneben
soll nochmal Himmel liegen. Dann löst das
schon wieder die nächsten Felder, wo es
keine andere Möglichkeit gibt. Und so kann
ich mich da jetzt durchklicken und einfach
festlegen, wo was liegt. Ich mache das
jetzt hier so ein bisschen zufällig, damit
es ein bisschen schneller geht. Nochmal so
eine Statue, nochmal Himmel und nochmal
Fels und dann nochmal Fels. Genau. Und so
haben wir einfach aus dem Input Bild neue
Textur generiert. Und was auch sehr nett
ist: Man kann hier - ich resette das mal -
dann kann man hier auch direkt auf "Solve"
klicken und dem Algorithmus praktisch
selber mal beim Arbeiten zugucken. Das
heißt hier in rot seht ihr jetzt praktisch
die Teile, die eliminiert werden beim
Constraints Solving, die also keine
sinnvolle Lösung sind. Ich mache mal die
Geschwindigkeit hier ein bisschen
schneller. Genau, sonst dauert das ewig.
Genau, und in der Variante macht er ja
auch... genau bei diesem Constraints
Solving auch ein bisschen Back Tracking,
also da, wo es halt nicht funktioniert,
macht er auch mal etwas rückgängig oder
so. Genau, jetzt lassen wir den einfach
mal durchlaufen, dann baut er hier selber
noch was schickes und hat ein neues Bild
gebaut. Und wir können ja auch einfach mal
ein paar Mal lösen. Und ihr seht schon, es
kommen immer neue Bilder raus, die immer
in sich schlüssig sind. Weil ich habe ja
die Wahrscheinlichkeiten vom Input Bild,
aber sie sind halt immer anders und es
wird sehr gerne momentan bei, bei der...
ja, beim Game-Development benutzt, um
irgendwie Texturen zu bauen oder zum Teil
auch Level und so was.
Applaus
bleeptrack: Jetzt wäre es nur cool, wenn
ich da wieder rauskomme. Ja, cool. Ah,
deswegen. So.
blinry: Ich möchte euch noch von
Dynamicland erzählen. Das ist ein
Forschungsprojekt, das ich super
inspirierend finde, über zukünftige
Interaktionen mit Computern, wie das
aussehen könnte. Und ich dachte mir, wir
gehen einfach mal auf die Webseite dazu
und scrollen da zusammen ein bisschen
rüber. Die Idee ist im Grunde, dieses
Computing, das man normalerweise in so
einem Gerät hat, da rauszuholen und in den
Raum um einen herum zu tun. Also was man
macht, um in diesem Dynamicland-System
Berechnungen auszuführen ist: Man schreibt
erstmal ein Programm in so einem Lua
Dialekt mit so ein paar Special Features
und druckt sich das aus. Das dann auf so
ein Zettel mit... ihr seht diese lustigen
bunten Marker in den Ecken. Und unter der
Decke dieses Raumes hängt dann zum einen
eine Kamera, die das trackt und zum
anderen ein Projektor, der da irgendwie
Dinge drauf projezieren kann. Also die
Punkte sind, glaube ich, erstmal nur so
ein bisschen eine Krücke und ein
Platzhalter, bis man irgendwie besseres
sinnvolleres Tracking hinkriegt. Das
funktioniert halt ganz stabil und naja,
jedes Stück Papier, das da rumliegt, ist
halt ein eigenes Programm, das irgendwie
Dinge tut. Und das kann die Umgebung
wahrnehmen, weiß, welche anderen Zettel da
sind und man kann das irgendwie ausrichten
und auf etwas anderes zeigen lassen, um zu
sagen: Hier, dies ist ein Argument, das
sollst du irgendwie verändern oder so. Und
es funktioniert... also dieser Lua-Dialekt
funktioniert so, dass man sich halt
bestimmte Sachen... also man kann Aussagen
über die Welt machen und man kann dann
daraus was ableiten und irgendwie sich
etwas wünschen. Zum Beispiel sich
wünschen, dass das Papier, auf das man
gerade zeigt, grün ausgeleuchtet wird oder
sowas. Oder es könnte dann sein, dass ein
anderes Programm sich wünscht, dass das
blau ausgeleuchtet wird. Da gibt's dann
irgendwie einen Konfliktauflösungs-
Mechanismus, dass das nicht ständig hin
und her flattert. Und genau, hier sieht
ihr in dem Beispiel auch gerade mal so
farbige Schnipsel irgendwie auf einen Link
gelegt. Ich glaube, das war so eine Musik-
Sequenzer, wo dann irgendwie eine Linie
drüber läuft und abhängig von der Position
dieser farbigen Dingsies, eine Melodie
spielt. Und das ist halt eine völlig
andere Art und Weise, ein Software-Ding zu
bauen, weil man in einer Gruppe daran
arbeiten kann und halt um einen Tisch
herum steht und kann ziemlich parallel
irgendwie neue Komponenten dazu basteln.
Und ihr könnt halt auch auf einmal mit
Schere und Kleber User Interface bauen. In
der Mitte ist so eine Wählscheibe, die
sich drehen kann und dann auf andere
Sachen zeigt oder sowas. Und dadurch, dass
das auf einmal in der echten Welt ist,
habt ihr halt viel mehr Möglichkeiten, mit
euren Händen Dinge damit zu tun. Und das
finde ich total spannend. Weiß ich nicht,
wenn man irgendetwas, irgendeine Software-
Komponente geschrieben hat, dann speichert
man die halt nicht irgendwo hin, sondern
heftet sie in den Ordner und stellt sie
ins Regal. Das finde ich ulkig. Ist super
ulkig. Und, also, dieses Projekt ist so
angelegt, dass Sie die nächsten Jahre erst
einmal ein bisschen ausprobieren werden,
was man so machen kann mit diesem neuen
dynamischen Medium. Und später dann so ein
bisschen sich erhoffen den Effekt wie bei
Bibliotheken früher, dass die halt
irgendwie so ein Dynamicland in einer
Stadt bauen und dass man das dann
irgendwie forkt und in andere Städte
bringt und das dann irgendwie ein kommunes
Ding ist, wo Leute hingehen können, wenn
sie mal so ein Medium benutzen wollen.
Und, genau. Haben sehr ambitionierte
Pläne, was das angeht. Ich bin gespannt,
was daraus wird. Aber ich finde das total
inspirierend, das so zu sehen. Und von
allem, was ich mitkriege, denke ich immer,
wenn man da mal ein paar Tage drin war,
ist das glaub ich super frustrierend,
irgendwie so kleine Bildschirme zu haben,
wo man dann so durchgucken muss und
irgendwie mit dem Ding zu interagieren,
statt da einfach drin zu sein und
irgendwie mit seinem Körper irgendwie
Dinge machen zu können. Genau. Die Person,
die sich das ausgedacht hat oder
mitgegründet hat ist Bret Victor. Das ist
ein Mensch, der irgendwie auch viele
andere coole Dinge macht. Kann ich
empfehlen, mal über die Homepage zu gucken
- hat Vorträge gehalten zu verschiedenen
Themen, wo es sehr oft darum geht, wie man
besser mit Sachen interagieren könnte. Und
oft hinterlassen seine Vorträge so eine
gewisse Frustration mit dem Status quo,
weil man sieht: Okay, man könnte das
eigentlich viel schöner machen. Man
könnte, während man eine Software
schreibt, auf der anderen Bildschirmhälfte
schon sehen, welche Auswirkungen das hat.
Direkt, statt das irgendwie zu compilen
und dann muss man ne halbe Minute warten
oder sowas und dann kann man das testen.
Und ja, finde ich spannend. Finde ich
spannend, so zu denken. Genau. Wenn euch
ein bisschen mehr interessiert die
Details, wie Dynamicland funktioniert,
gibt es diesen Artikel eines Menschen, der
dort mitforscht. Den kann ich empfehlen,
der wirklich mal ganz ausführlich
beschreibt, wie so ein kleiner Teil in
diesem Dynamicland gebaut wurde, nämlich
so ein Kartensystem, wo man ein großes
Stück Papier hat, als Ausgabemedium im
Wesentlichen und dann kann man da
verschiedene Werkzeuge drauf richten, um
damit etwas zu tun, um... da unten ist so
eine Textbox z.B., da kann man dann
irgendwie was rein tippen mit einer
Tastatur, die auch mit getrackt wird und
dann kann man irgendwie eine bestimmte,
einen bestimmten Ort der Erde anwählen.
Dann kann man Zoom-Linsen drauf richten,
um Vergrößerungen davon zu kriegen. Und
der Artikel beschreibt halt auch, wie die
Sprache dahinter funktioniert und ja, das
find ich spannend.
Applaus
bleeptrack: Dann sind wir schon beim
letzten Thema angekommen. Ich möchte ein
bisschen was zu Farben erzählen und wir
fangen mal an mit dem Thema Synästhesie.
Es gibt Menschen, bei denen verschmelzen
bestimmte Wahrnehmungskanäle. Da gibt's
ganz abgefahrene Sachen. Es gibt Leute,
bei denen verschmilzt zum Beispiel der
Geschmackssinn mit einer Erinnerung an
Wörter, oder so. Das heißt, jemand denkt
an Montag und hat auf einmal das Gefühl
von Erdbeermarmelade im Mund. Und da geht
es jetzt nicht darum, dass man sich selber
irgendwie gemerkt hat, weil man mal so
eine Erfahrung hatte, sondern es ist
wirklich eine andere Art von Kopplung. Und
es gibt Leute, die Musik hören und dabei
das Gefühl haben, von... wie sich
Oberflächen anfassen, eher rau oder
flauschig oder vielleicht auch Farben
sehen oder sowas. Und hallo, ich bin
Synästhet. Bei mir ist das aber eine
ziemlich milde Form und ich hab das mal in
der Schule entdeckt, dass ich das habe.
Bei mir verschmelzen, kann man sagen,
Buchstaben und Zahlen mit Farben. Das
heißt, wenn ich sehr intensiv an was lese
oder was rechne, dann hab ich immer so ein
leichtes Gefühl einer Farbe. Das ist
relativ schwierig zu beschreiben. Ich habe
das damals in der Schule gemerkt, als wir
eine Mathematik Kurzarbeit geschrieben
haben. Man musste etwas ausrechnen und es
kam ein Bruch raus. Und ich wusste zwar,
der Bruch ist richtig, aber ich ärgerte
mich total, dass der voll dumme Farben
hat. Also die passten halt nicht zusammen.
Und da hab ich gemerkt: Das ist glaub ich
nicht so ganz normal. Und hatte dann mal
zufällig später eine Dokumentation über
das Phänomen gesehen und mich darin
praktisch wiedererkannt. Was ich hier
mitgebracht habe ist "Hello 35c3". Und ich
habe mal grob versucht, die Farben auf die
Buchstaben zu malen, die ich da in etwa
fühle, würde ich mal sagen. Und ich dachte
auch immer früher, das würde mir voll bei
Sudoku oder sowas helfen. Das tut es aber
leider nicht. Ich bin ziemlich schlecht.
Aber dafür ärgert mich Minesweeper
besonders, weil die Farben halt nicht
passen. Also was ihr hier praktisch seht -
und das ist jetzt auch eher Zufall, dass
das alles in so einem braun-gelb-blau Ton
ist, also ich habe die Farbpalette, an die
ich so denke oder fühle, die ist durchaus
größer. Ja, das ist jetzt hier eher
Zufall. Also wenn ich das Wort "Hello"
sehe, dann sind die... die Ls für mich
haben so eine Art, man könnte sagen so
himmelblau, sind so sehr leicht, das O ist
auch fast eher so transparent, das kann
man da schlecht zeigen. Und es ist jetzt
auch nicht so, dass ich Text lese und das
wirklich so sehe, sondern es ist
tatsächlich eher wie so ein Gefühl und das
kennt ihr vielleicht, wenn ihr was, keine
Ahnung, was Rotes anguckt - das ist ja
eher eine warme Farbe, da hat man
vielleicht eher so ein wohliges Gefühl,
sag ich jetzt mal. Und wenn ihr was Blaues
anguckt, dann ist das vielleicht eher so
ein kaltes Gefühl. Und es gibt Farben, die
sind eher grell, das macht eher aggressiv,
sag ich mal. Es ist eher so ein Gefühl,
was man in dem Moment hat. Also es ist
jetzt... wie gesagt, es ist halt nicht,
dass ich jetzt tatsächlich sage, ich sehe
schwarzen, eigentlich ist da schwarzer
Text und ich denke, der ist bunt. So ist
das natürlich nicht. Es gibt auch noch
andere witzige Dinge, die mit Farben
passieren können. Es gibt Tetrachromaten.
Die haben nämlich ein Zäpfchen mehr als
die meisten Menschen auf der Netzhaut und
können - das sind meistens Frauen, weil
es, glaube ich, irgendwie über die
Y-Chromosomen vererbt wird. Und die können
den Gelb-Farbraum höher auflösen. Und ich
hab vorhin nochmal nachgeguckt und das
sind wohl angeblich ein Viertel der
Menschen, was ich irgendwie erstaunlich
hoch fand. Ehrlich gesagt, bin mir nicht
ganz sicher, ob das wirklich eine
sinnvolle Zahl ist. Aber das gibt es auf
jeden Fall und nachweisbar... es gibt auch
so Farb-Tests, die man machen kann, wo
halt unterschiedliche Farbpaletten
abgedruckt sind. Und wenn man da mehr
erkennen kann, dann hat man wohl
vermutlich ein Zäpfchen mehr im Auge. Also
es gibt Menschen, die einfach, ja... noch
viel höher Farben auflösen können als die
meisten. Und zum Schluss, es gibt die
sogenannten Impossible Colors. Da gibt es
mehrere Kategorien davon. Und ich habe
eine mitgebracht. Da geht es darum, dass
es bestimmte Mischfarben so von der
Wellenlänge/Frequenz, wie sie eben in
unserem Spektrum stattfindet, nicht
existiert. Und das sind in dem Fall zum
Beispiel Blau und Gelb direkt
nebeneinander. Die kann man so nicht
wahrnehmen. Die existieren so natürlich
nicht und da haben sich Leute Gedanken
gemacht: Was wurde denn aber mit unserem
Gehirn passieren, wenn wir sowas trotzdem
sehen könnten und haben sich überlegt: Ja
gut, dann mischen wir das halt einfach mal
durch schielen und das kommt ja dann
trotzdem beide... der Input von beiden
Sachen kommt ja dann trotzdem im Gehirn an
und mal schauen was da passiert. Und ich
würde euch mal bitten, also wenn ihr das
möchte, das mal zu probieren. Also das
Ziel ist, zu schielen und die beiden Xe
übereinander zu haben, sodass praktisch...
ihr würdet dann praktisch links ein blaues
Quadrat sehen, in der Mitte ein gemischtes
Quadrat und rechts ein gelbes. Es ist ein
bisschen schwierig, tatsächlich. Klappt
das bei jemanden? Ja? Kannst du
beschreiben, wie das aussieht, wenn du das
übereinander legst durch Schielen? Die
Antwort war: Es flackert in der Mitte. Das
ist tatsächlich auch, was bei mir
passiert. Ich versuche es mal zu
beschreiben. Es ist nicht, dass sich die
Farben tatsächlich so richtig mischen,
sondern man hat einen... irgendwie so
einen Farb-Gradienten. Also es verläuft
schon so von blau nach gelb, fast
ruckartig, aber die Grenze zwischen Blau
und Gelb, die wabert so komisch hin und
her. Die ist nicht statisch irgendwo,
sondern es sieht so ein bisschen seltsam
aus, wenn man das macht. Und wir können
das nochmal mit zwei anderen Farben
probieren, mit Rot und Grün. Wenn es bei
jemand klappt, wäre das voll nett, wenn er
sich melden würde. Du, zum Beispiel.
Kannst du es beschreiben, wie es bei dir
aussieht?
unverständlich
bleeptrack: Kannst du es ein bisschen
lauter sagen? Ein sehr leuchtend...
pardon, ein sehr leuchtendes Rot. Okay,
interessant, das war bei mir ein bisschen
anders. Funktioniert das bei noch jemanden
mit schielen? Bei dir? Wie sieht es bei
dir aus?
Person: Ich sehe wieder changierende Töne,
allerdings sind die verschoben gegenüber
den Außen, also mein Rot ist gelblicher,
mein Grün ist brauner als das Außen-Grün.
bleeptrack: Ja, ist witzig. Ist ein
bisschen unterschiedlich, offensichtlich.
Bei mir ist es eher so, also ich hab ein
ähnliches Phänomen wie bei dir, dass es so
ein bisschen, so eine Farbverschiebung
gibt. Aber mir ist das, als krisselt das
ganz arg. Also, als hätte man bei einem
Foto eine ganz hohe ISO, als würde das Rot
immer permanent gegen das Grün kämpfen.
Also es krisselt ganz arg. Also probiert
das gerne mal aus. Und ich kann da auch
generell sehr den Wiki... gerade den
englischen Wikipedia-Artikel über
Impossible Colors empfehlen, wo es noch
andere Beispiele für solche Phänomene
gibt. Und damit sind wir für dieses Jahr
mit Operation Mindfuck leider schon am
Ende. Wenn ihr über irgendetwas von diesen
Themen oder irgendetwas, was vielleicht
auch in eine ähnliche Richtung geht, mit
uns quatschen wollt, dann macht das gerne.
Ihr findet uns online auf bleeptrack.de
oder morr.cc oder auf Twitter und auch auf
Mastodon. Und die Slides findet ihr auch
unten auf dem Link. Und ja, wir beide
haben uns sehr gefreut, dass ihr so
zahlreich gekommen seid. Macht's gut.
Applaus
Herald: Ja, danke euch beiden. Vielleicht
haben wir ja direkt noch Fragen, die wir
beantworten können. Weiß ich nicht, hat
jemand von euch eine Frage an unsere
beiden Speaker? Scheint nicht so. Dann
sagen wir nochmal Danke an bleeptrack und
blinry und dann war das leider schon unser
ganzes Programm für heute in der Wikidata
WG.
Bis morgen dann.
Applaus
Musik
Untertitel erstellt von c3subtitles.de
im Jahr 2021. Mach mit und hilf uns!