UXD Methoden in Sounddesign Projekten

Das Buch „Wie User Experience in der Praxis wirklich funktioniert“ von Markus Pirker, Mathias Placho, Andreas Riedmüller und Stefan Rössler dient als guter Einstieg, um sich mit der Anwendung von User Experience Design Methoden vertraut zu machen. Der aktive Schreibstil in der leicht verständlichen Sprachen bot mir eine angenehme Leseatmosphäre, wodurch auch die angesprochenen Inhalte gut unterstützt werden. Mir gefällt, dass die UXD Methode eher als Denkweise und Lebensphilosophie beschrieben wird.


Mit folgenden „Fehlern“ konnte ich mich besonders identifizieren:

  • mich im Detail verlieren
  • Angst vorm Scheitern
  • zu ängstlich zum Preisgeben des momentanen Projektstandes
  • Schwer von Ideen loslassen können
  • die Wirkung des Projektes ist komplett anders als erwartet

Wie kann ich von dem Wissen als Sounddesignerin profitieren?

Auch wenn es angenehm ist, darüber zu lesen, dass diese Probleme sehr verbreitet sind, so möchte ich trotzdem daran arbeiten sie zumindest in meinem eigenen Arbeitsprozess zu minimieren. Dafür würde ich in den nächsten Sounddesign Projekten folgende Schritte und Erkenntnisse noch bewusster miteinbeziehen:

  • Erstellung vieler “Sound-Skizzen“ bevor man sich zu sehr für eine Richtung entscheidet: das heißt gleich in der DAW viele kleine Dinge ausprobieren, dabei daran denken, dass es wirklich nur Ideen bleiben sollen, die bald wieder verworfen werden
  • Ein “Minimal Viable Souddesign“ kreieren und gleich jemandem senden, um zu testen, ob es die gewünschte Wirkung hat
  • wenn ein “Problem” auftritt, wenig verändern und gleich wieder testen, ob es behoben wurde
  • mir meiner möglichen Kritiktaubheit bewusst sein und davon ausgehen, dass sie extremer wird, je länger ich an einem Projekt sitze
  • davon ausgehen, dass die Projekte noch mehr Zeit in Anspruch nehmen als ich erwarte (das heißt ich brauche eigentlich immer eine Pufferzeit, die ich mir dafür freihalte)

Wie kann ich das Wissen in meine Project Work einbinden?

  • mein Problem überprüfen, ob es Wert ist, gelöst zu werden
  • noch mehr Feedback-Schleifen machen
  • das Große und Ganze im Auge behalten
  • alle Fehler als Chance zum Lernen, egal wieviele man macht
  • immer auf der Hut sein, dass die Idee wieder verworfen werden darf

Aufnahmetechniken im Vergleich

Um Erfahrung mit unterschiedlichen Aufnahmetechniken zu sammeln haben sich vier von uns Sounddesignern im Park getroffen, um mit unserem kollektiven Equipment ein passendes Setup aufzubauen. Dadurch war es möglich die Ereignisse auf vier verschiedene Weisen zeitgleich aufzunehmen. Wir experimentierten relativ frei mit den unterschiedlichsten Klängen, im Hintergrund hört man natürlich immer die Atmosphäre des sonnigen Donnerstag Nachmittags im Grazer Stadtpark. Inwiefern sich die Aufnahmen voneinander unterscheiden und welche Klänge mit welcher Technik am besten aufgezeichnet wurden, beschreibe ich im folgenden Artikel.

Mikrofon Setup

Wir haben vier Aufnahme-Setups im Stadtpark vor der Mauer zur Untersuchungshaft-Anlage der Polizei Graz aufgebaut: XY, AB, ORTF und MS. Die Mikrofone für die ORTF Aufnahme waren etwas zu weit voneinander getrennt montiert, daher ist es als ORTF Aufnahme für den Vergleich unbrauchbar, weil der Abstand der Mikrofonkapseln genau 17cm sein muss, um von einer ORTF Aufnahme sprechen zu können.

Windschutz
Interessant war auch, dass wir unterschiedlichen Windschutz im Einsatz hatten. Vor allem bei den Sennheiser Mikrofonen waren wir erst skeptisch, weil wir auf dem linken ganz provisorisch nur einen Jutebeutel banden und auf die rechte Seite eine Katze. Die Aufnahmen der beiden Mikrofone klingen allerdings gar nicht wirklich unterschiedlich in Bezug auf Windprobleme, weil das ME62 als sehr unempfindlich gilt.

Aufnahmen

Das von mir analysierte Soundfile läuft folgendermaßen ab: Thomas sagt „Ich tu’ einmal klatschen, damit du’s dann gut synchronisieren kannst.“, dann hört man das Klatscher, dann hauptsächlich die entspannte Atmosphäre im Park: Gelächter und Gespräche, Vögel, einen immer wieder auf den Boden aufprallenden Ball und die Geräusche einer Wasserflasche mit der ich knapp vor den Mikrofonen herumspiele. Ab der Mitte der Aufnahme hört man wieder ein Klatschen und anschließend Felix, der auf einem Glockenspiel herumschlägt, wobei er immer wieder laut zu lachen beginnt. Während er spielt, läuft er im Kreis um die Mikrofone herum.

MidSide = Mikrofon mit Kugel- bis Hypernieren-Charakteristik für Mono-/Mittensignal und ein Mikrofon mit einer Acht-Charakteristik für Stereo-/Seitensignal;
mathematisch gleichzusetzen mit der XY-Aufnahmetechnik; Achsenwinkel bei 90°; mathematisch kann durch eine Summen- und Differenzbildung mit einer Matrixschaltung die Linken und Rechten Kanäle gewonnen werden; kann auch mit Mischpult dekodiert werden; 

Vorteile: Hohe Flexibilität –> Veränderung der Basisbreite im Nachhinein; keine Kammfiltereffekte durch Phasenauslöschung, keine Klangverfärbung bei Monowiedergabe;
Nachteile: der Raum klingt weniger offen

Anwendung: Die Aufnahme mit dem MS ist meiner Meinung sehr schön, weil sie die Klangquellen sehr klar aufnimmt und die Höhen gut zur Geltung kommen. Allerdings sind mir diese zum Beispiel beim Glockenspiel etwas zu extrem.

ORTF = Mischform aus AB und XY („gesunder” Kompromiss), hat aber festgelegte Parameter bezüglich Richtcharakterisitk, Abstand und Winkel, gehört zur Äquivalenzstereofonie; 

AB = Mikrofone müssen sich in bestimmten Abstand zueinander befinden, Aufzeichnung eines Laufzeitunterschiedes, Mikrofonabstand ist besonders wichtig, meist Kugelmikrofone mit linearem Frequenzband und gut aufnahmefähig für tiefe Frequenzen

Vorteile: hohes klangliches Volumen, funktioniert gut für große Klangkörper und gut klingenden Räumen, 

Nachteile: Ortungsschärfe eher schlecht; stehen Mikrofone in großem Abstand zueinander, kann sich Phasenlage ständig verändern, dies ist vor allem beim Frequenzen unter 700Hz fatal, weil diese dadurch schwerer lokalisiert werden können

Anwendung: Auch in der Anwendung bestätigt sich vor allem die etwas schwerere Ortbarkeit der Klangobjekte sowie die gute Aufnahmefähigkeit der tieferen Frequenzen: Das eigentlich weit entferntes Brummen der Autos der Glacisstraße ist dominant im Gegensatz zu den anderen Aufnahmen. Auch die Klatscher und die Stimmen von Thomas und Felix klingen im Vergleich eher dumpf, sowie das Glockenspiel weniger klar und hell. Nichtsdestotrotz klingt die Aufnahme sehr voll. Für meinen Geschmack klingen die Geräusche etwas zu undefiniert, weil sie so extrem miteinander verschmelzen.

XY = zwei Mikrofone gleicher Bauart, etwas gegeneinander verdreht;
oft werden Kleinmembran-Nierenmikrofone verwendet, wie in unserem Fall mit einem Winkel von 90°; Öffnungswinkel der beiden Schallwandler ist entscheidend für die breite der Stereobasis der Aufnahme

Vorteil: monokompatibel, hohe Ortungsschärfe der Klangquellen
Nachteil: räumliche Tiefe kann missen

Anwendung: Auch in der Tonaufnahme merkt man, dass sich die Klangquellen sehr gut orten lassen. Beim Klatscher kommen vor allem die Mitten gut hervor.
Die Stimme der Frau im Hintergrund klingt sehr nahe, obwohl sie eigentlich sehr weit weg war. Die feinen Klänge des Glockenspieles kommen sehr gut zur Geltung.

Fazit

Die Aufnahmetechnik hängt wohl ganz stark vom Kontext ab. Für das Festhalten unserer Klangexperimente im Park hat mir persönlich die XY Aufnahme am besten gefallen, weil sie die Klänge schön definiert wiedergibt, sowie diese gut ortbar sind und Vorder- und Hintergrund klar voneinander getrennt sind.

Quellen:
https://www.fairaudio.de/hintergrund/mikrofon-und-mikrofonierung-recording-artikel-1-dwt/mikrofon-und-mikrofonierung-recording-artikel-4-dwt/
http://www.sengpielaudio.com/BeimORTF-System17-5EinIrrtum.pdf
https://de.wikipedia.org/wiki/Äquivalenzstereofonie
https://de.wikipedia.org/wiki/ORTF-Stereosystem
https://de.wikipedia.org/wiki/XY-Stereosystem
https://www.klangfarbe.com/artikel.php?a=sennheiser-me-62-richt-mikrofon-modul-kugel-t17589
https://schoeps.de/wissen/knowledge-base/aufnahmetechniken/ms-technik.html

Klänge zeichnen, Bilder in Songs verstecken

Ein kleiner Einblick in die Software Metasynth

Ich habe mir das Programm Metasynth etwas genau angeschaut und möchte hier einen kleinen Einblick in meine Recherche geben:
Der Hauptbeweggrund für diese Recherche ist mein Interesse an der Beziehung zwischen visueller und auditiver Gestaltung. Nachdem ich schon seit meiner Kindheit zeichne und musikalisch tätig bin, hat mich die in Metasynth implementierte Möglichkeit Klängen zu malen sehr neugierig gemacht. Erst war ich etwas skeptisch, da einem beim Aufrufen der Website ein eher altomodisches Erscheinungsbild begrüßt, worauf ich mir die Frage stellte, ob das Programm wirklich soviel kann wie in Rezensionen betont wird. Von dieser oberflächlichen Annahme verabschiedete ich mich schnell wieder, denn je mehr ich mich dann jedoch mit dem Programm beschäftigte, umso spannender wurde es für mich: Die abwechslungsreichen und für mich intuitiven Bearbeitungsmöglichkeiten wirkten immer vielversprechender, und Verweise darauf, dass Künstler wie Aphex Twin, zum Beispiel in seinem Song » ΔMi⁻¹ = −αΣn=1NDi[n][Σj∈C[i]Fji[n − 1] + Fexti[n⁻¹]]« mit dem Programm arbeiteten, machten mich noch neugieriger.

Anwendungsbeispiel: ΔMi⁻¹ = −αΣn=1NDi[n][Σj∈C[i]Fji[n − 1] + Fexti[n⁻¹]] von Aphex Twin

Ich fragte mich anfangs vor allem auch, ob sich die beiden Sinne »Sehen« und »Hören« in diesem Fall positiv oder negativ beeinflussen. Nur weil man ein schönes Bild malt, heißt es ja nicht, dass einem auch der Klang gefällt, genauso umgekehrt. – Das Programm kann eigentlich noch viel mehr, hier ein Überblick:

Metasynth ist ein Studio für OS X für elektronische Musik und Sounddesign. Es bietet verschiedene Möglichkeiten Klänge zu kreieren und zu verändern, unter anderem mit der Einbindung von Bilddaten. Die neueste Version von Metasynth kostet $249, eine Demoversion gibt es für alle Interessierten. Das einzige, was man in dieser Version nicht kann, ist es die Projekte zu speichern. Zum Downloaden dieser Version muss man Namen, Email und Telefonnummer angeben.

Das Programm gewann zahlreiche Preis wie zum Beispiel den Electronic Musician 2006 Editor’s Choice Award for best sound-design software. Es fand großen Einsatz in der Produktion der Soundeffekte im Film Matrix aus dem Jahr 1999. Außerdem haben Künstler wie Junkie XL, BT, Ian Boddy und Aphex Twin Musikstücke mithilfe des Programmes erschaffen. Aphex Twin hat dabei mit einer im Spektrogramm versteckten Abbildung seines Gesichts für Aufsehen erregt:

Hey, Who’s That Face in My Song?

»Hey, Who’s That Face in My Song?« – vollständiger Artikel hier.

Aufbau und Funktionen

Das Interface des Programms ist in zwei Bereiche eingeteilt, dem Sample Editor für Tonspuren, in dem übliche Bearbeitungen wie dem Schneiden oder Ein- und Ausblenden von Samples vorgenommen werden können, und dem XEditor, in welchem man unterschiedliche Möglichkeiten zur Klangsynthese oder Klangbearbeitung hat. Es gibt folgende Räume: Effect Room, Image Synth, Image Filter Room, Spectrum Synth, Sequencer Room und Montage Room.

Effect Room
Im Effect Room können eigene Samples in das Programm geladen und durch eine Auswahl von unterschiedlichsten Effekten bearbeitet: Flanger, Kompressoren oder Pitch- und Time Effekte.

Image Synth
Der Image Synth erzeugt Töne durch eingebaute Tongeneratoren, die eine Fläche von Pixeln analysieren. Man kann Bilder in den Editor laden, dieses bearbeiten, sowie neue Formen malen. Dementsprechend wie das Bild verändert wird, verändert sich auch der Klang. Auf der Zeichenfläche sind auf der x-Achse die Zeit und auf der y-Achse die Tonhöhen angeordnet. Die Bereiche der beiden Achsen können je nach Bedarf angepasst werden. Die Bearbeitungsmöglichkeiten sind denen von Adobe Photoshop ähnlich, so gibt es zum Beispiel einen Pinsel oder Wischfinger. Weiters kann man Filter auf die Zeichenfläche legen, mithilfe gezielte Klangeigenschaften verändert werden können, zum Beispiel jeweils einen Filter für Amplitude und Panning.

Image Filter Room
Der Image Filter Room funktioniert in seiner Bedienung nach dem gleichen Prinzip wie der Image Synth. Die Zeichenfläche im XEditor wird zu einem Equalizer. Das bedeutet die x-Achse steht für das Frequenzspektrum und die y-Achse für die Amplitude zu einem bestimmten Zeitpunkt im Sample Editor.

Spectrum Synth
Beim Spectrum Synth wird das sich im Sample Editor befindende Soundfile analysiert und im XEditor in Form eines Spektrogrammes wiedergegeben. Das bedeutet, dass in diesem Raum auf der x-Achse die Zeit und auf der y-Achse die Frequenz des Signals angeführt ist. Diese Abbildung kann wie bei den anderen Räumen durch visuelle Gestaltungswerkzeuge bearbeitet werden.

Sequencer Room
So wie bei üblichen Sequenzern aus der Musikproduktion kann man Im Sequencer Room musikalische Phrasen und rhythmischen Loops erzeugen.

Montage Room
Der Montage Room gleicht einer DAW mit 24 Spuren, die in den anderen Räumen erstellten Klänge können zusammengefügt, abgemischt mit bereits existierenden oder neu aufgenommen Audiodateien kombiniert werden.

  • Eine noch detailliertere Beschreibung und Anwendungsbeispiele der Räume finden sich hier.
  • Metasynth Roomtour

Fazit

Die Frage, ob sich der visuelle und auditive Sinnesorgane positiv oder negativ beeinflussen, hat sich für mich nach meiner Recherche als irrelevant entpuppt. Ich denke bei Metasynth geht es viel mehr darum, diese Sinne miteinander zu verknüpfen, um eine spannende Klangkomposition zu erstellen und sie je nach Workflow und Stimmung zu wechseln. Mit den visuellen Gestaltungswerkzeugen können dabei auf spielerisch kreative Weise neue spannende Klänge erzeugt werden, die auditiven konventionellen Tools helfen zur Orientierung und Strukturierung des Klanges.

Verwandte Programme:
Pixelsynth von Olivia Jack
Virtual ANS

Weiteres Anwendungsbeispiel: Kunst von Thomas Poersch

Quellen:
http://uisoftware.com/MetaSynth/
https://music.tutsplus.com/tutorials/an-introduction-to-metasynth–audio-2425
https://en.wikipedia.org/wiki/MetaSynth

Das readymade in der Musik

Der Artikel Reanimating the Readymade von Peter Bussigel, Stephen Moore und Scott Smallwood stellt sechs Beispiele aus der experimentellen Musik vor, die der Idee des readymade, einem gefundenen Gegenstand, der zum Kunstwerk deklariert wird, entsprechen. Die Kunstprojekte verbindet, dass das klangliche Potenzial von alltäglichen Gegenständen zur Geltung gebracht wird, so werden sie zu Musikinstrumenten umfunktionieren oder technisch und/oder poetisch zum Leben erweckt. Drei dieser Beispiele stammen aus der Vergangenheit und drei davon sind zeitgenössisch. Bei den historischen Werken handelt es sich um John Cage’s Water Walk, Carola Schneeman’s Noise Bodies und David Tudor’s Rainforest. Die gegenwärtigen Projekte Losperus,TRaNsMOGRiFiER und Chorus for Untrained Operator wurden von den drei Autoren des Artikels mit erschaffen.

Ich finde der Artikel ist eine schöne Einführung in das Thema für Menschen, die sich wenig damit befasst haben und erweitert den Horizont für Menschen, die sich schon etwas besser auskennen, weil die Vielfalt an Beispielen des aufgegriffenen Konzepts des readymade in der experimentellen Musik einen guten Überblick bietet. Allerdings fehlen vielleicht für Menschen, die schon sehr mit dem Thema vertraut sind, eine noch konkretere Beschreibung der Projektumsetzung, weil sie vielleicht schon alle Beispiele kennen, und nach Inspiration für die Implementierung ihrer eigenen Projekte suchen.


Außerdem finde ich es immer sehr spannend, wenn konkrete Assoziationen zwischen darstellender Kunst und Musik hergestellt werden, weil sie helfen die Konzepte der einzelnen Projekte besser zu verstehen, wenn sie im Vergleich präsentiert werden. So setzt sich der vierte Punkt READYMADE RELATIONSHIPS nur mit dem gegenüberstellen der zeitgenössischen Projekte und beschreibt ihre Gemeinsamkeiten und Unterschiede.


Textlich ist der Artikel zwar gut geschrieben, ein breites Vokabular in wissenschaftlichem Schreibstil. Allerdings war es für mich persönlich etwas anstrengend, weil so viele Sätze im Passiv verfasst waren und ich doch sehr viele Wörter nachschlagen musste.

Alles in allem ist dies ein empfehlenswerter Artikel für all jene, die sich mit experimenteller Kunst, Musik auseinandersetzten wollen oder die viel Spaß am Tüftelt haben. 

Quelle: https://www.nime.org/proceedings/2019/nime2019_paper027.pdf

Merry Mickey Mousing – Analyse einer Silly Symphony


Walt Disney’s Silly Symphony Santa’s Workshop

Die Walt Disney Silly Symphony „Santa’s Workshop“ mit Regie von Wilfred Jackson und Musik von Frank Churchill erschien im Jahr 1932 und wurde im Jahr 2006 überarbeitet.

Das Titelbild des Kurzfilmes wird von einem weihnachtlichen Männergesang unterstützt und verweilt ca. 20 Sekunden. Die Geschichte beginnt mit einer Szene, die eine Schar von Weihnachtselfen bei ihrer Arbeit zeigt. Harmonisch bewegen sich die Elfen beim Kehren, Putzen, Waschen der Rentiere und Heu Schaufeln im Einklang zur Musik, die an einen Polka erinnert.Nach fast einer Minute wird die Musik etwas leiser, und man sieht den Weihnachtsmann von unzähligen Briefen umringt. Es folgt eine kurze Phase, wo Bild und Musik nicht genau aufeinander abgestimmt sind, die Musik unterstreicht mehr die Stimmung der Erzählung, während er den ersten Brief vorliest. Der Elf, der neben ihm vor einem großen Buch sitzt, antwortet rhythmisch in einem Reim, auch seine Bewegungen bilden sich musikalisch ab. So werden auch in dieser Szene bestimmte Handlungen musikalisch unterstrichen. Der nächste Brief, den er aufhebt, (die Bewegung des Bücken und Aufheben ist vertont), ist sehr lang und entfaltet sich wie eine Zieharmonika. Die Musik begleitet diese Bewegung mit einem Glissando, also einer gleitenden Veränderung der Tonhöhe von oben nach unten. Während er den Brief vorliest, rückt die Musik wieder in den Hintergrund, sie wird leiser, damit man den Weihnachtsmann gut versteht. Auch sein Sprechtempo passt rhythmisch zur Musik. Nach einem kurzen Dialog mit dem Elfen, endet der letzte Satz des Weihnachtsmannes mit: „…I’ll just add a cake of soap.“ Dieser Satz wird von einem anderen kleinen Elfen übernommen, der plötzlich im Raum steht und im Einklang zur Musik aus dem Zimmer hüpft. Die Melodie in dem er den Satz wiederholt leitet zum nächsten musikalischen Thema über. Die Musik dient hier als fließender Übergang zur nächsten Szene: Man sieht wieder das Innere der Fabrikshalle und die Elfen, die das Spielzeug für die Kinder basteln. Dabei fällt auf, dass so manche Musikinstrumente zur Erzeugung von Soundeffekten verwendet werden wie zum Beispiel einer schriller Posaune für die Säge, die die Pflöcke für die Holzpferde zuschneidet oder das Runterrutschen einer Puppe, die anschließend dem Weihnachtsmann in die Arme fällt, mit einer Lotusflöte.
Etwas später stiftet ein Modellflugzeug Verwirrung, leicht asynchron zur Musik fliegt es durch die Luft und kracht in ein Regal wodurch viele der Spielsachen, die sich darauf befinden, auf den Boden fallen. Darunter befindet sich ein Xylophon mit einem Spieler, welcher den March Militärs von Schubert anstimmt und in die Inszenierung einer Spielzeugblaskapelle übergeht. Natürlich wird der Marsch nicht in seiner Originalfassung gespielt, sondern vermischt sich musikalisch immer wieder mit kulturellen Bezügen auf das vorbeilaufenden Spielzeug, zum Beispiel die chinesischen Figuren.
Das Ende der Geschichte wird vom Sologesang des Weihnachtsmannes angestimmt und der theatralischen Begleitung von den Elfen untermalt, und schließt mit dem rhymtmischen Klingeln und fliegendem Galopp der Rentiere ab, die sich, den Weihnachtsmann im Schlitten ziehend, in Richtung Horizont bewegen.

Eine Analyse von
Elisabeth Hacker

Weitere Videos zum Thema Weihnachten und Mickey Mousing


Walt Disney’s Silly Symphony

Walt Disney’s Silly Symphony The Night Before Christmas

Gaming: Mickey Mousing in Rayman Legends

Der fünfte Teil der Rayman-Hauptreihe Rayman Legends von Ubisoft, erschien im Jahr 2013 und ist für diverse Spielkonsolen verfügbar. Es ist sehr beliebt für seine sogenannten Musiklevels, wofür es unter anderem zahlreiche positive Rezensionen gibt. Die Musiklevels sind Speziallevels, die durch das vollkommene Durchspielen aller Levels einer Welt freigeschalten werden. Das besondere an diesen Levels ist, dass der Spieler im Takt zur Musik seine Knöpfe drücken muss, um ein Musiklevel positiv abzuschließen. Wie beim Tanz oder eben auch beim Micky Mousing müssen die Bewegungen des Charakters auf die Musik abgestimmt werden.

Es gibt insgesamt 12 Musiklevels. Christophe Hérald, der Komponist ließ dabei die unterschiedlichsten Musikstile einfließen. Jeweils zwei Level widmen sich einem musikalischen Thema, die zweite Version ist dabei immer musikalisch, sowie visuell mehr abstrahiert, wodurch man sich mehr auf das Rhythmusgefühl verlassen muss. Es sei sogar möglich das Spiel blind zu spielen. Diese Levels sind ein wundervolles Beispiel für die spielerische intensive Auseinandersetzung mit Musikstücken.

Musik: Interpret – Titel
Castle Rock: Ram Jam – Black Betty
Orchestral Chaos: Christophe Hérald – Orchestral Chaos
Mariachi Madness: Survivor – Eye of the Tiger
Gloo Gloo: The 5.6.78’s – Woo Hoo (aus Kill Bill)
Dragon Slayer: Trust – Antisocial
Grannie World Tour: Christophe Hérald (Rayman Origin Theme Land of the Livid Dead)

Quellen
+ https://medium.com/game-audio-lookout/deconstructing-a-musical-level-in-rayman-legends-985e9f6c2f4c [Stand 16.12.2019]
+ https://www.gamasutra.com/blogs/StanislavCostiuc/20160420/270833/Secrets_Design_in_Rayman_Legends.php [Stand 16.12.2019]
+ https://www.mcgame.com/de/i/rayman-legends-blind-durchs-level/ [Stand 16.12.2019]
+ https://de.wikipedia.org/wiki/Rayman_Legends#Rezeption [Stand 16.12.2019]

Mickey Mousing vs. Underscoring

Man spricht von Underscoring, wenn die Emotionen eines Charakters in der Musik ausgedrückt werden, was heutzutage — im Gegensatz zu früher, wo Regisseure nicht erwarteten, dass Underscore angenommen wird — einen Großteil der Erzählung in der Musik einnimmt. Es wirkt oft besser Gefühle mit musikalischen Elementen auszudrücken, anstatt diese im Film aufwendig in die Dialoge einzuflechten. (Vgl. Beauchamp 2005, S.45)

Underscoring bezieht sich also nicht rein auf die direkte Bewegung in einer Szene so wie Mickey Mousing in seiner reinen Form. Natürlich existieren viele Mischformen.

Quelle: Beauchamp, Designing Sound for Animation. Focal Press, 2005

Exkurs: EYA – Path Out

Der Contest des European Youth Award am 28. November 2019 hilft Projekte von jungen engagierten Menschen zu fördern. Es bringt sicher viel, sich für sein Projekt in diesem Rahmen die Glaubwürdigkeit und weiteres Feedback von erfahrenen Menschen einzuholen.

Realistisch gesehen, werde ich im nächsten Jahr nicht an diesem Contest teilnehmen. Ich arbeite im Moment weder an einem passenden Projekt noch habe ich Kapazität an einem teilzunehmen.

Das Projekt das mir am besten gefallen hat, war das Spiel „Path Out“ von Zsombor Svab, Abdullah Al-Karam und Georg Hobmeier. Ich finde die Idee, ein so ernstes und heikles Thema wie den Syrienkonflikt in ein Spiel zu verpacken sehr sinnvoll. Indem man beim Spielen in die Rolle von Abdullah versetzt wird und seine Geschichte durchmachen muss, entsteht sicher mehr Verständnis für den harten Weg, den Flüchtlinge hinter sich bringen mussten. Ich würde es gerne selbst spielen.

Mickey Mousing

Mickey Mousing ist ein Stilmittel für Film und Animation. Dabei wird die Musik genau auf die Bewegungen im Bild abgestimmt. Es hilft, die Aufmerksamkeit des Publikums zu lenken und die Bewegungen in den Bildern hervorzuheben, wodurch diese leichter wahrgenommen werden können. Die Ursprünge und auch die Namensgebung stammen aus dem 20.Jahrhundert in der klassischen Animation von Walt Disney.