100 Jahre Elektronische Musik

eine multimediale Lernumgebung

08. Digitalisierung - DX 7 und MIDI

Die Digitalisierung hat die Elektronische Musik auf mehreren Kanälen erreicht: einerseits wurde die Klangerzeugung selbst digitalisiert mit dem Ergebnis neuartiger Klänge, zum Beispiel durch FM-Modulation, andererseits wurde die Klangsteuerung digitalisiert, am eindrücklichsten durch das Protokoll MIDI (musical instrument digital interface). FM-Modulation ist zwar auch analog möglich (zum Beispiel beim Vibrato), führt aber erst bei digitaler Ausführung zu stabilen und aparten Klängen. MIDI wiederum ist die konsequente Fortsetzung der Digitalisierung des unendlichen Tonhöhenraums durch die 12-tönig temperierte Skala. Obgleich also die Digitalisierung nur etwas fortsetzt, was bereits vorhanden war, brachte sie doch eine "Revolution": der digitale Klang des Yamaha-Synthesizers DX 7 war der angesagte Pop-Sound der 1980er und MIDI war die Basis für Musikproduktionen mittels Computern zu Zeiten, da dieselben noch relativ langsam arbeiteten. Komponiert wurden am Computer nicht Klänge (also Samples), sondern MIDI-Zahlen, die auf standardisierte Weise in Klänge (General MIDI-Norm) umgesetzt wurden.

Vorgehen in einer 90-Minuten-Einheit: Vortrag zum Prinzip des digitalen FM-Sounds und den Möglichkeiten des Microtunings (30 Minuten), Partnerarbeit zur Klangerkundung (20 Minuten), Vortrag zu MIDI (10 Minuten), Kleingruppenarbeit zum Algorithmischen Komponieren (30 Minuten).


Die digitale Klangerzeugung

Der Vortrag geht anhand der PowerpointPrässentation Ppt8 vor, Blatt 8 wird ergänzend hinzugezogen..

DX 7 Besonderheiten:
- Alle Klänge werden „algorithmisch“ aus der digitalen Interaktion von Sinuskurven aufgebaut.
- Der Kern dieser Interaktion ist die Frequenzmodulation („FM-Synthese“).
- Es können synthetisch Klänge mit nicht-harmonischem Obertonspektrum erzeugt werden.
- Verzicht auf Filter und die Klangquellen „Rechteckschwingung“ und „Rauschen“ – das Kernstück eines jeden analogen Synthesizers.

Wie klingt ein Analog- und wie ein Digital-Sound? Wie funktioniert die digitale FM-Synthese?

Youtube-Link

Wie entsteht der typische digitale DX 7-Sound?

Dies Video wurde zu einem Zeitpunkt hergestellt und im Seminar vorgeführt als in Minneapolis der Afroamerikaner George Floyd von der Polizei erwürgt worden ist und darauf hin die USA von einer breiten Protestwelle "Black Lives Matter" erfasst wurde. Michael Jackson hat mit "Bad" einen nachhaltigen Beitrag zur Auseinandersetzung mit der Diskriminierung Schwarzer in den USA produziert.

Beispiel von Microtuning des digitalen DX 7: eine Obertonreihe von den Keyboardtasten gespielt.

Obertonreihe

Youtube-Link

Erkundungen von DX 7-Sounds

Arbeitsblatt 8: Suchen Sie jeweils maximal 6 Klänge heraus, die Sie als „sind interessant“, „gefallen mir“ und „könnte ich in einer eigenen Produktion/Komposition verwenden“. Falls möglich, listen Sie die Klänge als Prioritätenliste auf.

dieser DX7-Groove besteht ausschließlich aus einigen DX-7-Sounds der folgenden Tabelle...

Bass

Bass-Slap

Bass-Wah

Bass-Overtone

Bells

Coming

Dissonanz

Gamelan

Gong

Gong-Wah

Hammer

Holz-Pluck

Jammern

Obertonklopfen

Oberton-Tief

Rhodes

Rhodes-Reso

Vib-Effekt

Vögel

Vögel-Tonleiter


MIDI (Musical Instrument Digital Interface)

Was MIDI leistet:
Keyboards und Synthesizer miteinander verbinden können.
Spielaktionen auf einen Keyboard digital ohne Audiodatei aufzeichnen.
Größere Musikstücke mit geringen Datenmengen aufzeichnen.
Klangprogramme universell aufzeichnen und gegenseitig austauschen.
Trennung von Tastatur und „Soundmodul“: viele Sounds von einer Tastatur aus spielen.

Demo-Video zur internen Datenstruktur von MIDI: Youtube-Link.

Zum Beispiel: Algorithmisches Komponieren (ein genuines Terrain der Elektronischen Musik, vor allem gefördert durch das vom IRCAM entwickelte Programm "MAX"). Zunächst ein Beispiel, bei dem der Bass-Groove von "Bad" durch Veränderung, der diesen Groove erzeugenden MIDI-Zahlen "gemorpht" wird:

Youtube-Link

Kleingruppe 1: Sehen Sie sich das Video "Algo-Demo.mp4 aus der 2. Stunde nochmals an und bearbeiten Sie folgende Fragen:

Welche Möglichkeiten von MIDI werden hier ausgenutzt?
Der Komponist Xenakis, bekannt für seine „algorithmische elektronische Musik“, sagte: „Diese Musik ist streng deterministisch und zugleich voller unvorhersehbarer Zufälle“.
 Stellen Sie sich vor, ein/e Musiker/in gibt mit diesem Programm ein Konzert, inwiefern ist für ihn/sie der Ablauf vorhersehbar, inwiefern zufällig?
Kann er/sie gegensteuern? Ist das kreativ?
Was kommt bei den Hörer/innen an?

Kleingruppe 2: Sie sollen verschiedene Midifiles (MIDI-Dateien, die einen kompletten Song reprässentieren) des Titels „Oxygene IV“ von Jean Michel Jarre miteinander und mit dem Original vergleichen.
Inwiefern sind die Midifiles unterschiedlich?
Wo ist eine Annäherung ans Original gut, wo schlecht?

Die zugehörigen Midifiles:

Oxygene IV-Geerdes1992.mid
Oxygene IV-Stroh1991.mid
Oxygene IV-1996.mid - das "Original" als Midifile (Version 1996),
Oxygene IV-Technobrett.mid - eine Techno-Bearbeitung zusammengezogen als 8-taktiges "Brett" (nur in einem Sequenzer-Programm sinnvoll verwendbar, in einem MIDI-Player erklingen alle Spuren gleichzeitig - hierzu eine weiter gehende Anleitung als pdf),

das "echte" Original in der Aufnahme von 1976:


Hinweis:
Im Akustik-Skriptum finden Sie in Kapitel 10 eine kurze gefasste Darstellung der wichtigsten Synthese-Verfahren:

Differenzierte Verarbeitung von Samples zählen nur bedingt zur Gattung “Synthese”:

“Soundcard-Verfahren” (von Roland "LA-Synthese genannt) = eine Fülle verschiedener Verfahren, die alle darauf beruhen, dass man wichtige Teile eines Instrumentalklanges als Sample beibehält, andere (unwichtige) Teile aber synthetisiert, wodurch alles in allem Speicherplatz gespart wird. Beispiel: „Klavier.mp3“ der Einschwingvorgang (von 50 ms) als Sample, der Rest als Sinusschwingung reichen aus - im vorliegenden Beispiel wird die Bedeutung des Einschwingvorganges für den Klangcharakter "Klavier" demonstriert, zunöächst ist der Einschwing-Anteil weg genommen und später wird er wieder hinzu gefügt.


DOKUMENTE

Immanuel Brockhaus: Kultssounds. Die Prägendsten Klänge der Popmusik 1960 bis 2014. Transkript-Verlag, Bielefeld 2017, S. 20.
Der Schweizer Jazz- und Computermusiker Bruno Spoerri behandelt den DX7 in „Musik aus dem Nichts“ (2010) als prägenden Klang der 1980er Jahre und stellt das aufkommende Spannungsfeld zwischen den Anhängern der analogen und der digitalen Technologie dar. Der DX 7 wird immer wieder im Kontext mit innovativer Klangsynthese und der damit verbundenen soundästhetischen Umwälzungen dieser Dekade genannt.

Werbung für die App “FM Player: Classic DX Synths” (für iPhone):
Speziell brillante E-Pianos, geslappte Bassgitarren, Röhrenglocken, Akustikgitarren und viele perkussive Klänge sowie Simulationen akustischer und elektrischer Instrumente (Harfe, Orgel, Blasinstrumente…) sind die Stärke dieser Klangerzeugung. Sie wurde eingesetzt von niemand Geringerem als Depeche Mode, Michael Jackson, Brian Eno, U2, Enya, Phil Collins, Queen, Herbie Hancock, The Cure und Stevie Wonder, um nur ein paar wenige aufzuzählen.

Will MacNamara: Ikutaro Kakehashi and the future of MIDI
His most enduring legacy, however, is not one product — not even the legendary TR-808. Rather, it is the invisible, almost magical lifeblood of electronic music: MIDI. Now running on over a billion devices, the Musical Instrument Digital Interface (MIDI) allows music to be represented as data and vice versa, so that all hardware and software instruments can communicate. Kakehashi developed a precursor to MIDI for some of Roland’s instruments. He was the first to propose a universal communications protocol for electronic music, which was not in the mainstream until MIDI launched in 1982. He shares credit with Dave Smith for the invention of the protocol. Kakehashi lived long enough to see MIDI become an antique — a hardy, functioning antique like Roland’s first drum machines. The strength of MIDI has been to remain exactly the same. Its unusual resistance to change has made it very easy for operating systems and hardware to support it. In 2002 Matt Wright created an entirely new, open-source protocol for high-definition instruments. The Open Sound Control (OSC) specification was seen as a potential alternative to MIDI. However, no electronic instrument manufacturers (including Roland) committed to implementing it, and OSC remained a software-only protocol [zum Beispiel in MAX8].