Re: Bahnhof
Original geschrieben von Lynhirr
Abgesehen von der Bemerkung mit dem Bier habe ich jetzt nicht wirklich viel verstanden
Angenommen du baust dir ein Arrangement mit
1 Stereo Gitarrenspur (aufgenommenes Audio)
1 Stereo Gesangsspur (aufgenommenes Audio)
1 Stereo Schlagzeugspur (programmiertes Midi)
Du drückst nun auf „Abspielen“.
Die beiden Stereoaudiospuren werden dabei einfach von der Festplatte gelesen und wiedergegeben. Das verbraucht minimal CPU Leistung, daher macht man sich hier nie Sorgen um die CPULast sondern eher um die maximale Anzahl der möglich wiederzugebenden Spuren wegen der Geschwindigkeit der Festplatte, die die Audiodaten liefern muss. Aber das kommt hier eh nicht in Frage, da du garantiert nicht über 20 Stereoaudiospuren hinaus möchtest
Nun zu der Schlagzeugspur. Da du zuhause kein Schlagzeug einspielen wirst, nimmst du dir ein Softwareinstrument, in diesem Fall mal einen Synthesizer
. Um dem Softwareinstrument Töne zu entlocken, tust du das über Midibefehle (MIDI=Musical Instruments Digital Interface). Midibefehle sind vom Datenaufkommen her minimal, wenn nicht sogar schon nichtig, denn sie enthalten keine klanggestaltenden Informationen, jediglich Befehle der Art „Note C1 an“, „Note C1 aus“, „Note A4 an“ etc. . Das Softwareinstrument interpretiert dann diese Befehle mit dem jeweils eingestellten „Klangpreset“. Das interpretieren dieser Mididaten und das native Erzeugen der Klänge kostet CPU-Time. Das was du hörst ist also keine Audiodatei, sondern ein direkt „vom Prozessor berechneter Klang“.
Jetzt nehmen wir noch auf den Gesang ein Hallplugin dazu. Bei der Wiedergabe funktioniert dann alles wie oben, NUR das jetzt die Gesangsspur nicht direkt wiedergegeben wird, sondern vorher vom dem Hallmodul manipuliert wird. Die CPU muss nun die Nachhallzeit etc. auf die Gesangsspur aufrechnen, bevor sie wiedergegeben wird. Das kostet auch CPU-Time.
Gehen wir mal davon aus, das damit deine CPU (in diesem Fall wäre das ca. ein G3 266) ausgelastet ist.
Du möchtest gerne aber noch einen „virtuellen Dudelsack“ in Form eines Softwareinstruments hinzufügen und auf die Gitarrenspuren einen Equalizer legen.
Was nun?
Ganz einfach. Du speicherst ersteinmal dein bestehendes Projekt. Sicher ist sicher.
Danach deaktivierst du dann alle Spuren, bis auf die CPU-lastigen Softwareinstrumenten Schlagzeugspur. Du mischst nun dein ganzes Projekt ab zu einer Audiodatei, wobei die vom „Prozessor berechnetetn Klänge“ umgewandelt werden. Du hörst natürlich jetzt nur das Schlagzeug.
Danach deaktivierst du in deinem Arrangement diese Softwareinstrumenten Schlagzeugspur und fügst eine neue Audiospur hinzu, die nun deine heruntergemischte Schlagzeugspur enthält. Das Wiedergegen dieser Schlagzeugspur verbraucht wie oben schon erklärt keine CPU Last (mehr), da es nun eine Audiodatei ist. Die deaktivierte Softwareinstrumentenspur verbraucht nun logischerweise keine CPU-Last mehr, da sie nicht mehr interpretiert werden muss.
Genauso verfährst du nun mit der Gesangspur. Hier deaktivierst du dann anschließend auch die Gesamte original Spur mit dem Hallplugin und fügst eine neue Audiospur mit dem Mix ein.
Die gewonnene CPU Last können wir nun für neue Instrumente und Plugins verwenden. Der Dudelsack geht also an den Start
Und so geht das dann immer weiter.
In Logic Audio geht das per einem einzelnen Knopfdruck
Freeze nennt sich das. Aber in GB wird man das wohl manuell machen müssen, wenn man es dann benötigt. Ich glaube aber nicht, das du bei deinem Vorhaben dort an Grenzen stoßen wirst.
Naja, möchtest du jetzt hinterher allerdings die Schlagzeugspur ändern, weil dir eine Fill oder so nicht gefallen hat, oder eine Becken irgendwo fehlt, wird es etwas fummelig.
Audiospur mit dem gemischten Schlagzeug löschen.
Alles im Arrangement deaktivieren.
Die am Anfang deaktivierte Softwareinstrumentenschlagzeugspur aktivieren.
Änderungen vornehmen.
Und dann so verfahren wie beim ersten Mixdown etc. .
Das gleiche auch für die Gesangsspur. Ist dir der Nachhall zu lang, gleiche Prozedur wie oben. Erst wieder alles deaktivieren, das zu bearbeitende aktivieren, ändern usw usw. .
Alles klar?
Und wenn dann noch jemand mal an Grenzen bezüglich der reinen Wiedergabe von Audiofiles gelangt kann er diese auch Gruppenweise mischen und zu einer Datei zusammenfassen.
Ich sage direkt dazu, das ich versucht habe, diese Erklärung so einfach wie möglich zu halten und daher einige, hier nicht bedeutenden Umstände einfach „vereinfacht“ habe
.
Desweiteren ist zu beachten, das das ganze ein Workaround für den Hausgebrauch ist, professionelle Studios würden dabei die Hände über dem Kopf zusammenschlagen, da es gegen das non-destructive-editing-prinzip verstößt, aber darum geht es hier ja auch nicht.
Ein kleiner Nachtrag zu Vollständigkeit:
Ein „Softwaresampler“ ist auch ein Audioinstrument“. Hier wird beim einfachen ansteuern mit Mididaten nicht ein Klang erzeugt, sondern ein Audiodateischnipsel (zb eine Snaredrum) abgerufen. Die Tonhöhen bei den Midibefehlen sind hier etwas zweckentremdet. Auf C1 kann dann zb eine Snaredrum liegen, auf Cis1 dann Bassdrum etc. , was nicht automatisch bedeutet, das die Bassdrum Cis1 ist
. Es ist also bei Samplern dann im Normalfall eine Anordnung von Audiodateien nach dem chromatischen Schema.
Liebe Grüße
Yves