Physical Modeling vs Sampling. Eigene Erfahrungen

21.04.2023 23:10 (zuletzt bearbeitet: 21.04.2023 23:14)
#1 Physical Modeling vs Sampling. Eigene Erfahrungen
So

In den letzten Tagen habe ich mich viel mit Pianoteq 8 beschäftigt und erlebe gegenüber der 7er-Version deutliche Fortschritte.
Es klingt wärmer, lebendiger, natürlicher, "tiefensteuerbarer" und weniger "kalt".

Hier, beim Modeling einzelner Saiten hat aus meiner Sicht (mit viel eigener Erfahrung mit Sampling) diese Klangerzeugungsmethode den Realismus und die Qualität von guten gesampelten Flügeln erreicht und in der Ausdrucksstärke überholt.
M.E. kommt man an Pianoteq bzw. physical modeling (PM) in diesem Bereich nicht mehr vorbei.

Auch das neue Gitarren-Modeling hat es in sich und spielt sich mit neuen gitarrenartigen Ausdruckmöglichkeiten auf Tastaturen recht interessant und gegenüber Sampling klanglich gleichwertig - in der Steuerbarkeit wirklich sogar deutlich fortgeschrittener.

Doch es gibt einen Haken: Die äußerst anspruchsvolle nötige Rechenintensität!

Mein schneller I9-Computer bekam bei 256 Samples (grob: 10ms Latenz) die Berechnung nicht mehr ohne Knackser hin. Damit fahre ich mit Hauptwerk die größten Mehrkanal-Sets mit 6000 polyphonen Stimmen inkl. gesampeltem Hall.

Trotz Einstellung mit Multikernverarbeitung und Höchsteinstellung in der Verarbeitungs-Priorität verhält sich PM-Pianoteq völlig anders: Dabei wurde die Polyphonie der eigentlichen Haupttöne nur als ca. 8-16 Stimmen angegeben. (Die Saitenresonanzen etc. werden anscheinend hier nicht mitgezählt und vielleicht etwas anders erzeugt.)
Ich musste auf 512 Samples gehen, wobei als Plugin im VST-Host die Latenz insgesamt doch schon etwas über 20ms war, was ich als gerade noch annehmbar empfinde.

Nun zur Frage: geht das auch für die Simulation von Orgeln durch Berechnung statt Sampling ? .
Organteq von der gleichen Firma Modarrt kommt nicht aus den Babyschühchen, klingt hässlich und wird anscheinend seit 2 Jahren so gut wie nicht mehr weiterentwickelt.

Warum ist das möglicherweise verständlich?:
Ziehe ich bei einer Orgel beispielsweise 7 Register dann habe ich eine 7-fache Polyphonieanforderung. Alle Töne in anderen Farben und mit anderem Einschwingverhalten. Dazu kommt noch das Pedal mit beispielsweise 3-4 Registern.
Somit müssten ganz grob also vielleicht etwa 75 klanglich ganz verschiedener Stimmen und Pfeifenansprachen in Echtzeit berechnet werden.
Die mathematischen Modelle wären da, die hat man schon "ewig" - aber wenn ein schneller I9er schon bei 10-16 Saitensimulationen mit hervorragenden Modellen an seine Grenzen kommt, wie soll er denn mit 75 zu erzeugenden Stimmen simultan klar kommen!??

Und das Ganze noch ohne Hallproduktion und ohne sonstige Audiokettenanforderungen......

Bei Hauptwerk kommt mit den Hallfahnen durchweg auch schon bei mittleren Orgeln eine Polyphonie von 6000 Stimmen zusammen - insbesondere bei Mehrkanalsets. Man braucht dort viel RAM, aber vergleichsweise recht wenig Rechenleistung.

Hier - in diesen nachprüfbaren Erfahrungen - liegen für mich die Gründe, warum mit heutigen Computern bei physical modeling von ORGELN die eigentlich wünschbaren Modelle so enorm stark vereinfacht werden müssen, dass sie mit den CPUs mit noch erträglicher Latenz verarbeitet werden können. Das bedeutet "Glättung" ganzer Oktaven mit einheitlichen Modellen, die völlige Entschärfung und Vereinheitlichung der höchst problematischen und teils chaotischen Pfeifenansprache und das notgedrungen vereinfachende klangliche Ähnlichmachen eigentlich völlig verschiedener Register.

Darunter muss zwangsläufig der Realismus leiden.

Der große Erfolge bei der Simulation einzelner Saiten von Klavier und Gitarre ist aus dieser Sicht NICHT auf zugespitzt 6000 Pfeifenklänge mit berechnetem Hall .........und auch nicht auf "nur" 75 Pfeifen ohne Hall bzw. einem relativ einfachen, globalen Hallmodell ausdehnbar.

Und das kann - ohne Quantensprünge bei der Rechenleistung bezahlbarer CPUs - auch noch sehr lange so bleiben .....
Es sei denn, man verwendet Kombinationen aus beiden Verfahren.......

Stimmt das einigermaßen mit euren Erfahrungen überein?


 Antworten

 Beitrag melden
22.04.2023 11:48
#2 RE: Physical Modeling vs Sampling. Eigene Erfahrungen
avatar

Ich kenne Pianoteq nicht, habe aber jetzt ein Instrument, das Sampling mit Modeling kombiniert. Das Ergebnis ist schon beeindruckend und mit 256 Polyphonie ausreichend.

Bei Physis sind die komplexen und unterschiedlichen Einschwingverhalten auch innerhalb des Registers gegeben. Das System fasst bei hoher Belastung zusammen oder rechnet herunter, ich weiß es nicht. Jedoch empfinde ich den Realismus bei Tutti noch gegeben, wobei man auch bei einer großen PO die leisen Register nicht mehr heraushört.

Wenn ich die zusätzliche Rechenleistung habe, werde ich einen Vergleichstest machen.

Viele Grüße

Andreas


 Antworten

 Beitrag melden
23.04.2023 12:59
#3 RE: Physical Modeling vs Sampling. Eigene Erfahrungen
avatar

Ich war heute an einer großen PO mit schlechter Verschmelzung der Register. Das Ansprechverhalten der leisen Register geht auch da unter und ist vernachlässigbar. Hatte aber auch nicht allzu sehr darauf geachtet.


 Antworten

 Beitrag melden
23.04.2023 15:37
#4 RE: Physical Modeling vs Sampling. Eigene Erfahrungen
So

Mich hat bei meinen mehrtägigen Tests in #1 interessiert, wie viele Töne mit wirklich differenzierten, interessant klingenden Modellen eine schnelle, aktuelle i9-CPU bei optimalen Einstellungen (Mehrkernverarbeitung, höchster Priorität, optimale Soundkarte und -Treiber....etc.) mit gerade noch erträglicher Verzögerung (Latenz) simultan berechnend erzeugen kann.

Es waren 8-14 Stimmen. Ohne individuellen Hall.

Das wäre übertragen auf Orgel: rd. 1 Register

- und leider ohne die eigentlich dazu gehörende, wünschbare individuelle Kirchenraumantwort, die in natura auch äußerst komplex ist.....


 Antworten

 Beitrag melden
23.04.2023 19:45 (zuletzt bearbeitet: 23.04.2023 19:47)
#5 RE: Physical Modeling vs Sampling. Eigene Erfahrungen
avatar

Kommst also nicht um eine Physisorgel rum... Ich habe mir extra mal das Ansprechverhalten der unterschiedlichen Register angehört und dann immer mehr zusammengezogen. Ich meine, die Charakteristika der besonders herausstechenden Register auch bei größeren Registerkombinationen noch gehört zu haben. Besonders gut hört man das in der untersten Oktave. Während die Rohrflöte ein "Blob, da bin ich" macht, sagt die Fugara "Pfffffffffeiff ich drauf", und dann kommt das Prinzipal und fängt mit dem Einschwingvorgang fast einen Halbton höher an. Je höher man geht, um so kürzere Einschwingzeiten hat man und dann kann das Gehör diese auch nicht mehr wahrnehmen, wenngleich ich davon ausgehe, daß Physis die trotzdem entsprechend berechnet.

Packt man die Physisorgel noch in einen entsprechend aufwendigen Hall und nimmt mehrkanalig auf, kommt das heraus, was ich, Paolo und weitere hier im Forum bereits vorgestellt haben. Vielleicht verrät Paolo auch, welche AI er für seinen letzten Coup genutzt hat, wenn wir ihm drohen, ansonsten seine grauen Orgeln mit knallbunten leuchtenden Farben anzumalen.


 Antworten

 Beitrag melden
23.04.2023 19:58
avatar  ATG
#6 RE: Physical Modeling vs Sampling. Eigene Erfahrungen
AT
ATG

Now you have mentioned Paolo's AI, I'm surprised that no-one has mentioned it elsewhere on the forum. The teaser and the Tournemire Tryptiche he has just loaded on YouTube are mind blowing! Please let me know what to buy to get the same sound!

ATG


 Antworten

 Beitrag melden
23.04.2023 20:04
#7 RE: Physical Modeling vs Sampling. Eigene Erfahrungen
avatar

Ich habe jetzt leider nicht die richtigen Boxen, um den Unterschied bei Paolos AI so gut heraushören zu können. Gut wäre es, wenn Paolo einen Direktvergleich machen würde, dann würden vermutlich auch die Reaktionen im Forum größer ausfallen.


 Antworten

 Beitrag melden
24.04.2023 00:01
#8 RE: Physical Modeling vs Sampling. Eigene Erfahrungen
Ch

Zitat von Soli Deo gloria im Beitrag #1
liegen für mich die Gründe, warum mit heutigen Computern bei physical modeling von ORGELN die eigentlich wünschbaren Modelle so enorm stark vereinfacht werden müssen, dass sie mit den CPUs mit noch erträglicher Latenz verarbeitet werden können.

Es kommt eben darauf an wie genau ein System den Ton berechnen will. Im Grunde kann man ganz simpel einen Ton erzeugen, oder auch unendlich viele Feinheiten einfließen lassen. Entsprechend groß ist auch die Bandbreite der benötigten Leistung. Du kannst durchaus eine Orgel mit hunderten Register auf einem Taschenrechner berechnen lassen, oder einen Supercomputer mit nur einem Ton auslasten...

Ich denke mir beim Beispiel OrganTEQ hat sich der Entwickler etwas überschätzt und ich vermute einmal, dass in dem Bereich auch nicht so viel Geld generiert wird, dass es sich lohnen würde. OrganTEQ hat wirklich exorbitante Ansprüche und klingt für mich (subjektive persönliche Meinung!) nicht sehr gut. Auf der anderen Seite zeigen Projekte wie Aeolus / Organnery ( https://organnery.com/index.html ), recht gut, dass man sogar auf einem Raspberry Pi ohne Probleme eine Orgel mit 50 Register mühelos umsetzen kann, ohne dass es grässlich klingt.

Aber welches System ist nun gut? Samples sind statisch und man kann nur mit Tricks oder endlosen Aufnahmen diese dynamischer wirken lassen. Synthetische Systeme sind eben eigene Klänge denen kein reales Instrument zugrunde liegt. Vermutlich ist dies auch ein Grund warum Haupwerk Nutzer mit synthetischer Tonerzeugung ein Problem haben. Sie sind es gewohnt eine real existierende Orgel zu spielen, während eine Software wie OrganTEQ eben keine reale Orgel nachahmt, sondern etwas eigenes darstellt.

Daher sollte jeder das spielen, was ihm selber gefällt. Denn egal welche Technik man verwendet, es ist trotzdem keine Pfeifenorgel, sondern ein digitales eigenes Instrument.


 Antworten

 Beitrag melden
24.04.2023 13:17
avatar  DigitalPipes ( gelöscht )
#9 RE: Physical Modeling vs Sampling. Eigene Erfahrungen
Di
DigitalPipes ( gelöscht )

Zitat von ATG im Beitrag #6
Now you have mentioned Paolo's AI, I'm surprised that no-one has mentioned it elsewhere on the forum.


People are still inebriated by Physis Plus!


 Antworten

 Beitrag melden
25.04.2023 02:07
avatar  live3TA
#10 RE: Physical Modeling vs Sampling. Eigene Erfahrungen
li

Zitat von DigitalPipes im Beitrag #9
Zitat von ATG im Beitrag #6
Now you have mentioned Paolo's AI, I'm surprised that no-one has mentioned it elsewhere on the forum.


People are still inebriated by Physis Plus!


There appears to be at least one more thing to get inebriated by....Paolo's AI!!!!!

While the short YT clips are very, very fine (according to my Sennheiser-guided ears), when will it be described? How soon before we have another DO potion to imbibe!?!?!?!?! When will our ?


 Antworten

 Beitrag melden
25.04.2023 08:36
#11 RE: Physical Modeling vs Sampling. Eigene Erfahrungen
So

Habe mit Hauptwerk interessehalber verschiedene Enhancer, Vitalizer, aktuellste Studioalgorithmen..... ausprobiert.

Im ersten Moment denkt man manchmal: wow!
Bei schlechter Übertragung bzw. Abstrahlung kann dies alles manchmal scheinbar etwas über eklatante Schwächen hinwegtäuschen.

Habe alles wieder entfernt. Eine gute Klangerzeugung, Audiokette und Abstrahlung lässt sich damit beim live-Spiel nicht erreichen, was auch nicht verwundert, wenn man einigermaßen versteht, was diese Geräte bzw. Plugins machen.

Ein Trick unter vielen ist z.B. gerade oder ungeradzahlige Obertöne hinzuzufügen, Stereo zu verbreitern, den Klang zu "vitalisieren".

Bei Hauptwerk kann dies z.B. eine dumpf klingende Orgel, einen schlechten Lautsprecher (obwohl gerade die oft schon ab Werk "geboostert" sind), einen Mulm-Kopfhörer etc. etwas frischer machen, aber mit der gleichen (sehr vorsichtigen) Einstellung wird die nächst geladene Orgel unanhörbar durch übertriebene Silbrigkeit im Hall, einem völlig unnatürlichen Glanz, psychoakustisch gepuschten Bässen oder einfach hinzugefügten harmonischen oder inharmonischen Obertönen, die so in natura niemals auftreten.

Alles wieder weg. Es tat (mir) in den Ohren weh


 Antworten

 Beitrag melden
Bereits Mitglied?
Jetzt anmelden!
Mitglied werden?
Jetzt registrieren!