Da die deutschen Dialoge nach der KI-Separierung und etwas manueller Nacharbeit ja völlig isoliert vorliegen, kann man mit denen dann alles mögliche machen - man kann dann natürlich ein KI-Modell erstellen und antrainieren, welches die gesprochenen Wörter anders klingen läßt, wie auch immer....
so klingen die reinen isolierten Dialoge (bereits im Pitch korrigiert) - ne gute Minute aus meinem Casablanca Showcase:
Link: https://voca.ro/1fT0wmvHvbiw
du hast dann wirklich nur reine Dialoge vorliegen mit nix außen rum (die WAV-Form des obigen kleinen Auszugs):
Anhang anzeigen 212854
ab da steht einer wie auch immer gearteten Bearbeitung der Dialoge nix mehr im Weg... und damit natürlich auch nicht, sie noch mehr mit dem Klanghintergrund verschmelzen so lassen - ich habe in meinem Showcase ja quasi wie ein Synchronstudio gearbeitet, bzw. dieses "simuliert" - ich habe mir aus dem O-Ton selbst via KI ein M&E erstellt, aus dem deutschen Ton quasi das erzeugt, was auch im Synchronstudio damals ursprünglich angelegt wurde, nämlich ein Band mit den reinen eingesprochenen Dialogen, diese dann in etwa so in der Lautstärke (nicht simpel overall, sondern präzise am jeweiligen SzenenDialog ausgerichtet) angepasst, wie auch im O-Ton gesprochen wird, minimal via EQ optimiert und dann in das M&E gemischt - was dann schon ziemlich cool klingt ;-) - aber insbesondere für den letzten Schritt kann man sich natürlich alles mögliche an nifty Misch- und Anpassspielereien vorstellen (aber das hat dann eher nix mehr mit KI zu tun, das wird ja auch heute in modernen Synchros gemacht....)
Und: natürlich kann man diese "freigestellten" Dialoge via KI dann so klingen lassen wie die Original-Schauspieler, so dass dann die Synchronstimme von Rick Joachim Kemmer eben wie Bogart in deutsch etc. klingt - das ist auch nix anderes, als umgekehrt einen David Attenborough deutsch sprechen zu lassen via KI - in nicht ferner Zukunft werden so Filme sehr wahrscheinlich internationalisiert werden: die Schauspieler werden nicht mehr synchronisiert, sondern ihre Stimme wird via KI schlichtweg "eingedeutscht"...
BTW: letztendlich gibts dann auch keinen Grund mehr, O-Ton zu hören und all die O-Ton Liebhaber verlieren ihr Hauptargument (kleines Späßle)
Letztendlich läuft alles auf eins hinaus: wie viel Zeit und Aufwand ist man bereit zu spendieren, um welches Ergebnis zu erreichen - stand heute ist quasi fast 100% Perfektion möglich, wenn man das denn will (und bezahlen kann
) - Jemand wie ich macht so was aus privatem Interesse für MEINE Lieblingsfilme, Firmen/Labels wollen dafür bezahlt werden und dann einen ROI sehen, sprich Geld verdienen, was ja auch nicht verwerflich ist
- und KI hin oder her: der persönliche Aufwandsinvest ist immer noch enorm, wenn man Top-Qualität will - nur früher - also vor KI - wars schlichtweg unmöglich, nicht mit 100 Mannjahren Aufwand, jetzt IST es möglich, allerdings nicht für lau...
@Forcekeeper : war das in etwa das, was du hören wolltest? ;-)