Mam duży projekt zbudowany z The Amazing Audio Engine 2
. Starałem się zintegrować Inter-App-Audio i chciałbym przenieść się do AudioKit 3.migracja TAAE2 do AudioKit 3
Zmagam się, to oznacza, że się integruje, ale jak tylko wybiorę go jako generator, renderowanie się zatrzymuje, silnik jest włączony państwo niepełnosprawne.
Jakie są główne różnice w systemach audio? TAAE2 używa modułów, każdy z blokiem renderowania, który przesuwa i wydziela bufory audio ze stosu renderowania.
W jaki sposób AudioKit renderuje dźwięk? Co byłby zaangażowany na wysokim poziomie w migrację AEModułów do obiektów Audiokit?
Dzięki Dave, brzmi to podobnie do TAAE1. Jaka jest kolejność konfiguracji łańcucha? Na przykład. głosy polifoniczne z wieloma oscylatorami, modulowane przez LFO i generatory obwiedni, TAAE2 pozwala na specyficzne wywoływanie procesu na module, jak to robi się z AudioKit? – jarryd
Jeśli dobrze rozumiem twoje pytanie, największą różnicą jest to, że zamiast wywoływać proces _on_ w module, musisz dodać ten proces jako węzeł, przez który audio przechodzi przez _. Więc jeśli chcesz przetwarzać tylko niektóre z twoich oscylatorów, będziesz musiał "skierować" wyjście niektórych oscylatorów przez filtry kopert. Rodzina AVAudioEngine podąża za modelem fizycznym (generator -> kabel połączeniowy -> efekt) zamiast modelu manipulacji buforami. – dave234
Próbuję zrozumieć, w jaki sposób projekt AVAudioEngine może wspierać głosy polifoniczne. Powiedzmy, że mamy 1 głos, z 1 oscylatorem, który ma 1 LFO i 1 Koperta, W TAAE2 główna funkcja renderowania może wywoływać render na głosie, który następnie wywołuje oscillator.render, lfo.render, envelope.render. W jaki sposób jest to ustawienie w AVAudioEngine z połączeniami węzłów? Czy byłoby to audioEngine.connect (voice1, to: audioEngine.mainMixerNode, format: audioFormat), a następnie w obiekcie głosowym audioEngine.connect (oscylator, do: self, format: audioFormat), audioEngine.connect (lfo, do: oscylatora. itd.? – jarryd