Étant confiné loin de chez moi, j'ai pris une vieille correction que j'avais copiée il y a plus d'un an sur l'ordi de ma compagne. Elle comprend deux corrections de niveau et quatre corrections de phase, en phase minimale en paragraphic, plus la correction de phase d'un LR4.
J'aurais pu prendre n'importe quoi, sauf le non-effet qui est un Dirac, et l'on aurait eu le même comportement général de la courbe sur les bords, tendant vers zéro.
(En générant un Non-effet au format texte et en le chargeant dans Open Office Calc, j'observe des valeurs autour de zéro et non pas moins l'infini, avec un unique 1 au milieu. Ce n'est qu'une question de représentation.)
Sur ce même seuil, on constate qu'une impulsion à 32k taps est environ 5% plus courte qu'une impulsion à 64ktaps pour un niveau de seuil à -120dB. La profondeur de suivi de l'impulsion étant augmentée, cela influence-t-il seulement la précision de la correction ou la précision de la quantification ?
Ce point est très important, car la précision de la quantification a un rôle majeur dans la capacité à recréer l'entièreté du signal, pas seulement les signaux faibles car un signal fort aussi passe à zéro entre deux maximums au cours d'une oscillation
Le signal convolué avec une impulsion de 64k taps est-il non seulement corrigé plus précisément mais est-il aussi meilleur à l'oreille ? Ces phénomènes n'expliqueraient-t-ils pas la perte de micro-informations que l'on ressent lors de la convolution ? Ou est-ce seulement causé par la surcharge CPU et les limites du matériel ? Cela expliquerait que la qualité commence par augmenter en allongeant le fichier de convolution, jusqu'à une limite où, le fichier devenant trop grand, la surcharge CPU que cela entraîne cause alors une baisse de qualité
,
J'utilise Minimserver plus ffmpeg
J'aurais pu prendre n'importe quoi, sauf le non-effet qui est un Dirac, et l'on aurait eu le même comportement général de la courbe sur les bords, tendant vers zéro.
(En générant un Non-effet au format texte et en le chargeant dans Open Office Calc, j'observe des valeurs autour de zéro et non pas moins l'infini, avec un unique 1 au milieu. Ce n'est qu'une question de représentation.)
Sur ce même seuil, on constate qu'une impulsion à 32k taps est environ 5% plus courte qu'une impulsion à 64ktaps pour un niveau de seuil à -120dB. La profondeur de suivi de l'impulsion étant augmentée, cela influence-t-il seulement la précision de la correction ou la précision de la quantification ?
Ce point est très important, car la précision de la quantification a un rôle majeur dans la capacité à recréer l'entièreté du signal, pas seulement les signaux faibles car un signal fort aussi passe à zéro entre deux maximums au cours d'une oscillation
Le signal convolué avec une impulsion de 64k taps est-il non seulement corrigé plus précisément mais est-il aussi meilleur à l'oreille ? Ces phénomènes n'expliqueraient-t-ils pas la perte de micro-informations que l'on ressent lors de la convolution ? Ou est-ce seulement causé par la surcharge CPU et les limites du matériel ? Cela expliquerait que la qualité commence par augmenter en allongeant le fichier de convolution, jusqu'à une limite où, le fichier devenant trop grand, la surcharge CPU que cela entraîne cause alors une baisse de qualité
,
Citation :je n'utilise plus Jriver
J'utilise Minimserver plus ffmpeg
Pluie du matin n'arrête pas le sous-marin