Bonsoir Thierry et tous,
Le bruit de phase peut être vu comme la représentation fréquentielle du jitter. J'imagine que tu le sais et que tu as voulu exprimer le fait que le lien entre jitter et SQ n'a pas été démontré ni mesuré, en s'appuyant notamment sur la publication de Dan Lavry.
Cette publication ne traite que de l'aspect temporel du jitter et démontre mathématiquement que dans le pire des cas, signal à 20 kHz, 20 ps de jitter entraînent -120dB de disto. Il en conclut qu'avec les horloges actuelles, c'est réglé.
Sans être le moins du monde très éclairé dans ce domaine, il me semble que ce n'est pas si simple.
Tout d'abord, il est mathématiquement prouvé qu'un signal faible se perdra dans le bruit de phase :
https://fr.m.wikipedia.org/wiki/Bruit_de_phase
Ensuite, évidemment loin de moi l'idée que la perte d'un signal à -157dB soit directement audible !
Alors, est-ce réglé quand on sait que la plage dynamique dans son salon ne dépasse guère 80dB chez la plupart des gens ?
Peut-être pas... Il y en a qui disent, comme Robert Watts ou Zaphod Beeblebrok, que le bruit floute le message sonore même à des niveaux incroyablement faibles et que c'est très clairement audible quand on compare à l'aveugle des modeleurs de bruit à -200 ou -300dB, voire en dessous de -600 (niveaux abyssaux non mesurables mais quantifiés via simulation.)
Peut-être une sensibilité extraordinaire de l'oreille à recréer une image sonore sur 360° sur la base du timing des transitoires... Voilà, voilà
(pas taper les objectivistes, merci)
Citation :Pour le reste, la course au bruit de phase/tarif exponentiel et le lien avec le jitter n'a jamais été démontré ni mesuré, ou alors j'ai mal cherché. Cela existe quelque part?
Le bruit de phase peut être vu comme la représentation fréquentielle du jitter. J'imagine que tu le sais et que tu as voulu exprimer le fait que le lien entre jitter et SQ n'a pas été démontré ni mesuré, en s'appuyant notamment sur la publication de Dan Lavry.
Cette publication ne traite que de l'aspect temporel du jitter et démontre mathématiquement que dans le pire des cas, signal à 20 kHz, 20 ps de jitter entraînent -120dB de disto. Il en conclut qu'avec les horloges actuelles, c'est réglé.
Sans être le moins du monde très éclairé dans ce domaine, il me semble que ce n'est pas si simple.
Tout d'abord, il est mathématiquement prouvé qu'un signal faible se perdra dans le bruit de phase :
https://fr.m.wikipedia.org/wiki/Bruit_de_phase
Ensuite, évidemment loin de moi l'idée que la perte d'un signal à -157dB soit directement audible !
Alors, est-ce réglé quand on sait que la plage dynamique dans son salon ne dépasse guère 80dB chez la plupart des gens ?
Peut-être pas... Il y en a qui disent, comme Robert Watts ou Zaphod Beeblebrok, que le bruit floute le message sonore même à des niveaux incroyablement faibles et que c'est très clairement audible quand on compare à l'aveugle des modeleurs de bruit à -200 ou -300dB, voire en dessous de -600 (niveaux abyssaux non mesurables mais quantifiés via simulation.)
Peut-être une sensibilité extraordinaire de l'oreille à recréer une image sonore sur 360° sur la base du timing des transitoires... Voilà, voilà
(pas taper les objectivistes, merci)
Pluie du matin n'arrête pas le sous-marin