Informations

Pourquoi n'entendons-nous pas les sons ultrasonores en tant que versions alias des signaux originaux ?

Pourquoi n'entendons-nous pas les sons ultrasonores en tant que versions alias des signaux originaux ?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

La limite supérieure de l'audition est d'environ 15 kHz, en fonction de l'âge et d'autres facteurs. Selon les principes du traitement numérique du signal, une telle limite supérieure signifierait que le système auditif échantillonne au moins à 30 kHz ou plus.

Supposons maintenant un signal ultrasonore, disons une fréquence acoustique de 40 kHz - pourquoi est-ce que je n'entendrais rien, au lieu de ce signal replié à une fréquence d'échantillonnage de 30 kHz ?


Réponse courte
La cochlée est une carte tonotopique avec certaines limites physiquement déterminées qui déterminent la gamme de fréquences perçues. Les ondes sonores ultrasonores n'ont tout simplement pas de corrélat sur cette carte.

Fond
La cochlée est un analyseur de fréquence qui traduit essentiellement les fréquences acoustiques en un plan de localisation. Les hautes fréquences sont codées à la base (jusqu'à 20 kHz), les basses fréquences au niveau apical (jusqu'à 20 Hz environ). Par conséquent, il s'agit à peu près d'un système d'analyse de Fourier (Fig. 1). Cette façon d'analyser les sons est appelée théorie du codage par lieu de la hauteur. L'endroit où une fréquence est codée dépend principalement des caractéristiques physiques de la membrane basilaire de la cochlée. Chaque partie est sensible à une fréquence légèrement différente de la suivante. Ceci est causé par des variations progressives de la rigidité et de la largeur de la membrane basilaire, entre autres facteurs moins importants comme la longueur des cellules ciliées, etc. Les caractéristiques physiques spécifiques déterminent la fréquence de résonance spécifique d'une partie particulière de la membrane basilaire. Par conséquent, les sons entrants sont déchirés par des ondes stationnaires, où chaque fréquence entraîne une onde stationnaire à un endroit particulier de la cochlée.


Fig. 1. Carte tonotopique de l'oreille interne. source : Université médicale d'État de Ternopil

Les fréquences mentionnées sont des longueurs d'onde physiques des différences de pression acoustique de l'air entrant dans l'oreille externe et moyenne. La cochlée les traduit en différences de pression basées sur les fluides. Les cellules capillaires de la cochlée captent ces différences de pression de fluide et les traduisent en différences de gradient potentielles.

Le taux d'échantillonnage des cellules ciliées est à peu près infini, car elles fonctionnent sur une tension membranaire continue, c'est-à-dire qu'elles sont analogiques.

Les neurones secondaires, les cellules du ganglion spiral, traduisent ces différences de tension en pointes neurales et les conduisent à travers le nerf auditif jusqu'au cerveau.

Le pic neuronal suit les fréquences acoustiques jusqu'à, disons, 1 kHz (fréquence suivant la réponse). Ce phénomène est appelé code temporel de l'audition de la tonalité. Après cela, les caractéristiques réfractaires font que les fibres individuelles ne se déclenchent qu'à une seule période de longueur d'onde. Ainsi, à la limite supérieure de l'audition, disons 20 kHz, une cellule ganglionnaire ne peut se déclencher qu'une fois toutes les 20 longueurs d'onde environ. Pas de problème, comme beaucoup d'autres font la même chose. La stochastique fait que la longueur d'onde est bien codée dans une population de fibres réactives. De plus, le cortex auditif contient une carte tonotopique, ce qui signifie que les hautes fréquences sont traitées ailleurs que les basses fréquences. En d'autres termes, le nerf auditif n'a pas besoin de coder fidèlement l'onde entrante.

Un bel exemple dans ce sont les implants cochléaires; ils stimulent le nerf auditif avec des courants électriques. L'emplacement des électrodes détermine le pas, pas leur fréquence de pouls (bien que cela puisse avoir un effet).

Maintenant, pourquoi n'entendez-vous pas les ultrasons ? Tout simplement parce que la membrane basilaire ne contient pas de régions sensibles aux fréquences supérieures à 20 kHz environ. C'est ce qu'on appelle le Carte de Greenwood, qui dépend des espèces.


Je pense que vous citez mal l'aliasing.

L'acoustique numérique est expliquée dans un sens mathématique, l'aliasing est un concept mathématique. L'acoustique réelle est expliquée dans un sens physique, qui parle de réflexion, d'absorption, de changement de phase, de modes harmoniques, de poids… Considérez par exemple l'explication de l'acoustique de la batterie, ce n'est pas numérique et sur aucun objet physique vous ne verrez le mot "Aliasing" utilisé : https://en.wikipedia.org/wiki/Vibrations_of_a_circular_membrane

L'aliasing fait référence à un concept numérique, selon lequel nous divisons les écrans en pixels, et vous ne pouvez pas distinguer les objets plus étroits qu'un pixel. Une vague est au moins 2 "/////" points de données, elle nécessite donc une fenêtre 2x donc nous avons 44k CD pour coder des sons 22Khz.

Je vais juste aborder cette question précise, mis à part l'usage abusif du terme Aliasing : pourquoi n'entendrais-je rien à la place du signal aliasé à une fréquence d'échantillonnage de 30 kHz ?

Les ondes de pression sont des sons physiques et continus… Un son ou un objet physique continu ne peut pas être soumis à l'effet de distorsion numérique "Aliasing" qui fait par exemple référence à la génération de fréquences infiniment hautes entre deux points échantillonnés d'une fréquence d'horloge…

Parce que le son physique est continu, il ne peut pas avoir de distorsion de fréquence liée à son taux d'échantillonnage de 15/30 kHz, il peut atténuer et réagir physiquement avec des objets physiques, y compris d'autres ondes de pression acoustique et faire résonner les objets physiques dans différents modes de mouvement.

La détection sonore dépend de l'excitation physique des poils et des nerfs qui doit dépasser un seuil de détection. les objets physiques n'ont pas de modes d'excitation radicaux et étranges lorsqu'ils absorbent une fréquence trop élevée, ils peuvent résonner dans différents modes, mais ils se détraquent sauvagement et produisent un écrêtage de volume et des artefacts sonores. La plupart du temps, ils n'ont pas de limite de fréquence après quoi ils deviennent fous. le plus proche que vous puissiez obtenir des modes de fréquence étranges dans les objets physiques est la résonance où le mouvement se transforme en un mouvement cinétique élevé comme le pont Tacoma Narrows. Il faut aborder l'oreille comme un modèle physique et non numérique. Je pense aux modes de résonance des structures dans l'oreille similaires à une corde de guitare ou à un gong se déplaçant dans l'espace 3D. Cela vous donne une idée des signaux nerveux dans l'oreille : https://www.youtube.com/watch?v=1JE8WduJKV4&t=17s

Presque tous les sons détectés à l'intérieur d'une oreille sont déformés par la réflexion de sa forme et de sa source initiales, et de ce fait, ils sont maculés dans une réverbération semblable à la lumière traversant des fenêtres givrées.

Les cerveaux et les tissus humains ne sont pas numériques et quantifiés, ils ne sont même pas analogiques, ils sont cellulaires avec différents types/tailles de cellules réceptrices et de nerfs, variables et organiques. Vous ne pouvez dire qu'ils s'aliasent que lorsque vous parlez d'une matrice cellulaire de taille parfaitement égale dans un modèle 2D/3D, comme les photorécepteurs, sauf que notre esprit ignore les informations à des échelles cellulaires qui ne nous sont pas utiles, comme le serait une version biologique de l'aliasing.

Si vous étudiez la fonction de la cochlée, vous constaterez que les structures, les poils, les membranes sont si différents d'un concept d'aliasing numérique.

Les oreilles humaines captent les sons à haute fréquence contrairement aux oreilles bombées des chauves-souris, des chats et des chiens, qui sont constituées de cartilage rigide qui reflète bien les fréquences plus élevées, dans le conduit auditif. les hautes fréquences sont absorbées très rapidement par la peau et il faut des organes spécialisés pour les refléter vers des chambres cartilagineuses rigides tapissées de poils, dont chaque partie est adaptée pour mieux réfléchir et absorber différentes fréquences.

La cochlée est organique et cellulaire, et elle est similaire à plusieurs diaphragmes et cils de microphone à électret existant tous à l'intérieur d'un organe complexe qui envoie les vibrations aux nerfs. Les sons doivent être collectés par bombage et concentrés sur des membranes légères et rigides.

Il y a beaucoup d'artefacts de toutes les fréquences lorsqu'elles atteignent l'oreille. Les sons se reflètent sur différentes surfaces, bien que les hautes fréquences absorbent plus facilement et sont donc entendus de manière plus linéaire de la source au capteur, et ont plus de précision temporelle et plus de précision binaurale.

Les sons n'ont pas tendance à être générés exactement au même endroit (sources ponctuelles), donc si vous avez par exemple un insecte générant des hautes fréquences, il produira une forme d'onde complexe, qui excite une grande enveloppe d'air autour de lui, comme une chute 5-10 pierres dans de l'eau, et la vague sortante ne sera pas une forme simple, mais une série complexe d'interactions de phases similaires à l'eau qui est excitée par un nageur. En ce sens, il a certaines propriétés d'un motif moiré, mais ce n'est pas un aliasing, c'est une interaction complexe d'onde et de phase.

Un oscillateur Aliased, en revanche, est un son numérique qui contient des fréquences infiniment élevées, car le codage numérique oblige les changements soudains d'amplitude à être brusques, ce qui est différent de la nature, où les sons sont des ensembles de valeurs continus et non discrets.

Au fur et à mesure que le son voyage dans l'air et dans la chair, les hautes fréquences, qui sont toutes des composantes sinusoïdales pures du son global, seront simplement atténuées selon des spectres d'atténuation complexes qui correspondent aux conditions de l'air ambiant, à l'angle d'incidence vers le les vestibules de l'oreille émettrice.


En fait, je pense avoir compris la réponse ce matin. L'équivalent biologique de « l'échantillonnage » devrait se produire au niveau neuronal, par ex. après une transduction réussie. Étant donné que les propriétés de la membrane basilaire (par exemple, la rigidité/l'épaisseur) ET la fonction de transfert des osselets devraient permettre le passage d'un son à haute fréquence dans la cochlée avant l'échantillonnage, le signal excessivement élevé peut ne jamais y parvenir en premier lieu.


Voir la vidéo: Correction de lactivité documentaire n18 Des signaux sonores thérapeutiques (Décembre 2022).