ACÚSTICA de estar por casa ... 2ª Parte.

¿Qué es una bola de graves?, ¿por qué está el tweeter en la mitad superior de una caja?, ¿cómo hacer que nuestro equipo suene de verdad mejor?.
Todo aquello relacionado sobre la segunda cosa más importante de nuestro equipo.
Responder
hiendaudio
Mensajes: 573
Registrado: Mié 23 Jun 2004 , 19:08
Contactar:

Mensaje por hiendaudio »

Pitufo.

La percepción de distancia en el oído humano es bastante ambigua, y son múltiples del "cues" que se usan. Quizá sea, espacialmente hablando, el punto en donde la percepción bimodal es más notable. (percepción dual, en conjunto con otro sentido, generalmente la vista.)

Lo tienes complicado. Porque, dentro de un mismo stream es relativamente fácil marcar una distancia relativa entre dos sub streams (RT, D/R ratio, nivel), pero lograr percibir toda la música (osea el stream principal) a una X distancia absoluta es bastante complicado si no es mediante percepción bimodal.

En las grabaciones que percibes profundidad esto ocurre porque que hay "cues" que permiten que así sea, sobre todo profundidad relativa entre instrumentos. (sub streams)

Si las grabaciones no contienen estos cues, lo máximo que puedes intentar es que toda la música se perciba a más o menos distancia, cosa que no es exactamente la profundidad de la que hablas, y que además va a traer otras consecuencias negativas.

Este último caso tampoco es sencillo de lograr ya que la percepción bimodal no te juega una buena pasada (estar en una sala pequeña no ayuda nada), por tanto el primer paso es eliminar percepción bimodal (apagar la luz), luego deberás bajar el D/R ratio y posiblemente aumentar RT.

Te diría que hagas pruebas con un convolver y la luz apagada.

En ausencia de percepción bimodal, las distancias absolutas a una fuente son bastante ambiguas si no hay cues extremos. En muchos casos se pasa de la localización dentro de la cabeza, a la localización a una X distancia de un modo similar a lo que pasa cuando de observa un cubo de Necker.

Saludos.
Avatar de Usuario
pitufo_sordo
Mensajes: 628
Registrado: Mié 18 Feb 2009 , 9:28
Ubicación: Poblado pitufo en Barcelona

Mensaje por pitufo_sordo »

Muchas gracias por la respuesta, hiendaudio …

Será cuestión de ‘investigar’. :wink:




Aprovechando la ocasión, y buscando otras cosas, he encontrado un documental del canal ‘Odisea’, titulado ‘El color del sonido’, que me ha parecido interesante y me gustaría compartir con vosotros …

Varias capturas …

Imagen

(No os asusteis, el documental es interesante ... de verdad).

El resumen …

Los sonidos que nos rodean y nuestra habilidad para escucharlos son cosas que generalmente damos por sentadas. Sin embargo, un análisis de nuestra experiencia con el sonido nos revelaría toda la complejidad que encierra este fenómeno. En pleno siglo XXI, nos encontramos inundados por sonidos en nuestra vida diaria: el ruido urbano, la música que nos acompaña y nos sigue a todas partes, en la publicidad, las tiendas, los lugares públicos, y la música personalizada que creamos en nuestros reproductores de MP3 o iPods, parece que no podemos escapar de la interpretación de la realidad a través del sonido. Odisea les invita a explorar este fenómeno: cómo nuestro cerebro decodifica las vibraciones sonoras para reconocer los sonidos que nos rodean, el papel que juega en nuestra vida espiritual, la relación pasada y presente del ser humano con el sonido y lo más puntero en las investigaciones científicas en torno al tema. Además grabaremos el sonido de la naturaleza y nos seremos conscientes de que el mundo es sonido.


La ‘Ficha Técnica’ …

De: Canal Odisea
Tamaño: 489 MB
Formato: AVI
Calidad Vídeo: SATRip
Códec Vídeo: XviD
Códec Audio: MP3 [Español]
Duración: 0:55:23 min.
Año: 2009

Y los enlaces …

http://www.megaupload.com/?d=DL7I9LIQ
http://www.megaupload.com/?d=QYS59E4Y
http://www.megaupload.com/?d=IIK77BFQ
http://www.megaupload.com/?d=3P0FXUNG
http://www.megaupload.com/?d=XRW7C86U


Todo lo he obtenido de aquí:

http://www.pordescargadirecta.com/docum ... apidshare/


No es que tenga mucho que ver con la acústica ni con este hilo, pero he creído que podría ser interesante y no sabia donde ponerlo …

Saludos.
hiendaudio
Mensajes: 573
Registrado: Mié 23 Jun 2004 , 19:08
Contactar:

Mensaje por hiendaudio »

Escuela Hiendaudio’

En este caso, por el contrario, se considera que, para reproducir adecuadamente la ambiencia de la grabación, la sala donde se reproduce debe permitir a esta ambiencia ‘manifestarse’; es decir, no puede ser tan absorbente como en el caso anterior, aunque si se puede actuar sobre la sala para reducir o eliminar reflexiones indeseadas y/o reverberaciones excesivas de frecuencias concretas.

Lógicamente, sus detractores indican lo contrario que en el caso anterior, es decir, que al añadir la ambiencia propia de la sala sobre la ambiencia de la grabación los resultados son impredecibles y con toda probabilidad, peores.
Voy a agregar algo.

"Mi escuela" también ve como positiva la eliminación del crosstalk, siempre y cuando se cumplan algunas premisas.

-En primer lugar estar dispuesto a aceptar cierto grado de coloración. (cosa que depende del cada uno, del artilugio usado a tal fin, y del material a reproducir.)

-En cuanto a la reproducción de la ambiencia, las cosas son más o menos como dije por ahí arriba. Recordar que la ambiencia es un background stream, en lo posible con bajo IACC, y con ITD=0.

La cancelación de crosstalk permite reproducir ITDs más allá de los límites del stereo.....lo cual puede ser bueno o malo.


Caso "malo."

En el caso de una grabación con paneos a base de pan-pot un paneo hacia un extremo esta limitado por el ITD correspondiente a 30º, en el momento de anular el crosstalk no tiene mas sentido ITD y la presentación pasa a ser diotica con un ILD que tiende a infinito (cancelador ideal, o auriculares in-ears). En ese caso ocurre una lateralización antinatural y algo molesta. (paneos a lo Beatles en auriculares)....cosa que no llega a darse con canceladores de crosstalk reales por el simple hecho de que la sala aporta ambiencia con crosstalk a ITD=0 y un ILD más bajo, así se "naturaliza" bastante la situación. (no hay lateralización extrema).


Caso bueno.

Cuando las grabaciones encodean ITDs más allá del ITD para 30º. Pueden ocurrir dos cosas:

1-Que esos ITDs representen streams (instrumentos, por ejemplo),
2- O bien que representen reflexiones. (que desde luego se las puede definir como algún tipo de stream o substream)

En el primer caso la aplicación de un mecanismo de cancelación crosstalk permite una reproducción fiel de la escena original. En el segundo caso estamos en lo mismo, y se vuelve al dilema inicial de "ambiencia fiel Vs ambiencia subjetivamente preferida".

Si una reflexión proviene desde los 80-90º en azimuth, IACC toca una de sus cotas máximas e ITD= 700uS ( aprox). En función de las bases de preferencia subjetiva esa es una reflexión indeseada. (buena fidelidad, pero sonido "malo")

Podría ser preferible secuenciar las reflexiones desde ángulos tales que IACC sea mínimo. (50-60º).
Esto se puede lograr manipulando el layout de la sala y posicionamiento de los altavoces principales, o bien con altavoces de ambiencia ubicados en esos ángulos.

Luego la sigo, volviendo al primer caso (ITDs que "representan" streams).
Avatar de Usuario
pitufo_sordo
Mensajes: 628
Registrado: Mié 18 Feb 2009 , 9:28
Ubicación: Poblado pitufo en Barcelona

Mensaje por pitufo_sordo »

Hola,

Me permito reinterpretar/ampliar tu ultimo post, con ‘añadidos’ para que los pobres mortales como yo nos enteremos de algo y ‘tenerlo a mano’, ya que el tema me interesa mucho y no quiero perderme nada…

(El original, en cursiva) ...

Voy a agregar algo.

"Mi escuela" también ve como positiva la eliminación del crosstalk
(Efecto por el cual, una señal o canal causa efectos indeseados en el otro canal), siempre y cuando se cumplan algunas premisas.

-En primer lugar estar dispuesto a aceptar cierto grado de coloración. (cosa que depende del cada uno, del artilugio usado a tal fin, y del material a reproducir.)

-En cuanto a la reproducción de la ambiencia (la relación existente entre la forma en que se escucha un sonido y el lugar en donde se está; es decir, es la sensación auditiva por la cual es posible tener una idea de las características de un ambiente determinado: tamaño, posición de las paredes, etc. ) , las cosas son más o menos como dije por ahí arriba. Recordar que la ambiencia es un background stream, (Flujo de fondo de la grabación) en lo posible con bajo IACC (Interaural Cross Correlation), y con ITD=0. (Interaural Time Difference).

(Obtenido de la Wikipedia)

The interaural time difference (or ITD) when concerning humans or animals, is the difference in arrival time of a sound between two ears. It is important in the localisation of sounds, as it provides a cue to the direction or angle of the sound source from the head. When a signal is produced in the horizontal plane, its angle in relation to the head is referred to as its azimuth, with 0 degrees (0°) azimuth being directly in front of the listener, 90° to the right, and 180° being directly behind. If a signal arrives at the head from 90° azimuth, the signal has further to travel to reach the left ear than the right. This results in a time difference between when the sound reached either ear. This is detected, and aids the process of identifying the sound source.

ITD and ILD

Owls living above ground must be able to determine the necessary angle of descent, i.e. the elevation, in addition to azimuth (horizontal angle to the sound). This bi-coordinate sound localization is accomplished through two binaural cues: the interaural time difference (ITD) and the interaural level difference (ILD), also known as the interaural intensity difference (IID). The ability in owls is unusual; in ground-bound mammals such as, ITD and ILD are redundant cues for azimuth.

ITD occurs whenever the distance from the source of sound to the two ears is different, resulting in differences in the arrival times of the sound at the two ears. When the sound source is directly in front of the owl, there is no ITD, i.e. the ITD is zero. In sound localization, ITDs are used as cues for location in the azimuth. ITD changes systematically with azimuth. Sounds to the right arrive first at the right ear; sounds to the left arrive first at the left ear.

In mammals there is a level difference in sounds at the two ears caused by the sound-shadowing effect of the head. But in many species of owls, level differences arise primarily for sounds that are shifted above or below the elevation of the horizontal plane. This is due to the asymmetry in placement of the ear openings in the owl's head, such that sounds from below the owl reach the left ear first and sounds from above reach the right ear first.[7] IID is a measure of the difference in the level of the sound as it reaches each ear. In many owls, IIDs for high-frequency sounds (higher than 4 or 5 kHz) are the principal cues for locating sound elevation.

Panning is the spread of a sound signal (either monaural or stereophonic pairs) into a new stereo or multi-channel sound field. A typical physical recording console pan control is a knob with a pointer which can be placed from the 8 o'clock dial position fully left to the 4 o'clock position fully right. Audio mixing software replaces the knob with an on-screen "virtual knob" or slider for each audio source track which functions identically to its counterpart on a physical mix console.

(Entiendo que el ‘panning’ o paneo se establece al efectuar la remasterización y poco podemos hacer al respecto).

La cancelación de crosstalk permite reproducir ITDs más allá de los límites del stereo.....lo cual puede ser bueno o malo.

Caso "malo."

En el caso de una grabación con paneos a base de pan-p
ot (A pan-pot is a simple, workaday knob, given to side-to-side flip-flopping) un paneo hacia un extremo esta limitado por el ITD correspondiente a 30º, en el momento de anular el crosstalk no tiene mas sentido ITD y la presentación pasa a ser diotica con un ILD (Interaural Level Difference, ver nota arriba) que tiende a infinito (cancelador ideal, o auriculares in-ears). En ese caso ocurre una lateralización antinatural y algo molesta. (paneos a lo Beatles en auriculares)....cosa que no llega a darse con canceladores de crosstalk reales por el simple hecho de que la sala aporta ambiencia con crosstalk a ITD=0 y un ILD más bajo, así se "naturaliza" bastante la situación. (no hay lateralización extrema).

Caso bueno.

Cuando las grabaciones encodean ITDs más allá del ITD para 30º. Pueden ocurrir dos cosas:

1- Que esos ITDs representen streams (instrumentos, por ejemplo),
2- O bien que representen reflexiones. (que desde luego se las puede definir como algún tipo de stream o substream)

En el primer caso la aplicación de un mecanismo de cancelación crosstalk permite una reproducción fiel de la escena original. En el segundo caso estamos en lo mismo, y se vuelve al dilema inicial de "ambiencia fiel Vs ambiencia subjetivamente preferida".

Si una reflexión proviene desde los 80-90º en azimuth
(When a signal is produced in the horizontal plane, its angle in relation to the head is referred to as its azimuth, with 0 degrees (0°) azimuth being directly in front of the listener, 90° to the right, and 180° being directly behind. If a signal arrives at the head from 90° azimuth, the signal has further to travel to reach the left ear than the right. ) , IACC toca una de sus cotas máximas e ITD= 700uS ( aprox). En función de las bases de preferencia subjetiva esa es una reflexión indeseada. (buena fidelidad, pero sonido "malo") (supongo que tiene mucho que ver con esto …)

Sound localization by the human auditory system

[1]

[edit] Lateral information (left, ahead, right)

For determining the lateral input direction (left, front, right) the auditory system analyzes the following ear signal information:

• Interaural time differences
Sound from the right side reaches the right ear earlier than the left ear. The auditory system evaluates interaural time differences from
- Phase delays at low frequencies
- group delays at high frequencies
• Interaural level differences
Sound from the right side has a higher level at the right ear than at the left ear, because the head shadows the left ear. These level differences are highly frequency dependent and they increase with increasing frequency.

For frequencies below 800 Hz, mainly interaural time differences are evaluated (phase delays), for frequencies above 1600 Hz mainly interaural level differences are evaluated. Between 800 Hz and 1600 Hz there is a transition zone, where both mechanisms play a role

[edit] Evaluation for low frequencies

For frequencies below 800 Hz the dimensions of the head (ear distance 21.5 cm, corresponding to an interaural time delay of 625 µs), are smaller than the half wavelength of the sound waves. So the auditory system can determine phase delays between both ears very precisely. Interaural level difference are very low in this frequency range, so that a precise evaluation of the input direction is nearly impossible on the basis of level differences. As the frequency drops below 80 Hz it becomes difficult or impossible to use either time difference or level difference to determine a sound's lateral source, because the phase difference between the ears becomes too small for a directional evaluation (i.e. the phase difference is great enough that the lagging wave sensed in the offside ear coincides with the next wave which is being sensed by the nearer ear).

[edit] Evaluation for high frequencies

For frequencies above 1600 Hz the dimensions of the head are greater than the length of the sound waves. An unambiguous determination of the input direction based on interaural phases is not possible at these frequencies. However, the interaural level differences become bigger, and these level differences are evaluated by the auditory system. Also, group delays between the ears can be evaluated; this is more pronounced at higher frequencies. This means, if there is a sound onset, the delay of this onset between both ears can be used to determine the input direction of the corresponding sound source. This mechanism becomes especially important in reverberant environment. After a sound onset there is a short time frame, where the direct sound reaches the ears, but not yet the reflected sound. The auditory system uses this short time frame for evaluating the sound source direction, and keeps this detected direction as long as reflections and reverberation prevent an unambiguous direction estimation.

The mechanisms described above cannot be used to differentiate between a sound source ahead of the hearer or behind the hearer; therefore additional cues have to be evaluated.

[edit] Sound localization in the median plane (front, above, back, below)

The human outer ear, i.e. the structures of the pinna and the external ear canal, form direction-selective filters. Depending on the sound input direction in the median plane, different filter resonances become active. These resonances implant direction-specific patterns into the frequency responses of the ears, which can be evaluated by the auditory system (directional bands). Together with other direction-selective reflections at the head, shoulders and torso, they form the outer ear transfer functions.

These patterns in the ear's frequency responses are highly individual, depending on the shape and size of the outer ear. If sound is presented through headphones, and has been recorded via another head with different-shaped outer ear surfaces, the directional patterns differ from the listener's own, and problems will appear when trying to evaluate directions in the median plane with these foreign ears. As a consequence, front–back permutations or inside-the-head-localization can appear when listening to dummy head recordings.

[edit] Distance of the sound source

The human auditory system has only limited possibilities to determine the distance of a sound source. In the close-up-range there are some indications for distance determination, such as extreme level differences (e.g. when whispering into one ear) or specific pinna resonances in the close-up range.

The auditory system uses these clues to estimate the distance to a sound source:

• Sound spectrum : High frequencies are more quickly damped by the air than low frequencies. Therefore a distant sound source sounds more muffled than a close one, because the high frequencies are attenuated. For sound with a known spectrum (e.g. speech) the distance can be estimated roughly with the help of the perceived sound.

• Loudness: Distant sound sources have a lower loudness than close ones. This aspect can be evaluated especially for well-known sound sources (e.g. known speakers).

• Movement: Similar to the visual system there is also the phenomenon of motion parallax in acoustical perception. For a moving listener nearby sound sources are passing faster than distant sound sources.

• Reflections: In enclosed rooms two types of sound are arriving at a listener: The direct sound arrives at the listener's ears without being reflected at a wall. Reflected sound has been reflected at least one time at a wall before arriving at the listener. The ratio between direct sound and reflected sound can give an indication about the distance of the sound source.

[edit] Signal processing

Sound processing of the human auditory system is performed in so-called critical bands. The hearing range is segmented into 24 critical bands, each with a width of 1 Bark or 100 Mel. For a directional analysis the signals inside the critical band are analyzed together.

The auditory system can extract the sound of a desired sound source out of interfering noise. So the auditory system can concentrate on only one speaker if other speakers are also talking (the cocktail party effect). With the help of the cocktail party effect sound from interfering directions is perceived attenuated compared to the sound from the desired direction. The auditory system can increase the signal-to-noise ratio by up to 15 dB, which means that interfering sound is perceived to be attenuated to half (or less) of its actual loudness.

[edit] Localization in enclosed rooms

In enclosed rooms not only the direct sound from a sound source is arriving at the listener's ears, but also sound which has been reflected at the walls. The auditory system analyses only the direct sound, which is arriving first, for sound localization, but not the reflected sound, which is arriving later (law of the first wave front). So sound localization remains possible even in an echoic environment.

In order to determine the time periods, where the direct sound prevails and which can be used for directional evaluation, the auditory system analyzes loudness changes in different critical bands and also the stability of the perceived direction. If there is a strong attack of the loudness in several critical bands and if the perceived direction is stable, this attack is in all probability caused by the direct sound of a sound source, which is entering newly or which is changing its signal characteristics. This short time period is used by the auditory system for directional and loudness analysis of this sound. When reflections arrive a little bit later, they do not enhance the loudness inside the critical bands in such a strong way, but the directional cues become unstable, because there is a mix of sound of several reflection directions. As a result no new directional analysis is triggered by the auditory system.

This first detected direction from the direct sound is taken as the found sound source direction, until other strong loudness attacks, combined with stable directional information, indicate that a new directional analysis is possible. (see Franssen effect)

http://en.wikipedia.org/wiki/Sound_loca ... ory_system

Podría ser preferible secuenciar las reflexiones desde ángulos tales que IACC sea mínimo. (50-60º).
Esto se puede lograr manipulando el layout
(disposición) de la sala y posicionamiento de los altavoces principales, o bien con altavoces de ambiencia ubicados en esos ángulos.

Luego la sigo, volviendo al primer caso (ITDs que "representan" streams).

Saludos.
hiendaudio
Mensajes: 573
Registrado: Mié 23 Jun 2004 , 19:08
Contactar:

Mensaje por hiendaudio »

Volviendo al tema.

http://www.amazon.com/Acoustics-Hearing ... 418&sr=8-7

Aquí para bajar.

http://avaxhome.ws/ebooks/engeneering_t ... aring.html

Desconozco la razón pero el precio en Amazon fluctúa constantemente. Yo lo compre a 13.5dls, a la semana vuelta a los 70 y pico.....ahora esta a 6,23dls :evil:

No se que algoritmo usa Amazon para definir descuentos.....pero algo raro hay, porque ya son varios los libros que "pongo en favoritos" y luego puedo ir viendo como los precios varían mucho en poco tiempo.

Vale la pena tenerlo en papel. No hay una carilla que no sea interesante leer, esta escrito de un modo muy sencillo, y se lee en un rato (120pag). Es relevante al tema del post.
Avatar de Usuario
atcing
Mensajes: 9260
Registrado: Dom 13 Feb 2005 , 20:48

Mensaje por atcing »

Ya veo que le estás sacando partido a la web :lol:


Un saludete
hiendaudio
Mensajes: 573
Registrado: Mié 23 Jun 2004 , 19:08
Contactar:

Mensaje por hiendaudio »

Cuando las grabaciones encodean ITDs más allá del ITD para 30º. Pueden ocurrir dos cosas:

1-Que esos ITDs "representen" streams (instrumentos, por ejemplo),
Ya vimos como una de las diferencias más relevantes que aporta una cancelación de crosstalk es que permite reproducir correctamente ITDs registrados en grabaciones.

Puede ser interesante saber si las grabaciones tienen registrados ITDs más allá de los que permite reproducir en sistema stereo convencional.:wink:

Dejando de lado las producciones en donde se usa multi mic y pan-pot, que son la mayoría, y de lo cual ya se habló, vamos a ver que pasa con las grabaciones que por su naturaleza pueden contener ITDs más allá de lo que permite reproducir el stereo convencional. (recordar que estoy haciendo referencia solo a ITDs aplicados a "streams principales", osea instrumentos o secciones de los mismos, y no a reflexiones, etc)

Una de los principales problemas de usar técnicas de microfoneo stereo del tipo "head related" (básicamente near-coincident, o técnicas en donde el stereo esta encodeado por ITDs e ILDs) es que en sitios relativamente reverberantes y de reducido tamaño (a igual RT, la ambiencia esta a un nivel más alto que en un sitio más grande, osea menos D/R ratio.) es el siguiente:

La grabación ha de ser hecha con un D/R ratio lo suficientemente correcto para que suene bien en un sistema Stereo, lo cual implica, casi como norma, un D/R mucho más alto que el que se tolera para una buena escucha en vivo, in situ. (por todas las cuestiones que venimos hablando de diferencias en percepción binaural), así las cosas los micrófonos han de colocarse relativamente cerca de los interpretes (En gral mucho más cerca del punto que elegiríamos para escuchar in situ, salvo David. jaja)

Así las cosas no es de extrañar que con una agrupación mediana en escenario el ángulo entre los micrófonos y el los límites de la escena sean mayores a 60º.

Cuando hay un solo stream, o uno mucho más relevante de ser escuchado que otros, si el ITD no es cero, y más si es muy distinto de ITD=0, se tiende a activar un mecanismo de NFB (realimentación negativa) que lo corrige a 0. Ese mecanismo no es más que la tendencia a mover la cabeza hasta que el sonido quede centrado en la normal. Evolutivamente la percepción bimodal resulta muy ventajosa, y por tanto tiene todo sentido que se haya desarrollado así. En esa secuencia de NFB la vista queda puesta en el objeto y nuestro cerebro cuenta con más información para pintar nuestra realidad, de un modo más parecido a como en realidad es. O al menos la pinta de un modo que nos pueda resultar ventajoso, más allá de la fidelidad. (si no hubiese filtros basados en organización perceptual no tendría demasiado sentido pintar una escena fiel. No sería evolutivamente mucho más ventajoso que contar con sentidos muy básicos. Sin organización perceptual y filtrado acorde, no habría mucha diferencia entre un ojo que solo pueda ver "manchas de luz" y uno que tenga la capacidad de un ojo avanzado.)

Todo el desvarío neodarwiniano y psicológico es para decir que resulta fastidioso tener que mover la cabeza en un espectáculo musical. Desde luego a ningún director en juicio se le va a ocurrir ubicar al concertino en el vértice del escenario, pero aun así, y dependiendo de la obra, puede resultar incomodo escuchar ciertos instrumentos en determinados ángulos, más allá de los cuales habría que mover los ojos o la cabeza para poder verlos claramente. (Con ciertos instrumentos me refiero a aquellos con timbre muy diferente del resto, ya que el timbre es uno de los principios de agrupación perceptual que permite separar o juntar streams. Si un stream es claramente segregado, y por algún factor tiene relevancia por sobre el resto, se tiende a activar el mecanismo de NFB para maximizar percepción bimodal: Osea, mirar de donde viene el sonido)

Desde luego estoy suponiendo el caso "incomodo", aunque por supuesto pueden haber "jueguitos espaciales" con streams claramente diferenciados que resulten interesantes.

En general, y salvo que se este muy cerca del escenario y con una sinfónica grande por delante no se dan ángulos "incómodos".

Imagen

En función de esta gráfica que encontré en 10s de Google, se ve que se comienza a perder "resolución" visual a partir de los +/-10º. No hay que ser ninguna luz para suponer, y correctamente, que si se quiere ver algo con cierto grado de detalle se lo debe mirar con un ángulo cercano a 0º. Otra vez se pone a andar NFB y se gira la cabeza.
Si suponemos que la "resolución" con las que nos interesa ver algo es una función monótona creciente respecto de la relevancia que puede aportar ver el objeto, y si lo que desencadena mirar el objeto no es más que información auditiva, se puede decir que cuanto más relevante sea la información auditiva, más relevante va ser mirar que es lo que esta causando el sonido. Nunca pongáis al concertino en la parrilla de luces si no queréis que le gente mire hacia arriba en el momento del solo.. :lol:

Dicho todo esto, MI opinión es que se debe de tener cuidado en la distribución azimutal de instrumentos, sobre todo cuando estos, ya sea por timbre o intensión musical, se segregan en streams bien diferenciados.

...Continua.
Avatar de Usuario
atcing
Mensajes: 9260
Registrado: Dom 13 Feb 2005 , 20:48

Mensaje por atcing »

O sea que aparte de esa cierta coloración que produce una cancelación de crosstalk resulta que además:
Caso "malo."

En el caso de una grabación con paneos a base de pan-pot un paneo hacia un extremo esta limitado por el ITD correspondiente a 30º, en el momento de anular el crosstalk no tiene mas sentido ITD y la presentación pasa a ser diotica con un ILD que tiende a infinito (cancelador ideal, o auriculares in-ears). En ese caso ocurre una lateralización antinatural y algo molesta. (paneos a lo Beatles en auriculares)....cosa que no llega a darse con canceladores de crosstalk reales por el simple hecho de que la sala aporta ambiencia con crosstalk a ITD=0 y un ILD más bajo, así se "naturaliza" bastante la situación. (no hay lateralización extrema).
Dejando de lado las producciones en donde se usa multi mic y pan-pot, que son la mayoría, y de lo cual ya se habló, vamos a ver que pasa con las grabaciones que por su naturaleza pueden contener ITDs más allá de lo que permite reproducir el stereo convencional. (recordar que estoy haciendo referencia solo a ITDs aplicados a "streams principales", osea instrumentos o secciones de los mismos, y no a reflexiones, etc)
:evil:

Estoy de acuerdo esnque muchas grabaciones escuchadas a través de auriculares suenan demasiado "abiertas"


Un saludete
hiendaudio
Mensajes: 573
Registrado: Mié 23 Jun 2004 , 19:08
Contactar:

Mensaje por hiendaudio »

...Continuando.

Hace unos 8 años hice una grabación con dos SM57 en ORFT ( si, si...con dos 57). en la grabación iba yo caminado de un lado al otro frente a los mics, haciendo algunos sonidos ex profeso.
Con auriculares la escena abría muchísimo, y causaba cierta impresión.
Me acuerdo que se la hice escuchar la la hermana de un amigo, a ojos cerrados :evil:, y era llamativo como se veía, a través de sus parpados, como se le movían los globos oculares "trackeando" la escena auditiva.

Yo no panearía más allá de los +/-20-30º streams bien segregados del resto. Salvo con intensionalidad estética si tiene sentido. (lo que no es muy común).


Volviendo al tema de grabar con técnicas near-coincident, en sitios que requieren mucha cercanía a la fuente.....

Cuando se graba, a menos que se lo haga con fines experimentales, se debe buscar cierta compatibilidad con el stereo. Por tanto, streams con aperturas de mucho más de +/-30º se suelen evitar.
Esto es porque de otro modo toda la apertura "extra"se solapa en los bordes de la escena limitada a +/-30º.

Se sabe que el MAA (mínima diferencia de ángulo audible) es bastante mayor a medida que se sale de la normal. Es decir podemos diferenciar ángulos menores a 0º que a 90º.

Si una escena de ángulo alpha se solapa en los bordes de un ángulo beta=+/-30º ocurre que que todos los streams que tenían cierta diferencia angular pasan a no tenerla, o a tener una mucho más chica. Ello puede implicar que la diferencia de ángulo para dos streams que flanquean a un ángulo de 30º sea menor a la MAA.

Uno de los mecanismos de segregación de streams es el espacial. Si la diferencia espacial entre dos streams es < a MMA, no hay segregación alguna por mecanismos espaciales, lo cual implica que al anular una vía de segregación los otros mecanismos deberán ser más "fuertes" para que el stream sea segregado.

En castellano: Es más simple reconocer instrumentos cuando están correctamente separados espacialmente, All solapar todo a los bordes de +/-30º se produce un empaste tal que se dificulta o se hace imposible separar instrumentos de timbre similar haciendo lineas musicales que tiendan a una agrupación perceptual. (armonía, por ejemplo)

Si no se puede alejar la microfonía por cuestiones de bajo D/r ratio, hay que cambiar de técnica a una tal que cierre la escena y permita una reproducción aceptable en stereo. Así es como se suele grabar, sea para bien o para mal.

Dicho esto, al disfrutar de grabaciones, si estas están hechas con un solido fundamento del funcionamiento del stereo y de la audición binaural no creo fundamental aplicar una cancelación de crosstalk desde el punto de vista de ampliar el espectro de ITDs reproducibles. (la apertura de la ambiencia es otro tema). Desde luego el mundo real (las grabaciones que se compran) pueden originar resultados muy diferentes.

Espero se haya entendido algo....

Saludos.
Última edición por hiendaudio el Lun 31 May 2010 , 2:10, editado 3 veces en total.
hiendaudio
Mensajes: 573
Registrado: Mié 23 Jun 2004 , 19:08
Contactar:

Mensaje por hiendaudio »

Estoy de acuerdo esnque muchas grabaciones escuchadas a través de auriculares suenan demasiado "abiertas"
Pero también es cierto que los canceladores de crosstalk reales en salas reales no lateralizan como un auricular.
hiendaudio
Mensajes: 573
Registrado: Mié 23 Jun 2004 , 19:08
Contactar:

Mensaje por hiendaudio »

y era llamativo como se veía, a través de sus parpados, como se le movían los globos oculares "trackeando" la escena auditiva.
Osea, aun si estimulo a la retina, existe la activación de algún centro neural que controla los músculos de los ojos. (que no se si es el cortex visual ¿?).

Puede parecer increíble, pero con un paneo adecuado (o inadecuado, según el caso) y un stream auditivo correctamente diferenciado se puede actuar sobre los patrones de atención.

http://hera.ugr.es/tesisugr/18096207.pdf

http://www.psicothema.com/pdf/1190.pdf

:evil: :evil: :evil:
Última edición por hiendaudio el Lun 31 May 2010 , 4:07, editado 2 veces en total.
hiendaudio
Mensajes: 573
Registrado: Mié 23 Jun 2004 , 19:08
Contactar:

Mensaje por hiendaudio »

The auditory system can extract the sound of a desired sound source out of interfering noise. So the auditory system can concentrate on only one speaker if other speakers are also talking (the cocktail party effect). With the help of the cocktail party effect sound from interfering directions is perceived attenuated compared to the sound from the desired direction. The auditory system can increase the signal-to-noise ratio by up to 15 dB, which means that interfering sound is perceived to be attenuated to half (or less) of its actual loudness.
Eso se llama BMLD y BILD, que significa Binaural Masking Level Difference y Binaural Intelligibility Level Difference respectivamente.

Hacen referencia a las diferencias en los umbrales de enmascaramiento y de intelegibilidad según como se presente (binauralmente hablando) el estimulo deseado (S, de señal) y el estimulo indeseado (N de noise).

En las pruebas psicoacústicas realizadas con auriculares la nomenclatura es:

S= Signal
N= Noise

m= Presentación mono-otica ( a un solo oido)
0= Presentación diotica sin diferencia de fase
= Presentación diotica con diferencia de fase.
= Presentación diotica sin correlación interaural (IACC muy bajo)
τ= Presentación diotica con ITD distinto de 0.

Así, por ejemplo, NmSm=0dB, mientras que NoSm=6-9dB, y NSo=9-12dB.

Este es el lenguaje que se usa en psicoacústica, pero bien podríamos, a fines más prácticos respecto del tema del post, cambiar algunas letras.

Por ejemplo, S pasa a ser D (de sonido directo) y N a R (de reverberación o ambiencia).

Así:

DmRm < DoRo < DoR

Que viene a representar lo que decía al comienzo de la discusión, es decir que cuando la ambiencia (o reverb) esta decorrelada se percibe un mayor D/R ratio. Se podría definir BRLD, o Binaural Reverb Level Difference. (esta nomenclatura la estoy inventando ahora, así que no lo busquéis, de cualquier modo el fenómeno es el mismo.)

Slds.
hiendaudio
Mensajes: 573
Registrado: Mié 23 Jun 2004 , 19:08
Contactar:

Mensaje por hiendaudio »

http://en.wikipedia.org/wiki/Coincidenc ... urobiology

Imagen

El modelo de Jeffres de detección de ITDs.

En el Spatial Hearing hay un modelo algo más detallado en donde se suponen neuronas a modo de puertas AND (puerta digital de producto lógico. O lo que es lo mismo, las dos entradas han de estar en 1 para que haya salida 1). Así además de la linea de retardo (puntos marcados como 1,2,3,4...en la foto) que se conecta a una de la entradas de la AND, se conecta la otra entrada de la puerta a lo que llega desde la otra oreja. De esta manera hay salida en la AND (asignación azimutal a un ángulo) cuando los trenes de pulsos están en fase, cosa que ocurre solo cuando coincide el retardo de una neurona con el ITD ( los dos pulsos quedan en fase y dan salida activa.) Si se conecta cada salida neural a un mapa espacial se tiene resuelto el tema localización azimutal.

No deja de ser similar (muy similar) al principio de beam steering electrónico (que en su versión más básica es beamformer sum and delay)

Un bio-crosscorelator.:shock: La función de correlación cruzada es básicamente la multiplicación de dos funciones f(t) y g(t) a una de las cuales se le agrega un delay quedando f(t)*g(t+T). Cuando T (el delay) es similar a lo que se conoce como TDOA (diferencia en el tiempo de arribo, que en nuestro caso sería un ITD) la correlación es alta. Dicho de otro modo: si la correlación es alta es que se ha dado con un T tal que T=TDOA, osea que se ha identificado TDOA. Si se conoce la geometría del array (en nuestro caso los dos tímpanos) se ha identificado de donde viene el sonido.

Neurobiología y telecomunicaciones para explicar lo que pasa cuando un mamonazo decide tocar el pan-pot. Too much.:evil: :evil: :evil:

http://en.wikipedia.org/wiki/Beamforming.
http://en.wikipedia.org/wiki/Cross-correlation
Avatar de Usuario
pitufo_sordo
Mensajes: 628
Registrado: Mié 18 Feb 2009 , 9:28
Ubicación: Poblado pitufo en Barcelona

Mensaje por pitufo_sordo »

Apéndice: Auralizaciones con CARA y hechas con el culo (con perdón).

Niñoo!!! No digas palabrotas !!! A ver si voy a tener que lavarte la boca con jabón !!!.

Tranquila abuela !!! Que estoy con los amigos del foro !!!

Esos ???, esos lo que son es una panda de (piiiiiiii/censurado) !!!

Perdonad !!! , es que mi abuela estaba chafardeando y, ya se sabe como son las abuelas …

Los que hayáis seguido más o menos este hilo, especialmente al principio, donde trasteábamos con CARA (Computer Aided Room Acoustics), sin duda comprobasteis que había una 'utilidad' a la que no hice mención en ese momento, ya que no me pareció fundamental para el desarrollo del mismo.

Sin embargo, y especialmente con la intervención del maestro Hiendaudio (sobre todo en la página 11 y siguientes), me quedo el gusanillo de las auralizaciones.
hiendaudio escribió:Si se pretende auralizar y se simplifica mucho (además de otros errores de método) lo más normal es que pase lo de las muestras.....es decir, una reverb espantosa que no le gusta a nadie. jjaja.
Bueno, ya somos conscientes de que muy bien no vamos a hacerlo, pero, por trastear que no quede. :wink:
Última edición por pitufo_sordo el Vie 04 Jun 2010 , 17:55, editado 2 veces en total.
Avatar de Usuario
pitufo_sordo
Mensajes: 628
Registrado: Mié 18 Feb 2009 , 9:28
Ubicación: Poblado pitufo en Barcelona

Mensaje por pitufo_sordo »

Veamos, para los despistados, empecemos por el principio:

Que es la auralización ?

Es una de las herramientas más poderosas utilizadas por los profesionales acústicos.

Básicamente esta técnica permite obtener una señal audible a modo de simulación de un ambiente sonoro en particular, permitiendo así experimentar una realidad auditiva virtual.

En forma general, la auralización se obtiene gracias a la previa creación y/o medición de señales digitales audibles; correspondientes al ambiente que se desea simular, y su respectivo procesamiento posterior.

Por supuesto que dichas señales deben contener la mayor cantidad de información posible sobre los parámetros acústicos de la fuente sonora y el medio por el cual se estaría propagando tal sonido con el fin de obtener una simulación lo más fiel posible a la situación real.

Son dos las maneras más utilizadas para conseguir la simulación, estas son la técnica convolutiva y la técnica de reverberación digital. (Solo vamos a ocuparnos de la primera).

Para ambos casos se requiere obtener la señal de respuesta al impulso (IR) del sistema en cuestión (específicamente en uno o dos puntos en dónde se quiere simular) obtenida a partir del Software de simulación que considera los parámetros mencionados anteriormente.

Si se quiere realizar una auralización binaural, dichos dos puntos deben corresponder a la ubicación de los dos oídos.

Para el primer caso, la señal auralizada se obtiene de la convolución de la señal de respuesta al impulso con la señal correspondiente al sonido que se quiere auralizar grabada en ambiente anecoico.

En algunos casos, para lograr mayor exactitud, se convoluciona además con un conjunto de funciones de transferencia relativas a la cabeza que contienen información sobre el cuerpo, cabeza y oídos, y que modifican la respuesta frecuencial del sonido que llega desde diferentes ángulos.

El ‘proceso’ es el siguiente:

Imagen

(No os hagais ilusiones respecto a mis capacidades, lo he obtenido de aquí: http://www.ceasonido.cl/2010/02/auralizacion/ )
Última edición por pitufo_sordo el Vie 04 Jun 2010 , 17:59, editado 1 vez en total.
Avatar de Usuario
pitufo_sordo
Mensajes: 628
Registrado: Mié 18 Feb 2009 , 9:28
Ubicación: Poblado pitufo en Barcelona

Mensaje por pitufo_sordo »

A ver: Si hemos hecho los deberes antes, con CARA ya tenemos creado el ‘Modelo 3-D’ de nuestra sala.

Además, el propio CARA nos permite crear el ‘IR espacial’ de la misma.

Y como ‘señal anecoica’ podemos usar el ‘Cuarteto de Cuerda No. 12 de Dvorak’ que bajamos de aquí: http://www.concerthalls.unomaha.edu/dis ... baural.htm , que usamos en el apartado de los tiempos de reverberación y que tanta polémica causo después … :twisted: :twisted: :twisted:
Última edición por pitufo_sordo el Vie 04 Jun 2010 , 18:19, editado 1 vez en total.
Avatar de Usuario
pitufo_sordo
Mensajes: 628
Registrado: Mié 18 Feb 2009 , 9:28
Ubicación: Poblado pitufo en Barcelona

Mensaje por pitufo_sordo »

Al tajo …

Iniciamos CARA y cargamos la sala que previamente habremos creado …

Imagen

Antes de hacer nada, debemos obtener la señal de respuesta al impulso (IR) de la sala.

Para ello ‘Calculations’ y ‘Auralization…’

Imagen

Dejamos ‘Total Set of Loudspeakers’ y pulsamos ‘Start’ …

Imagen

Después de unos momentos, ya tendremos los cálculos hechos, pulsamos ‘Close’ …

Imagen
Avatar de Usuario
pitufo_sordo
Mensajes: 628
Registrado: Mié 18 Feb 2009 , 9:28
Ubicación: Poblado pitufo en Barcelona

Mensaje por pitufo_sordo »

Antes de poder ‘aplicarlo’ donde convenga, debemos grabar esta 'respuesta de la sala' como fichero con extensión .wav, veamos …

Pulsamos ‘Results’ y ‘Auralization: Room Resp…’ …

Imagen

Lo dejamos todo por defecto y pulsamos ‘Create wave File’ …

Imagen

Le damos un nombre descriptivo y pulsamos ‘Guardar’, fijaos que el impulso será guardado (por defecto) en la carpeta ‘ROOMECHO’ (subcarpeta dentro de la carpeta de CARA) …

Imagen

Bien !!! Todo listo para la auralización …
Última edición por pitufo_sordo el Vie 04 Jun 2010 , 18:27, editado 1 vez en total.
Avatar de Usuario
pitufo_sordo
Mensajes: 628
Registrado: Mié 18 Feb 2009 , 9:28
Ubicación: Poblado pitufo en Barcelona

Mensaje por pitufo_sordo »

Allá vamos !!!

Pulsamos ‘Results’ y ‘Auralization: Music’ …

Imagen

En ‘Wave File: Orig. Sample’, debemos introducir la ‘señal anecoica’, es decir, el ‘Cuarteto de Cuerda No. 12 de Dvorak’ …

En ‘Wave File: Room Resp’, debemos introducir el ‘IR espacial’ de nuestra sala y que acabamos de generar, así …

Imagen

Con todo listo, pulsamos ‘Sound Processing’ …

Cuando acabe, pulsamos ‘Save’ …

Igual que antes, nombre descriptivo y ‘Guardar’ (Fijaos en que carpeta lo mete, por supuesto, podeis 'ponerlo' en otra) …

Imagen

Buen trabajo !!!
Avatar de Usuario
pitufo_sordo
Mensajes: 628
Registrado: Mié 18 Feb 2009 , 9:28
Ubicación: Poblado pitufo en Barcelona

Mensaje por pitufo_sordo »

Si pulsamos ‘Play’ …

Imagen

El propio CARA nos permite comparar el original (1) y la ‘auralización’ (2); es conveniente ajustar individualmente el volumen para cada pista y así obtener una comparación más precisa …

El ‘Cuarteto de cuerda …’ original …

Imagen

… y el ‘auralizado’, según mi sala y posición cajas/oyente…

Imagen

Sencillamente, seleccionar la pista deseada y pulsar ‘Start’.

Bueno, bueno, menudo rollo !!!

Y que utilidad tiene esto para nosotros ?

Mucha; siempre nos estamos preguntando: como sonaría nuestro equipo si … ?

Las buenas noticias: Ahora tenemos una nueva herramienta para modificar prácticamente cualquier configuración, disposición o parámetro de la sala, a golpe de ratón …

Las malas noticias: Es solo una simulación, con las limitaciones que ello comporta.

Dejadme que trastee un poco con el programa y que creé unas cuantas salas, después subiré los ‘wav’ generados/simulados y veremos que pasa.

Cualquier comentario o aclaración, será bienvenido, por supuesto …

Saludos.
Responder