Las personas son conscientes del contenido emocional de la voz de otra persona, independientemente de que el hablante tenga o no la intención de transmitir esa emoción.
La intencionalidad emocional se comunica a través de señales vocales como el tono, el volumen y la velocidad del habla.
nn
La voz y la emoción están intrínsecamente relacionadas. Cuando hablamos, el tono, el volumen y otras cualidades de nuestra voz pueden transmitir nuestras emociones.
nn
Las personas han aprendido a controlar estas sutiles señales para calibrar lo que piensan y sienten los demás, tanto en la conversación directa con ellos como al escucharlos hablar.
nn
La voz humana es capaz de transmitir una amplia gama de emociones -como la felicidad, la tristeza, la ira, la sorpresa, el miedo y el asco-, así como un conjunto más complejo de estados emocionales.
nn
Las personas pueden identificar emociones positivas, como el amor o la diversión, a partir de una grabación de sólo cinco segundos de la voz de una persona.
nn
También identificaron emociones negativas como el asco y el desprecio con una precisión similar tras escuchar sólo cinco segundos de la voz de una persona.
n
Cambios inadvertidos
n
Un equipo de del Centro Nacional de Investigación Científica (CNRS), Francia han creado una plataforma de audio digital que puede modificar el tono emocional de las voces de las personas mientras hablan.
nn
«Nuestro enfoque se basa en el modelado de respuestas fisiológicas y es diferente de los modelos de síntesis de voz anteriores», dice el autor principal, Jean-Julien Aucouturie
nn
«Modelamos no sólo el movimiento de las cuerdas vocales, sino también la respuesta aerodinámica en la cavidad oral y los senos paranasales».
nn
Los investigadores probaron su sistema con 12 participantes a los que se les pidió que leyeran un guion con su voz normal y de nuevo mientras hablaban con su voz manipulada para que sonara alegre, triste o temerosa.
nn
Utilizando unos auriculares y un software de alteración de la voz, los investigadores hicieron que algunos participantes sonaran más felices y otros más tristes mientras leían una historia corta en voz alta.
n
Al escuchar su voz alterada, los voluntarios del estudio afirmaron sentirse más felices o tristes en función de cómo sonaba su voz.
nn
Esto indica que las personas no siempre controlan su propia voz para alcanzar un objetivo concreto -como parecer seguras de sí mismas-, sino que escuchan su propia voz para saber cómo se sienten.
nnn
El estudio también demostró que las personas cambian inconscientemente sus expresiones faciales y su lenguaje corporal para adaptarse a la emoción de sus propias voces manipuladas.
n
Emociones y sus usos
n
El contenido emocional de las conversaciones cotidianas aumenta notablemente cuando interviene la voz humana.
nn
Cuando se trata de hablar, la voz es el canal dominante para la expresión emocional, y la prosodia de la voz contribuye significativamente a la regulación de las emociones.
nn
Las investigaciones sobre el impacto emocional de los distintos patrones de entonación han demostrado que las personas tienden naturalmente a utilizar la voz emocional para transmitir emociones positivas y negativas, lo que probablemente sea una adaptación evolutiva que facilita la interacción interpersonal.
nn
La importancia de la voz humana para la comunicación emocional también se confirmó en estudios con pacientes que sufren disfonía, que mostraron reacciones emocionales significativamente reducidas ante estímulos con carga emocional en comparación con los individuos sanos.
n
Estos resultados respaldan el papel de las señales vocales humanas en la transmisión de emociones y sugieren que incluso pequeños cambios en la prosodia pueden tener un impacto significativo en la regulación de las emociones en la vida diaria.
nn
La emoción es un fenómeno polifacético y complejo; está fuertemente interrelacionada con la personalidad, la cognición, la motivación, la fisiología y la cultura.
nn
Aunque la emoción suele ser un componente importante de la vida cotidiana y de nuestras interacciones sociales, muchas personas consideran que la emoción es un componente negativo que preferirían evitar.
nn
Las aplicaciones potenciales de la emoción inducida artificialmente son diversas.
nn
Articulo relacionado: La personalidad de tu voz.
n
Uso en el futuro
n
Los experimentos han demostrado que la actitud de una persona puede verse influida por el tono de voz utilizado para presentar un argumento, por lo que es razonable suponer que una máquina podría influir en el estado de ánimo de una persona de forma similar.
nn
De hecho, ya existe la «síntesis emocional del habla». Ya es posible que los ordenadores modifiquen su voz en función de las emociones, e incluso existen programas para modificar las voces de los juegos en línea.
nn
También se puede imaginar que esta tecnología podría tener aplicaciones terapéuticas, por ejemplo, para tratar los trastornos del estado de ánimo, o tal vez de forma más directa, narrando recuerdos afectivos o acontecimientos del pasado con un tono emocional modificado.
nn
Por supuesto, también se podría mejorar el impacto emocional de los karaokes o de las actuaciones de canto en directo utilizando esta tecnología.
nn
En el futuro podríamos utilizar la tecnología para cambiar nuestro estado emocional con el fin de mejorar nuestro bienestar o realizar una tarea más fácilmente.
nn
Podríamos utilizar la tecnología para inducir emociones positivas que promuevan la creatividad, el trabajo en equipo, la confianza y la empatía; esto podría hacernos más exitosos en las relaciones personales y profesionales.
nn
La capacidad de controlar las propias emociones puede ser beneficiosa para diversas aplicaciones (por ejemplo, terapias psicológicas). Incluso se podría imaginar el uso de tecnologías que induzcan emociones para la expresión artística o las prácticas espirituales (por ejemplo, la meditación).
nn
Es probable que veamos la aparición de nuevos campos de investigación y aplicación a medida que la ciencia de la inducción de emociones se desarrolle más.
n
Referencia
https://www.pnas.org/content/113/4/948 Aucouturier et al 2016: https://doi.org/10.1073/pnas.1506552113