Оооо .. Я думал об этом материале. Мы все знаем, что мы звучим не так, как слышим о нашем собственном голосе. Легко узнать, как другие нас слышат, записав себя и послушав это.
А как же наоборот?
Есть ли способ преобразовать наш голос так, чтобы другие могли слышать нас, когда мы воспринимаем наш собственный голос? Я считаю это довольно интересным вопросом. К сожалению, я не смог ничего найти в Интернете после пары поисков в Google. Никто не думал об этом или это невозможно по какой-то причине, которую я не вижу?
Любые выводы по этому вопросу будут оценены :).
signal-analysis
audio
transform
Dunkingdev
источник
источник
Ответы:
Это не невозможно, но прогулка в парке тоже не будет.
То, что вы пытаетесь сделать, это добавить к голосовому сигналу те вибрации, которые доставляются к уху через кости и не доступны никому другому.
Но это легче сказать, чем сделать точным способом.
Распространение звука в среде очень сильно зависит от его плотности . Звук распространяется со скоростью ~ 1500 м / с в воде и с меньшим рассеиванием, чем в воздухе (~ 340 м / с). Кость плотнее воздуха, поэтому звук должен проходить быстрее через кость. Это означает, что «ваш» звук начинает сначала возбуждать ваши уши, а затем звук, который вы воспринимаете через «нормальный» воздушный канал. В действительности, кость имеет внутреннюю структуру, которая может влиять на то, как различные частоты проходят через нее, но в диапазоне частот, о котором мы говорим, возможно, мы можем рассматривать ее как эквивалентное тело. Это может быть только приблизительно, потому что любая попытка измерения должна быть инвазивной, но также и потому, что слух субъективен.
Слух или восприятие звука являются ОГРОМНЫМ источником трудностей здесь. Само ухо, внешнее ухо (видимая часть), канал и внутренний механизм работают вместе очень сложным образом. Это предмет психоакустики . Одним из примеров этой сложной обработки являются фантомные тона, когда мозг заполняет вещи, которые должны быть там. Сам мозг, возможно, уже разработал способы выделения самогенерируемого сигнала, которые нам пока недоступны.
Но упрощенный ( упрощенный! ) Способ засвидетельствовать разницу между тем, чтобы быть слушателем вашего собственного звука, а не таков:
Запишите короткое и простое слово (например, «Рыбная кость», слово, имеющее как низкие частоты (b, o, n), так и высокие частоты (F, sh, i, e)) с небольшим количеством тишины и проведите его через эквалайзер через ваши наушники. Начните воспроизведение и синхронизируйте свое произнесение слова с записью (что-то вроде «Fishbone ... Fishbone ... Fishbone ...»). Теперь попробуйте поиграть с эквалайзером, пока то, что вы слышите, и то, что вы произносите, не будут достаточно похожи.
На этом этапе настройки эквалайзера будут представлять разницу между звуком и тем, что он воспринимает через вас, и теоретически любая другая речь, проходящая через этот эквалайзер, будет имитировать то, как она поступает к вашим ушам, как если бы вы генерировали ее с помощью источник внутри вашего тела.
Надеюсь это поможет.
источник
Самая практическая попытка, о которой я знаю, это Won and Berger (2005) . Они одновременно записывали вокализации в устье с помощью микрофона и на черепе с помощью самодельного виброметра. Затем они оценили соответствующие передаточные функции с помощью линейного прогнозирующего кодирования и кепстрального сглаживания.
источник
Прежде чем разочароваться, позвольте мне предложить вам другой подход.
На мой взгляд, у вас есть две очень разные части: знание эквалайзера (индивидуально для каждого человека) и применение его к определенному сигналу (вашему голосу).
1-я часть: модель внутренней системы слуха человека
Есть профессионалы, которые работают для сбора данных об этом, стандартизации этого процесса и так далее. Afaik, есть усилия по разработке мер и графиков за пределами классической аудиограммы (которая измеряет воздушные и костные сигналы). Некоторые из них являются «тестами на слух» (более субъективными, но также и интересными).
Совместите с этими профессионалами. Если вы следите за их работой, вам просто нужны их результаты. Пусть они делают тяжелую работу. Они знают свою роль, что заняло у них десятки лет исследований. Они продвигаются в знаниях, которые вам нужны. Который является: своего рода аудиограмма, чтобы измерить, как кто-то слышит «внутри». Бьюсь об заклад, они это график. И вам просто нужен этот график.
2 часть: симуляция
Я сделал нечто похожее на то, что вы пытаетесь сделать. Из аудиограммы любого человека вы можете услышать, как он сам. Это делается с помощью ffmpeg. Вы можете проверить это здесь: comomeoyes.com
По сути, вы записываете свой голос, а алгоритм уравнивает его с вашей персонализированной аудиограммой. Таким образом, вы можете ввести аудиограмму человека с потерей слуха и самостоятельно прослушать, как он вас слышит.
Я понимаю, что вы хотели бы сделать то же самое, но с другой аудиограммой, которая моделирует, как внутренняя слуховая система выравнивает звук.
Могу поспорить, что такая аудиограмма уже может существовать, и аудиологи, медики, врачи в области оториноларингологии, исследователи и другие могут обсуждать вопрос о том, какие акустические тесты необходимо выполнить, чтобы получить данные, необходимые для моделирования полезного графика из измерений.
Удачи. Ваша попытка может помочь другим.
источник