Częstotliwość odbierana przez ludzkie ucho. O zakresie częstotliwości, który słyszy ludzkie ucho

Ludzki słuch

Przesłuchanie- zdolność organizmów biologicznych do odbierania dźwięków za pomocą narządu słuchu; specjalna funkcja aparatu słuchowego, wzbudzana wibracjami dźwiękowymi środowisko jak powietrze czy woda. Jedno z biologicznych odczuć na odległość, zwane też percepcją akustyczną. Dostarczane przez słuchowy system sensoryczny.

Ludzki słuch jest w stanie usłyszeć dźwięki o częstotliwości od 16 Hz do 22 kHz przy przekazywaniu wibracji w powietrzu i do 220 kHz przy przekazywaniu dźwięku przez kości czaszki. Fale te mają ważne znaczenie biologiczne, na przykład fale dźwiękowe w zakresie 300-4000 Hz odpowiadają ludzkiemu głosowi. Dźwięki powyżej 20 000 Hz mają niewiele wartość praktyczna, ponieważ szybko zwalniają; wibracje poniżej 60 Hz są odbierane przez zmysł wibracyjny. Zakres częstotliwości, które dana osoba może usłyszeć, nazywa się słuchem lub zakres dźwięku; wyższe częstotliwości nazywane są ultradźwiękami, a niższe infradźwiękami.

Umiejętność rozróżniania częstotliwości dźwięku silnie zależy od konkretnej osoby: jej wieku, płci, dziedziczności, podatności na choroby narządu słuchu, wytrenowania i zmęczenia słuchu. Niektórzy ludzie są w stanie odbierać dźwięki o stosunkowo wysokiej częstotliwości - do 22 kHz, a być może wyższej.
U ludzi, podobnie jak u większości ssaków, narządem słuchu jest ucho. U wielu zwierząt percepcja słuchowa odbywa się poprzez kombinację różne ciała, które mogą znacznie różnić się budową od ucha ssaków. Niektóre zwierzęta są w stanie odbierać wibracje akustyczne, które nie są słyszalne dla ludzi (ultradźwięki lub infradźwięki). Nietoperze używają ultradźwięków do echolokacji podczas lotu. Psy potrafią słyszeć ultradźwięki, co jest podstawą pracy cichych gwizdków. Istnieją dowody na to, że wieloryby i słonie mogą komunikować się za pomocą infradźwięków.
Osoba może rozróżnić kilka dźwięków jednocześnie, ponieważ w ślimaku może znajdować się jednocześnie kilka fal stojących.

Mechanizm układu słuchowego:

Sygnał audio dowolnego rodzaju można opisać za pomocą pewnego zestawu cech fizycznych:
częstotliwość, intensywność, czas trwania, struktura czasowa, widmo itp.

Odpowiadają one pewnym subiektywnym odczuciom wynikającym z percepcji dźwięków przez układ słuchowy: głośność, wysokość, barwa, uderzenia, współbrzmienia-dysonanse, maskowanie, lokalizacja-efekt stereo itp.
Wrażenia słuchowe są powiązane z cechami fizycznymi w sposób niejednoznaczny i nieliniowy, na przykład głośność zależy od natężenia dźwięku, jego częstotliwości, widma itp. Jeszcze w ubiegłym stuleciu ustanowiono prawo Fechnera, które potwierdziło, że zależność ta jest nieliniowa: „Doznania
proporcjonalny do stosunku logarytmów bodźca. „Na przykład odczucia zmiany głośności są związane przede wszystkim ze zmianą logarytmu natężenia, wysokości tonu – ze zmianą logarytmu częstotliwości itp.

Wszystkie informacje dźwiękowe, które człowiek otrzymuje ze świata zewnętrznego (stanowi około 25% ogółu), rozpoznaje za pomocą układu słuchowego i pracy wyższych części mózgu, przekłada je na świat swoich doznań i podejmuje decyzje, jak na nie zareagować.
Zanim przejdziemy do badania problemu, w jaki układ słuchowy postrzega wysokość tonu, zatrzymajmy się pokrótce nad mechanizmem działania układu słuchowego.
Obecnie uzyskano w tym kierunku wiele nowych i bardzo interesujących wyników.
Układ słuchowy jest rodzajem odbiornika informacji i składa się z części peryferyjnej oraz wyższych części układu słuchowego. Najbardziej zbadane są procesy przetwarzania sygnałów dźwiękowych w obwodowej części analizatora słuchowego.

część peryferyjna

Jest to antena akustyczna, która odbiera, lokalizuje, skupia i wzmacnia sygnał dźwiękowy;
- mikrofon;
- analizator częstotliwości i czasu;
- przetwornik analogowo-cyfrowy przetwarzający sygnał analogowy na binarne impulsy nerwowe - wyładowania elektryczne.

Ogólny widok obwodowego układu słuchowego pokazano na pierwszym rysunku. Obwodowy układ słuchowy jest zwykle podzielony na trzy części: ucho zewnętrzne, środkowe i wewnętrzne.

ucho zewnętrzne składa się z małżowiny usznej i przewodu słuchowego zakończonego cienką błoną zwaną błoną bębenkową.
Zewnętrzne uszy i głowa są elementami zewnętrznej anteny akustycznej, która łączy (dopasowuje) błonę bębenkową z zewnętrznym polem dźwiękowym.
Główne funkcje uszu zewnętrznych to percepcja obuuszna (przestrzenna), lokalizacja źródła dźwięku oraz wzmocnienie energii dźwięku, zwłaszcza w zakresie średnich i wysokich częstotliwości.

przewód słuchowy to zakrzywiona rura cylindryczna o długości 22,5 mm, która ma pierwszą częstotliwość rezonansową około 2,6 kHz, więc w tym zakresie częstotliwości znacznie wzmacnia sygnał dźwiękowy i to tutaj znajduje się obszar maksymalnej wrażliwości słuchu.

Bębenek - cienki film o grubości 74 mikronów, ma postać stożka skierowanego końcówką w stronę ucha środkowego.
Przy niskich częstotliwościach porusza się jak tłok, przy wyższych częstotliwościach tworzy się złożony system linie węzłowe, co jest również ważne dla wzmocnienia dźwięku.

Ucho środkowe- wypełniona powietrzem jama połączona z nosogardłem trąbką Eustachiusza w celu wyrównania ciśnienia atmosferycznego.
Kiedy zmienia się ciśnienie atmosferyczne, powietrze może wchodzić lub wychodzić z ucha środkowego, więc błona bębenkowa nie reaguje na powolne zmiany ciśnienia statycznego - w górę iw dół itp. W uchu środkowym znajdują się trzy małe kosteczki słuchowe:
młotek, kowadełko i strzemiączko.
Młoteczek jest z jednej strony przymocowany do błony bębenkowej, drugi koniec styka się z kowadłem, które jest połączone ze strzemiączkiem za pomocą małego więzadła. Podstawa strzemienia jest połączona z okienkiem owalnym w uchu wewnętrznym.

Ucho środkowe wykonuje następujące funkcje:
dopasowanie impedancji ośrodka powietrznego do ośrodka płynnego ślimaka Ucho wewnętrzne; ochrona przed głośnymi dźwiękami (odruch akustyczny); wzmocnienie (mechanizm dźwigniowy), dzięki któremu ciśnienie akustyczne przekazywane do ucha wewnętrznego wzrasta o prawie 38 dB w porównaniu z tym, które dociera do błony bębenkowej.

Ucho wewnętrzne znajduje się w labiryncie kanałów w kości skroniowej i obejmuje narząd równowagi (aparat przedsionkowy) oraz ślimak.

Ślimak(ślimak) odgrywa ważną rolę w percepcji słuchowej. Jest to rura o zmiennym przekroju, składana trzykrotnie jak ogon węża. W stanie rozłożonym ma długość 3,5 cm Wewnątrz ślimak ma niezwykle złożoną budowę. Na całej długości jest podzielona dwiema błonami na trzy jamy: scala vestibuli, jamę środkową i scala tympani.

Konwersja mechanicznych oscylacji membrany na dyskretne impulsy elektryczne włókna nerwowe występują w narządzie Cortiego. Kiedy błona podstawna wibruje, rzęski na komórkach rzęsatych wyginają się, co generuje potencjał elektryczny, który powoduje strumień elektrycznych impulsów nerwowych, które przenoszą wszystkie niezbędne informacje o nadchodzącym sygnale dźwiękowym do mózgu w celu dalszego przetwarzania i odpowiedzi.

Wyższe części układu słuchowego (w tym kora słuchowa) można traktować jako procesor logiczny, który na tle szumu wydobywa (dekoduje) użyteczne sygnały dźwiękowe, grupuje je według określonych cech, porównuje z obrazami w pamięci, określa ich wartość informacyjną i decyduje o działaniach reagowania.

Podczas przenoszenia wibracji w powietrzu i do 220 kHz podczas przenoszenia dźwięku przez kości czaszki. Fale te mają ważne znaczenie biologiczne, na przykład fale dźwiękowe w zakresie 300-4000 Hz odpowiadają ludzkiemu głosowi. Dźwięki powyżej 20 000 Hz mają niewielką wartość praktyczną, ponieważ są szybko zwalniane; wibracje poniżej 60 Hz są odbierane przez zmysł wibracyjny. Zakres częstotliwości, które słyszy człowiek, nazywa się słuchowy Lub zakres dźwięku; wyższe częstotliwości nazywane są ultradźwiękami, podczas gdy niższe częstotliwości nazywane są infradźwiękami.

Fizjologia słuchu

Zdolność rozróżniania częstotliwości dźwięku jest bardzo zależna od konkretnej osoby: jej wieku, płci, podatności na choroby słuchu, wytrenowania oraz zmęczenia słuchu. Osoby są w stanie odbierać dźwięk do 22 kHz, a być może nawet wyższy.

Niektóre zwierzęta potrafią słyszeć dźwięki niesłyszalne dla ludzi (ultradźwięki lub infradźwięki). Nietoperze używają ultradźwięków do echolokacji podczas lotu. Psy potrafią słyszeć ultradźwięki, co jest podstawą pracy cichych gwizdków. Istnieją dowody na to, że wieloryby i słonie mogą komunikować się za pomocą infradźwięków.

Osoba może rozróżnić kilka dźwięków jednocześnie, ponieważ w ślimaku może znajdować się jednocześnie kilka fal stojących.

Zadowalające wyjaśnienie zjawiska słuchu okazało się niezwykle trudnym zadaniem. Osoba, która wymyśliłaby teorię wyjaśniającą postrzeganie wysokości i głośności dźwięku, prawie na pewno zagwarantowałaby sobie Nagrodę Nobla.

oryginalny tekst(Język angielski)

Odpowiednie wyjaśnienie problemu słuchu okazało się niezwykle trudnym zadaniem. Można by prawie zapewnić sobie nagrodę Nobla, przedstawiając teorię wyjaśniającą w zadowalający sposób jedynie percepcję wysokości i głośności.

- Reber, Arthur S., Reber (Roberts), Emily S. Słownik psychologii pingwina . - 3. edycja. - Londyn: Penguin Books Ltd, . - 880 str. - ISBN 0-14-051451-1, ISBN 978-0-14-051451-3

Na początku 2011 r. w oddzielnych mediach naukowych ukazała się krótka relacja ze wspólnej pracy obu izraelskich instytutów. W ludzkim mózgu wyizolowano wyspecjalizowane neurony, które pozwalają oszacować wysokość dźwięku, do 0,1 tonu. Zwierzęta, z wyjątkiem nietoperzy, nie posiadają takiego urządzenia, a dla różne rodzaje dokładność jest ograniczona do 1/2 do 1/3 oktawy. (Uwaga! Ta informacja wymaga wyjaśnienia!)

Psychofizjologia słuchu

Projekcja wrażeń słuchowych

Bez względu na to, jak powstają wrażenia słuchowe, zwykle odnosimy je do świata zewnętrznego, dlatego zawsze szukamy przyczyny pobudzenia naszego słuchu w wibracjach odbieranych z zewnątrz z takiej czy innej odległości. Cecha ta jest znacznie mniej wyraźna w sferze słuchu niż w sferze doznań wzrokowych, które odznaczają się obiektywnością i ścisłą lokalizacją przestrzenną i nabywane są prawdopodobnie także poprzez długie doświadczenie i kontrolę innych zmysłów. W przypadku doznań słuchowych zdolność do projekcji, obiektywizacji i przestrzennej lokalizacji nie może osiągnąć tak wysokiego stopnia, jak w przypadku doznań wzrokowych. Wynika to z takich cech budowy aparatu słuchowego, jak np. brak mechanizmów mięśniowych, pozbawiających go możliwości dokładnego określenia przestrzennego. Wiemy, jak ogromne znaczenie ma czucie mięśniowe we wszystkich definicjach przestrzennych.

Oceny dotyczące odległości i kierunku dźwięków

Nasze oceny odległości, z jakiej emitowane są dźwięki, są bardzo niedokładne, zwłaszcza jeśli osoba ma zamknięte oczy i nie widzi źródła dźwięków oraz otaczających obiektów, po czym można ocenić „akustykę otoczenia” na podstawie doświadczenie życiowe, albo akustyka otoczenia jest nietypowa: na przykład w akustycznej komorze bezechowej głos osoby oddalonej zaledwie o metr od słuchacza wydaje mu się wielokrotnie, a nawet dziesiątki razy dalej. Również znajome dźwięki wydają się nam bliższe, im są głośniejsze, i na odwrót. Doświadczenie pokazuje, że mniej mylimy się w określaniu odległości dźwięków niż tonów muzycznych. Zdolność człowieka do oceny kierunku dźwięków jest bardzo ograniczona: nie mając ruchomych i wygodnych do zbierania dźwięków małżowin usznych, w razie wątpliwości ucieka się do ruchów głową i ustawia ją w pozycji, w której dźwięki różnią się najbardziej, czyli dźwięk jest lokalizowany przez osobę w tym kierunku, z którego jest słyszany mocniej i „wyraźniej”.

Znane są trzy mechanizmy, dzięki którym można rozróżnić kierunek dźwięku:

  • Różnica w średniej amplitudzie (historycznie pierwsza odkryta zasada): dla częstotliwości powyżej 1 kHz, czyli o długości fali mniejszej niż rozmiar głowy słuchacza, dźwięk docierający do ucha bliższego ma większą intensywność.
  • Różnica fazowa: rozgałęzione neurony są w stanie rozróżnić przesunięcia fazowe do 10-15 stopni między nadejściem fal dźwiękowych do prawego i lewego ucha dla częstotliwości w przybliżonym zakresie od 1 do 4 kHz (co odpowiada dokładności 10 µs w termin przyjazdu).
  • Różnica w widmie: fałdy małżowiny usznej, głowa, a nawet ramiona wprowadzają do odbieranego dźwięku niewielkie zniekształcenia częstotliwości, pochłaniając różne harmoniczne w różny sposób, co jest interpretowane przez mózg jako dodatkowa informacja o poziomym i pionowym położeniu dźwięk.

Zdolność mózgu do dostrzegania opisanych różnic w dźwięku słyszanym przez prawe i lewe ucho doprowadziła do powstania technologii zapisu binauralnego.

Opisane mechanizmy nie działają w wodzie: określenie kierunku na podstawie różnicy głośności i widma jest niemożliwe, ponieważ dźwięk z wody przechodzi prawie bez strat bezpośrednio do głowy, a więc do obojga uszu, dlatego głośność i widmo dźwięku w obu uszach w dowolnym miejscu źródła dźwięku z wysoką wiernością są takie same; określenie kierunku źródła dźwięku za pomocą przesunięcia fazowego jest niemożliwe, ponieważ ze względu na znacznie większą prędkość dźwięku w wodzie długość fali wzrasta kilkukrotnie, co oznacza, że ​​przesunięcie fazowe maleje wielokrotnie.

Z opisu powyższych mechanizmów jasno wynika również przyczyna niemożności określenia lokalizacji źródeł dźwięku o niskiej częstotliwości.

Badanie słuchu

Słuch bada się za pomocą specjalnego urządzenia lub programu komputerowego zwanego „audiometrem”.

Określana jest również charakterystyka częstotliwościowa słuchu, co jest istotne przy inscenizacji mowy u dzieci z uszkodzonym słuchem.

Norma

Postrzeganie zakresu częstotliwości 16 Hz - 22 kHz zmienia się z wiekiem - wysokie częstotliwości nie są już postrzegane. Zmniejszenie zakresu częstotliwości słyszalnych wiąże się ze zmianami w uchu wewnętrznym (ślimaku) oraz rozwojem niedosłuchu czuciowo-nerwowego wraz z wiekiem.

próg słyszenia

próg słyszenia- minimalne ciśnienie akustyczne, przy którym dźwięk o danej częstotliwości jest odbierany przez ludzkie ucho. Próg słyszalności wyraża się w decybelach. Za poziom zerowy przyjęto ciśnienie akustyczne 2 10 −5 Pa przy częstotliwości 1 kHz. Próg słyszenia dla konkretnej osoby zależy od indywidualnych cech, wieku i stanu fizjologicznego.

Próg bólu

próg bólu słuchowego- wartość ciśnienia akustycznego, przy której pojawia się ból w narządzie słuchowym (co wiąże się w szczególności z osiągnięciem granicy rozciągliwości błony bębenkowej). Przekroczenie tego progu skutkuje uraz akustyczny. uczucie bólu określa granicę zakresu dynamiki ludzkiego słuchu, która wynosi średnio 140 dB dla sygnału tonowego i 120 dB dla szumu o widmie ciągłym.

Patologia

Zobacz też

  • halucynacje słuchu
  • Nerw słuchowy

Literatura

Fizyczny słownik encyklopedyczny / rozdz. wyd. AM Prochorow. wyd. collegium D. M. Alekseev, A. M. Bonch-Bruevich, A. S. Borovik-Romanov i inni - M .: Sov. Encykl., 1983. - 928 s., s. 579

Spinki do mankietów

  • Wykład wideo Percepcja słuchowa

Fundacja Wikimedia. 2010 .

Synonimy:

Zobacz, czym jest „Słuch” w innych słownikach:

    przesłuchanie- słuch i... Słownik pisowni rosyjskiej

    przesłuchanie- przesłuchanie / ... Słownik pisowni morfemicznej

    Istnieć., m., używać. często Morfologia: (nie) co? słuch i słuch, co? słyszeć, (widzieć) co? co słychać? słyszeć o czym? o słyszeniu; pl. Co? plotki, (nie) co? plotki o czym? plotki, (patrz) co? plotki co? plotki o czym? o postrzeganiu plotek przez organy ... ... Słownik Dmitriewa

    Mąż. jeden z pięciu zmysłów rozpoznawania dźwięków; instrumentem jest jego ucho. Słuch głuchy, cienki. U zwierząt głuchych i głuchych słuch zostaje zastąpiony poczuciem wstrząsu mózgu. Idź na ucho, szukaj na ucho. | Muzyczne ucho, wewnętrzne uczucie, które rozumie wzajemne ... ... Słownik wyjaśniający Dahla

    Słuch, m. 1. tylko jednostki. Jeden z pięciu zewnętrznych zmysłów, dający zdolność odbierania dźwięków, zdolność słyszenia. Ucho jest narządem słuchu. ostry słuch. Do jego uszu dotarł ochrypły krzyk. Turgieniew. „Pragnę chwały, aby wasz słuch zadziwił się moim imieniem… Słownik wyjaśniający Uszakowa

Po rozważeniu teorii propagacji i mechanizmów powstawania fal dźwiękowych, warto zrozumieć, w jaki sposób dźwięk jest „interpretowany” lub odbierany przez człowieka. Sparowany narząd, ucho, odpowiada za odbieranie fal dźwiękowych w ludzkim ciele. ludzkie ucho- bardzo złożony narząd, który odpowiada za dwie funkcje: 1) odbiera impulsy dźwiękowe 2) pełni rolę aparatu przedsionkowego całego narządu Ludzkie ciało, określa pozycję ciała w przestrzeni i daje witalną zdolność do utrzymania równowagi. Przeciętny ludzkie ucho zdolny do wychwytywania fluktuacji 20 - 20 000 Hz, jednak występują odchylenia w górę lub w dół. Najlepiej słyszalne zakres częstotliwości wynosi 16 - 20000 Hz, co odpowiada również długości fali 16 m - 20 cm. Ucho jest podzielone na trzy części: ucho zewnętrzne, środkowe i wewnętrzne. Każdy z tych „działów” pełni swoją funkcję, jednak wszystkie trzy działy są ze sobą ściśle powiązane i faktycznie dokonują transmisji między sobą fali wibracji dźwiękowych.

ucho zewnętrzne (zewnętrzne).

Ucho zewnętrzne składa się z małżowiny usznej i zewnętrznej kanał uszny. Małżowina jest elastyczną chrząstką o złożonym kształcie, pokrytą skórą. W dolnej części małżowiny usznej znajduje się płat, który składa się z tkanki tłuszczowej i jest również pokryty skórą. Małżowina działa jak odbiornik fal dźwiękowych z otaczającej przestrzeni. specjalny formularz Budowa małżowiny usznej pozwala na lepsze wychwytywanie dźwięków, zwłaszcza dźwięków z zakresu średnich częstotliwości, które odpowiadają za przekazywanie informacji mowy. Fakt ten wynika w dużej mierze z konieczności ewolucyjnej, ponieważ człowiek spędza większość swojego życia na komunikacji ustnej z przedstawicielami swojego gatunku. Ludzkie małżowiny uszne są praktycznie nieruchome, w przeciwieństwie do dużej liczby przedstawicieli gatunków zwierząt, które wykorzystują ruchy uszu do dokładniejszego dostrojenia się do źródła dźwięku.

Fałdy małżowiny usznej człowieka są ułożone w taki sposób, że dokonują korekt (niewielkich zniekształceń) względem pionowego i poziomego położenia źródła dźwięku w przestrzeni. To właśnie dzięki tej wyjątkowej funkcji człowiek jest w stanie dość jednoznacznie określić położenie obiektu w przestrzeni względem siebie, skupiając się wyłącznie na dźwięku. Ta funkcja jest również dobrze znana pod pojęciem „lokalizacji dźwięku”. Główną funkcją małżowiny usznej jest wychwycenie jak największej liczby dźwięków zakres słyszalny częstotliwości. O dalszym losie „złapanych” fal dźwiękowych decyduje przewód słuchowy, którego długość wynosi 25-30 mm. W nim chrzęstna część małżowiny usznej zewnętrznej przechodzi do kości, a powierzchnia skóry kanału słuchowego jest wyposażona w gruczoły łojowe i siarkowe. Na końcu przewodu słuchowego znajduje się elastyczna błona bębenkowa, do której docierają drgania fal dźwiękowych, wywołując w ten sposób jego odpowiedź drganiową. Błona bębenkowa z kolei przekazuje te odbierane wibracje do obszaru ucha środkowego.

Ucho środkowe

Wibracje przenoszone przez błonę bębenkową docierają do obszaru ucha środkowego zwanego „obszarem bębenkowym”. Jest to obszar o objętości około jednego centymetra sześciennego, w którym znajdują się trzy kosteczki słuchowe: młotek, kowadełko i strzemiączko. To właśnie te „pośrednie” elementy pełnią najważniejszą funkcję: przekazywanie fal dźwiękowych do ucha wewnętrznego i jednoczesne wzmacnianie. Kosteczki słuchowe to niezwykle złożony łańcuch transmisji dźwięku. Wszystkie trzy kości są ściśle połączone ze sobą, a także z błoną bębenkową, dzięki czemu następuje przenoszenie wibracji „wzdłuż łańcucha”. Na dojściu do okolicy ucha wewnętrznego znajduje się okienko przedsionka, które jest zablokowane przez podstawę strzemienia. W celu wyrównania ciśnień po obu stronach błony bębenkowej (np. w przypadku zmiany ciśnienia zewnętrznego) obszar ucha środkowego łączy się z nosogardłem trąbką Eustachiusza. Wszyscy doskonale zdajemy sobie sprawę z efektu zatykania uszu, który występuje właśnie z powodu tak precyzyjnego dostrojenia. Z ucha środkowego wibracje dźwiękowe, już wzmocnione, wpadają do obszaru ucha wewnętrznego, najbardziej złożonego i wrażliwego.

Ucho wewnętrzne

Najbardziej złożoną formą jest ucho wewnętrzne, które z tego powodu nazywane jest labiryntem. Labirynt kostny obejmuje: przedsionek, ślimak i kanały półkoliste, a także aparat przedsionkowy odpowiedzialny za równowagę. To ślimak jest bezpośrednio związany ze słyszeniem w tej wiązce. Ślimak to spiralny błoniasty kanał wypełniony płynem limfatycznym. Wewnątrz kanał jest podzielony na dwie części kolejną błoniastą przegrodą zwaną „membraną podstawową”. Membrana ta składa się z włókien o różnej długości ( całkowity ponad 24 000) rozciągniętych jak struny, każda struna rezonuje z własnym, specyficznym dźwiękiem. Kanał jest podzielony membraną na drabinki górną i dolną, które komunikują się na szczycie ślimaka. Z przeciwnego końca kanał łączy się z aparatem odbiorczym analizatora słuchowego, który jest pokryty maleńkimi komórkami rzęsatymi. Ten aparat analizatora słuchowego jest również nazywany Organem Cortiego. Kiedy wibracje z ucha środkowego dostają się do ślimaka, płyn limfatyczny wypełniający kanał również zaczyna wibrować, przenosząc wibracje na główną membranę. W tym momencie do akcji wchodzi aparat analizatora słuchowego, którego komórki rzęsate, rozmieszczone w kilku rzędach, przekształcają wibracje dźwiękowe w elektryczne impulsy „nerwowe”, które są przekazywane wzdłuż nerwu słuchowego do strefy skroniowej kory mózgowej . W tak złożony i ozdobny sposób osoba w końcu usłyszy pożądany dźwięk.

Cechy percepcji i tworzenia mowy

Mechanizm wytwarzania mowy kształtował się u człowieka przez cały okres jego ewolucji. Znaczenie tej zdolności polega na przekazywaniu informacji werbalnych i niewerbalnych. Pierwsza niesie ze sobą ładunek werbalny i semantyczny, druga odpowiada za przekazanie komponentu emocjonalnego. Proces tworzenia i odbioru mowy obejmuje: sformułowanie komunikatu; kodowanie na elementy zgodnie z regułami istniejącego języka; przejściowe działania nerwowo-mięśniowe; ruchy struny głosowe; emisja sygnału akustycznego; Następnie do akcji wkracza słuchacz, przeprowadzając: analizę spektralną odebranego sygnału akustycznego i selekcję cech akustycznych w obwodowym układzie słuchowym, transmisję wybranych cech przez sieci neuronowe, rozpoznanie kodu języka (analiza językowa), zrozumienie znaczenia wiadomości.
Urządzenie do generowania sygnałów mowy można porównać do złożonego instrumentu dętego, ale wszechstronność i elastyczność strojenia oraz umiejętność odtwarzania najdrobniejszych subtelności i szczegółów nie mają sobie równych w naturze. Mechanizm formowania głosu składa się z trzech nierozłącznych elementów:

  1. Generator- płuca jako rezerwuar objętości powietrza. Energia nadciśnienia magazynowana jest w płucach, następnie kanałem wydalniczym, przy pomocy układu mięśniowego, energia ta jest usuwana przez tchawicę połączoną z krtanią. Na tym etapie strumień powietrza jest przerywany i modyfikowany;
  2. Wibrator- składa się ze strun głosowych. Na przepływ wpływają również turbulentne strumienie powietrza (tworzą tony brzegowe) i źródła impulsów (eksplozje);
  3. Rezonator- obejmuje jamy rezonansowe o złożonym kształcie geometrycznym (gardło, jama ustna i nosowa).

W zespole indywidualnego urządzenia tych elementów powstaje niepowtarzalna i indywidualna barwa głosu każdej osoby z osobna.

Energia słupa powietrza jest generowana w płucach, które wytwarzają określony przepływ powietrza podczas wdechu i wydechu z powodu różnicy ciśnienia atmosferycznego i śródpłucnego. Proces gromadzenia energii odbywa się poprzez wdech, proces uwalniania charakteryzuje się wydechem. Dzieje się tak z powodu kompresji i rozszerzania klatki piersiowej, które są wykonywane za pomocą dwóch grup mięśni: międzyżebrowej i przepony, przy głębokim oddychaniu i śpiewie, mięśnie brzucha, klatki piersiowej i szyi również się kurczą. Podczas wdechu przepona kurczy się i opada, skurcz zewnętrznych mięśni międzyżebrowych unosi żebra i przenosi je na boki, a mostek do przodu. Rozszerzanie się klatki piersiowej prowadzi do spadku ciśnienia w płucach (w stosunku do atmosferycznego), a przestrzeń ta jest szybko wypełniana powietrzem. Podczas wydechu mięśnie odpowiednio się rozluźniają i wszystko wraca do poprzedniego stanu ( klatka piersiowa powraca do stanu pierwotnego dzięki własnej grawitacji, przepona unosi się, zmniejsza się objętość wcześniej rozszerzonych płuc, wzrasta ciśnienie śródpłucne). Inhalację można opisać jako proces wymagający wydatku energii (aktywny); wydech to proces akumulacji energii (pasywny). Kontrola procesu oddychania i powstawania mowy odbywa się nieświadomie, ale przy śpiewaniu ustawienie oddechu wymaga świadomego podejścia i długotrwałego dodatkowego treningu.

Ilość energii, która jest następnie zużywana na tworzenie mowy i głosu, zależy od objętości zmagazynowanego powietrza i wielkości dodatkowego ciśnienia w płucach. Maksymalne ciśnienie wypracowane przez wyszkolonego śpiewaka operowego może osiągnąć 100-112 dB. Modulacja przepływ powietrza wibracji strun głosowych i powstania nadciśnienia podgardłowego, procesy te zachodzą w krtani, która jest rodzajem zastawki znajdującej się na końcu tchawicy. Zastawka spełnia podwójną funkcję: chroni płuca przed dostaniem się do nich obce obiekty i utrzymać wysokie ciśnienie krwi. To krtań działa jako źródło mowy i śpiewu. Krtań to zbiór chrząstek połączonych mięśniami. Krtań ma dość złożona struktura, którego głównym elementem jest para strun głosowych. To właśnie struny głosowe są głównym (ale nie jedynym) źródłem powstawania głosu lub „wibratorem”. Podczas tego procesu struny głosowe poruszają się, czemu towarzyszy tarcie. Aby się przed tym zabezpieczyć, wydzielana jest specjalna wydzielina śluzowa, która działa jak środek poślizgowy. O powstawaniu dźwięków mowy decydują drgania więzadeł, co prowadzi do powstania strumienia powietrza wydychanego z płuc, do pewien rodzaj charakterystyka amplitudowa. Pomiędzy fałdami głosowymi znajdują się małe wnęki, które w razie potrzeby działają jak filtry akustyczne i rezonatory.

Cechy percepcji słuchowej, bezpieczeństwo słuchania, progi słyszenia, adaptacja, prawidłowy poziom głośności

Jak widać z opisu budowy ucha ludzkiego, narząd ten jest bardzo delikatny i ma dość złożoną budowę. Biorąc to pod uwagę, nietrudno stwierdzić, że ten niezwykle cienki i czuły aparat ma szereg ograniczeń, progów itp. Układ słuchowy człowieka jest przystosowany do odbioru dźwięków cichych, a także dźwięków o średnim natężeniu. Długotrwałe narażenie na głośne dźwięki pociąga za sobą nieodwracalne zmiany progów słyszenia, a także inne problemy ze słuchem, aż do całkowitej głuchoty. Stopień uszkodzenia jest wprost proporcjonalny do czasu ekspozycji w głośnym otoczeniu. W tym momencie wchodzi też w życie mechanizm dostosowawczy – tj. pod wpływem długotrwałych głośnych dźwięków czułość stopniowo maleje, zmniejsza się odczuwana głośność, słuch się przystosowuje.

Adaptacja początkowo ma na celu ochronę narządu słuchu przed zbyt głośnymi dźwiękami, jednak to właśnie wpływ tego procesu powoduje najczęściej, że człowiek w niekontrolowany sposób zwiększa głośność systemu audio. Ochrona realizowana jest dzięki mechanizmowi ucha środkowego i wewnętrznego: strzemiączko jest wysuwane z okienka owalnego, chroniąc w ten sposób przed zbyt głośnymi dźwiękami. Ale mechanizm ochrony nie jest idealny i ma opóźnienie czasowe, wyzwalając tylko 30-40 ms po rozpoczęciu nadejścia dźwięku, co więcej, pełnej ochrony nie uzyskuje się nawet przy czasie trwania 150 ms. Mechanizm ochrony uruchamia się, gdy poziom głośności przekroczy poziom 85 dB, ponadto samo zabezpieczenie wynosi do 20 dB.
Najniebezpieczniejszy w ta sprawa, możemy rozważyć zjawisko „przesunięcia progu słyszenia”, które zwykle występuje w praktyce w wyniku długotrwałej ekspozycji na głośne dźwięki powyżej 90 dB. Proces rekonwalescencji narządu słuchu po takich szkodliwych skutkach może trwać nawet do 16 godzin. Przesunięcie progu rozpoczyna się już od poziomu natężenia 75 dB i wzrasta proporcjonalnie do wzrostu poziomu sygnału.

Rozważając problem prawidłowego poziomu natężenia dźwięku, najgorsze, co można sobie uświadomić, to fakt, że problemy (nabyte lub wrodzone) związane ze słuchem są praktycznie nieuleczalne w dobie dość zaawansowanej medycyny. Wszystko to powinno skłonić każdego zdrowego na umyśle człowieka do zastanowienia się nad dbaniem o swój słuch, o ile oczywiście nie planuje się jak najdłuższego zachowania jego pierwotnej integralności i możliwości słyszenia całego zakresu częstotliwości. Na szczęście wszystko nie jest takie straszne, jak mogłoby się wydawać na pierwszy rzut oka, a przestrzegając szeregu środków ostrożności, można łatwo uratować słuch nawet w podeszłym wieku. Przed rozważeniem tych środków należy przypomnieć jeden ważna cecha percepcja słuchowa osoba. Aparat słuchowy odbiera dźwięki nieliniowo. Podobne zjawisko polega na tym, że jeśli wyobrazimy sobie dowolną częstotliwość czystego tonu, na przykład 300 Hz, to nieliniowość objawia się, gdy w małżowinie usznej pojawiają się alikwoty o tej częstotliwości podstawowej zgodnie z zasadą logarytmu (jeśli częstotliwość podstawowa jest przyjęte jako f, to alikwoty częstotliwości będą wynosić 2f, 3f itd. w porządku rosnącym). Ta nieliniowość jest również łatwiejsza do zrozumienia i jest znana wielu pod tą nazwą „zniekształcenie nieliniowe”. Ponieważ takie harmoniczne (podtony) nie występują w oryginalnym czystym tonie, okazuje się, że ucho samo wprowadza do oryginalnego dźwięku własne poprawki i podtony, ale można je określić jedynie jako subiektywne zniekształcenia. Przy poziomie natężenia poniżej 40 dB subiektywne zniekształcenia nie występują. Przy wzroście natężenia od 40 dB zaczyna wzrastać poziom subiektywnych harmonicznych, ale już na poziomie 80-90 dB ich negatywny wkład w dźwięk jest stosunkowo niewielki (stąd ten poziom natężenia można warunkowo uznać za rodzaj „złoty środek” w sferze muzycznej).

Na podstawie tych informacji można w prosty sposób określić bezpieczny i akceptowalny poziom głośności, który nie zaszkodzi narządom słuchu, a jednocześnie pozwoli usłyszeć absolutnie wszystkie cechy i szczegóły dźwięku, np. w przypadku pracy z systemem „hi-fi”. Ten poziom „złotego środka” wynosi około 85-90 dB. To właśnie przy takim natężeniu dźwięku naprawdę można usłyszeć wszystko, co jest osadzone w torze audio, przy jednoczesnym zminimalizowaniu ryzyka przedwczesnego uszkodzenia i utraty słuchu. Za prawie całkowicie bezpieczny można uznać poziom głośności 85 dB. Aby zrozumieć, czym grozi głośne słuchanie i dlaczego zbyt niski poziom głośności nie pozwala usłyszeć wszystkich niuansów dźwięku, przyjrzyjmy się temu zagadnieniu bardziej szczegółowo. Jeśli chodzi o niskie poziomy głośności, brak celowości (ale częściej subiektywnej chęci) słuchania muzyki na niskie poziomy z następujących powodów:

  1. Nieliniowość percepcji słuchowej człowieka;
  2. Cechy percepcji psychoakustycznej, które zostaną rozważone osobno.

Omówiona powyżej nieliniowość percepcji słuchowej ma znaczący wpływ na każdą głośność poniżej 80 dB. W praktyce wygląda to tak: jeśli włączysz muzykę na cichym poziomie, np. 40 dB, to zakres średnich częstotliwości kompozycji muzycznej będzie najwyraźniej słyszalny, niezależnie od tego, czy będzie to wokal wykonawcy / wykonawcy lub instrumentów grających w tym zakresie. Jednocześnie będzie wyraźny brak niskich i wysokich częstotliwości, właśnie ze względu na nieliniowość odbioru, a także fakt, że różne częstotliwości brzmią przy różnych poziomach głośności. Jest więc oczywiste, że dla pełnego postrzegania całości obrazu poziom intensywności częstotliwości musi być jak najbardziej wyrównany do jednej wartości. Pomimo tego, że nawet przy poziomie głośności 85-90 dB nie występuje wyidealizowane wyrównanie głośności różnych częstotliwości, poziom ten staje się akceptowalny dla normalnego, codziennego odsłuchu. Im mniejsza głośność w tym samym czasie, tym wyraźniej dla ucha zostanie odebrana charakterystyczna nieliniowość, czyli poczucie braku odpowiedniej ilości wysokich i niskich częstotliwości. Jednocześnie okazuje się, że przy takiej nieliniowości nie można poważnie mówić o odtwarzaniu dźwięku „hi-fi” o wysokiej wierności, ponieważ dokładność transmisji oryginalnego obrazu dźwiękowego będzie w tę szczególną sytuację.

Jeśli zagłębić się w te wnioski, staje się jasne, dlaczego słuchanie muzyki na niskim poziomie głośności, choć najbezpieczniejszym z punktu widzenia zdrowia, jest wyjątkowo negatywnie odczuwane przez ucho z powodu tworzenia wyraźnie nieprawdopodobnych obrazów instrumentów muzycznych i głos, brak skali sceny dźwiękowej. Ogólnie rzecz biorąc, ciche odtwarzanie muzyki może być używane jako akompaniament w tle, ale całkowicie przeciwwskazane jest słuchanie wysokiej jakości „hi-fi” przy niskim poziomie głośności, z powyższych powodów niemożliwe jest stworzenie naturalistycznych obrazów sceny dźwiękowej, która była tworzony przez inżyniera dźwięku w studiu na etapie nagrywania. Ale nie tylko niska głośność wprowadza pewne ograniczenia w odbiorze ostatecznego dźwięku, znacznie gorzej sytuacja wygląda przy zwiększonej głośności. Możliwe i dość proste jest uszkodzenie słuchu i wystarczające zmniejszenie czułości, jeśli słuchasz muzyki na poziomie powyżej 90 dB przez długi czas. Te dane są oparte na dużej liczbie badania medyczne, stwierdzając, że dźwięk głośniejszy niż 90 dB powoduje realną i prawie nieodwracalną szkodę dla zdrowia. Mechanizm tego zjawiska leży w percepcji słuchowej i cechach strukturalnych ucha. Kiedy fala dźwiękowa o natężeniu większym niż 90 dB wchodzi do przewód słuchowy, do gry wchodzą narządy ucha środkowego, powodując zjawisko zwane adaptacją słuchową.

Zasada działania w tym przypadku jest następująca: strzemiączko jest odsuwane od okienka owalnego i chroni ucho wewnętrzne przed zbyt głośnymi dźwiękami. Proces ten nazywa się odruch akustyczny. Dla ucha jest to odbierane jako krótkotrwały spadek wrażliwości, co może być znane każdemu, kto kiedykolwiek był na przykład na koncertach rockowych w klubach. Po takim koncercie następuje krótkotrwały spadek wrażliwości, który po pewnym czasie wraca do poprzedniego poziomu. Jednak przywrócenie wrażliwości nie zawsze nastąpi i zależy bezpośrednio od wieku. Za tym wszystkim kryje się wielkie niebezpieczeństwo słuchania głośnej muzyki i innych dźwięków, których natężenie przekracza 90 dB. Wystąpienie odruchu akustycznego to nie jedyne „widoczne” niebezpieczeństwo utraty wrażliwości słuchowej. Przy długotrwałym narażeniu na zbyt głośne dźwięki włosy znajdujące się w okolicy ucha wewnętrznego (reagujące na wibracje) odchylają się bardzo mocno. W tym przypadku następuje efekt, że włos odpowiedzialny za percepcję określonej częstotliwości ugina się pod wpływem drgań dźwiękowych o dużej amplitudzie. W pewnym momencie taki włos może za bardzo odbiegać i nigdy nie wrócić. Spowoduje to odpowiedni efekt utraty czułości przy określonej określonej częstotliwości!

Najstraszniejsze w tej całej sytuacji jest to, że choroby uszu są praktycznie nieuleczalne, nawet najbardziej nowoczesne metody znane medycynie. Wszystko to prowadzi do poważnych wniosków: dźwięk powyżej 90 dB jest niebezpieczny dla zdrowia i prawie na pewno spowoduje przedwczesną utratę słuchu lub znaczny spadek czułości. Jeszcze bardziej frustrujące jest to, że wspomniana wcześniej właściwość adaptacji wchodzi w grę z czasem. Ten proces w ludzkich narządach słuchowych zachodzi prawie niezauważalnie; osoba, która powoli traci wrażliwość, z prawdopodobieństwem bliskim 100%, nie zauważy tego, aż do momentu, gdy ludzie wokół niej zwrócą uwagę na ciągłe zadawanie pytań typu: „Co właśnie powiedziałeś?”. Wniosek na koniec jest niezwykle prosty: podczas słuchania muzyki ważne jest, aby poziom natężenia dźwięku nie przekraczał 80-85 dB! W tym samym momencie jest też pozytywna strona: poziom głośności 80-85 dB odpowiada w przybliżeniu poziomowi nagrywania dźwięku muzyki w środowisku studyjnym. Powstaje więc pojęcie „złotego środka”, powyżej którego lepiej nie wznosić się, jeśli kwestie zdrowotne mają choć trochę znaczenia.

Nawet krótkotrwałe słuchanie muzyki na poziomie 110-120 dB może powodować problemy ze słuchem, na przykład podczas koncertu na żywo. Oczywiście uniknięcie tego jest czasami niemożliwe lub bardzo trudne, ale niezwykle ważne jest, aby spróbować to zrobić, aby zachować integralność percepcji słuchowej. Teoretycznie krótkotrwała ekspozycja na głośne dźwięki (nie przekraczające 120 dB), jeszcze przed wystąpieniem „zmęczenia słuchowego”, nie prowadzi do poważnych negatywnych konsekwencji. Ale w praktyce zwykle zdarzają się przypadki długotrwałego narażenia na dźwięk o takim natężeniu. Ludzie ogłuszają się nie zdając sobie sprawy z pełnego zagrożenia w samochodzie podczas słuchania systemu audio, w domu w podobnych warunkach lub ze słuchawkami na przenośnym odtwarzaczu. Dlaczego tak się dzieje i co powoduje, że dźwięk jest coraz głośniejszy? Istnieją dwie odpowiedzi na to pytanie: 1) Wpływ psychoakustyki, który zostanie omówiony osobno; 2) Ciągła potrzeba „wykrzykiwania” głośnością muzyki jakichś zewnętrznych dźwięków. Pierwszy aspekt problemu jest dość interesujący i zostanie szczegółowo omówiony poniżej, ale druga strona problemu jest bardziej sugestywna. negatywne myśli oraz wnioski o niezrozumieniu prawdziwych podstaw poprawnego słuchania dźwięku klasy "hi-fi".

Nie wchodząc w szczegóły, ogólny wniosek dotyczący słuchania muzyki i prawidłowej głośności jest następujący: słuchanie muzyki powinno odbywać się przy natężeniu dźwięku nie wyższym niż 90 dB, nie niższym niż 80 dB w pomieszczeniu, w którym obce dźwięki z zewnętrznych źródeł są mocno stłumione lub zupełnie nieobecne (np. rozmowy sąsiadów i inne odgłosy za ścianą mieszkania, odgłosy ulicy i odgłosy techniczne, jeśli jesteś w samochodzie itp.). Chciałbym raz na zawsze podkreślić, że to właśnie w przypadku spełnienia tak, być może rygorystycznych wymagań, można osiągnąć długo wyczekiwany balans głośności, który nie spowoduje przedwczesnego, niepożądanego uszkodzenia narządu słuchu, a również dostarczyć prawdziwa przyjemność od słuchania ulubionej muzyki z najdrobniejszymi szczegółami przy wysokich i niskich częstotliwościach oraz precyzją, do której dąży sama koncepcja brzmienia „hi-fi”.

Psychoakustyka i cechy percepcji

Aby jak najpełniej odpowiedzieć na niektóre ważne pytania dotyczące ostatecznego postrzegania informacji dźwiękowych przez osobę, istnieje cała gałąź nauki, która bada ogromną różnorodność takich aspektów. Ta sekcja nazywa się „psychoakustyka”. Faktem jest, że percepcja słuchowa nie kończy się tylko na pracy narządów słuchowych. Po bezpośredniej percepcji dźwięku przez narząd słuchu (ucho), wtedy w grę wchodzi najbardziej złożony i mało zbadany mechanizm analizy otrzymanych informacji, za co całkowicie odpowiada ludzki mózg, który jest zaprojektowany w taki sposób, że podczas podczas pracy generuje fale o określonej częstotliwości, które są również podawane w hercach (Hz). Różne częstotliwości fal mózgowych odpowiadają pewnym stanom człowieka. Okazuje się zatem, że słuchanie muzyki przyczynia się do zmiany dostrojenia częstotliwości w mózgu, co należy wziąć pod uwagę podczas słuchania kompozycji muzycznych. W oparciu o tę teorię istnieje również metoda terapii dźwiękiem poprzez bezpośrednie oddziaływanie na stan psychiczny człowieka. Fale mózgowe dzielą się na pięć rodzajów:

  1. Fale delta (fale poniżej 4 Hz). Zgodne z warunkami głęboki sen bez snów, bez żadnych doznań cielesnych.
  2. Fale Theta (fale 4-7 Hz). Stan snu lub głębokiej medytacji.
  3. Fale alfa (fale 7-13 Hz). Stany odprężenia i odprężenia podczas czuwania, senności.
  4. Fale Beta (fale 13-40 Hz). Stan aktywności, codzienne myślenie i aktywność umysłowa, pobudzenie i poznanie.
  5. Fale gamma (fale powyżej 40 Hz). Stan intensywnej aktywności umysłowej, strachu, podniecenia i świadomości.

Psychoakustyka, jako dziedzina nauki, szuka odpowiedzi na najwięcej ciekawe pytania odnoszące się do ostatecznego postrzegania informacji dźwiękowych przez osobę. W trakcie badania tego procesu, świetna ilość czynniki, których wpływ niezmiennie występuje zarówno w procesie słuchania muzyki, jak iw każdym innym przypadku przetwarzania i analizowania wszelkich informacji dźwiękowych. Psychoakustyka bada niemal całą różnorodność możliwych wpływów, poczynając od stanu emocjonalnego i psychicznego osoby w czasie słuchania, kończąc na cechach strukturalnych strun głosowych (jeśli mówimy o osobliwościach postrzegania wszystkich subtelności głosu). wydajność) oraz mechanizm przekształcania dźwięku w impulsy elektryczne mózgu. Najciekawszy i przede wszystkim ważne czynniki(które warto wziąć pod uwagę za każdym razem, gdy słuchasz ulubionej muzyki, a także budując profesjonalny system audio) zostanie omówione w dalszej części.

Pojęcie współbrzmienia, współbrzmienie muzyczne

Urządzenie ludzkiego układu słuchowego jest wyjątkowe przede wszystkim w mechanizmie percepcji dźwięku, nieliniowości układu słuchowego, zdolności grupowania dźwięków na wysokości z dość wysokim stopniem dokładności. Bardzo ciekawa funkcja percepcji można zauważyć nieliniowość układu słuchowego, która przejawia się w postaci pojawiania się dodatkowych nieistniejących (w tonie głównym) harmonicznych, co szczególnie często objawia się u osób ze słuchem muzycznym lub absolutnym. Jeśli zatrzymamy się bardziej szczegółowo i przeanalizujemy wszystkie subtelności percepcji dźwięku muzycznego, łatwo rozróżnić pojęcie „konsonansu” i „dysonansu” różnych akordów i interwałów dźwiękowych. pojęcie "współbrzmienie" jest definiowany odpowiednio jako dźwięk spółgłoski (od francuskiego słowa „zgoda”) i odwrotnie, "dysonans"- niespójny, niezgodny dźwięk. Mimo różnorodności różne interpretacje spośród tych koncepcji charakterystyki interwałów muzycznych najwygodniej jest zastosować „muzyczno-psychologiczną” interpretację terminów: współbrzmienie jest definiowany i odczuwany przez człowieka jako przyjemny i wygodny, miękki dźwięk; dysonans z drugiej strony można go scharakteryzować jako dźwięk wywołujący irytację, niepokój i napięcie. Taka terminologia jest nieco subiektywna, a ponadto w historii rozwoju muzyki przyjmowano zupełnie inne interwały dla „spółgłoski” i odwrotnie.

Współcześnie pojęcia te są również trudne do jednoznacznego postrzegania, ponieważ istnieją różnice między ludźmi o różnych preferencjach i gustach muzycznych, nie ma też ogólnie przyjętej i uzgodnionej koncepcji harmonii. Psychoakustyczne podstawy postrzegania różnych interwałów muzycznych jako spółgłoskowych lub dysonansowych zależą bezpośrednio od koncepcji „pasma krytycznego”. Pasek krytyczny- jest to pewna szerokość pasma, w obrębie którego wrażenia słuchowe zmieniają się diametralnie. Szerokość pasm krytycznych zwiększa się proporcjonalnie ze wzrostem częstotliwości. Dlatego poczucie współbrzmień i dysonansów jest bezpośrednio związane z obecnością pasm krytycznych. Narząd słuchu człowieka (ucho), jak wspomniano wcześniej, pełni rolę filtra środkowoprzepustowego na pewnym etapie analizy fal dźwiękowych. Rolę tę przypisuje się błonie podstawnej, na której znajdują się 24 pasma krytyczne o szerokości zależnej od częstotliwości.

Tak więc współbrzmienie i niekonsekwencja (konsonans i dysonans) zależą bezpośrednio od rozdzielczości układu słuchowego. Okazuje się, że jeśli dwa różne tony brzmią unisono lub różnica częstotliwości wynosi zero, to jest to idealna współbrzmienie. Ten sam współbrzmienie występuje, gdy różnica częstotliwości jest większa niż pasmo krytyczne. Dysonans występuje tylko wtedy, gdy różnica częstotliwości wynosi od 5% do 50% pasma krytycznego. Najwyższy stopień dysonansu w tym segmencie jest słyszalny, gdy różnica wynosi jedną czwartą szerokości pasma krytycznego. Na tej podstawie łatwo jest przeanalizować dowolne zmiksowane nagranie muzyczne i kombinację instrumentów pod kątem współbrzmienia lub dysonansu dźwięku. Nietrudno się domyślić, jak dużą rolę odgrywa w tym przypadku realizator dźwięku, studio nagraniowe i inne elementy finalnej cyfrowej lub analogowej oryginalnej ścieżki dźwiękowej, a wszystko to jeszcze przed próbą odtworzenia jej na sprzęcie odtwarzającym dźwięk.

Lokalizacja dźwięku

System słyszenia obuusznego i lokalizacji przestrzennej pomaga człowiekowi dostrzec pełnię przestrzennego obrazu dźwiękowego. Ten mechanizm percepcji jest realizowany przez dwa odbiorniki słuchowe i dwa kanały słuchowe. Informacje dźwiękowe, które docierają tymi kanałami, są następnie przetwarzane w obwodowej części układu słuchowego i poddawane analizie widmowej i czasowej. Ponadto informacja ta jest przekazywana do wyższych części mózgu, gdzie porównywana jest różnica między lewym i prawym sygnałem dźwiękowym, a także tworzony jest pojedynczy obraz dźwiękowy. Ten opisany mechanizm to tzw słyszenie obuuszne . Dzięki temu osoba ma tak wyjątkowe możliwości:

1) lokalizacja sygnałów dźwiękowych z jednego lub więcej źródeł, tworząc jednocześnie przestrzenny obraz percepcji pola dźwiękowego
2) separacja sygnałów pochodzących z różnych źródeł
3) selekcja niektórych sygnałów na tle innych (np. selekcja mowy i głosu z szumu lub brzmienia instrumentów)

Lokalizacja przestrzenna jest łatwa do zaobserwowania na prostym przykładzie. Na koncercie, na scenie, na której znajduje się pewna liczba muzyków w pewnej odległości od siebie, łatwo (w razie potrzeby, nawet przymykając oczy) określić kierunek nadejścia sygnału dźwiękowego każdego instrumentu, do oceny głębi i przestrzenności pola dźwiękowego. W ten sam sposób ceniony jest dobry system hi-fi, który jest w stanie niezawodnie „odtworzyć” takie efekty przestrzenności i lokalizacji, a tym samym faktycznie „oszukać” mózg, sprawiając, że poczujesz pełną obecność swojego ulubionego wykonawcy podczas występu na żywo. Lokalizacja źródła dźwięku jest zwykle określana przez trzy główne czynniki: czas, intensywność i widmo. Niezależnie od tych czynników istnieje wiele wzorców, które można wykorzystać do zrozumienia podstaw lokalizacji dźwięku.

Największy zaobserwowany efekt lokalizacji narządy ludzkie słuchu, znajduje się w obszarze średnich częstotliwości. Jednocześnie prawie niemożliwe jest określenie kierunku dźwięków o częstotliwościach powyżej 8000 Hz i poniżej 150 Hz. Ten ostatni fakt jest szczególnie szeroko stosowany w systemach hi-fi i kinie domowym przy wyborze lokalizacji subwoofera (low-frequency link), którego umiejscowienie w pomieszczeniu, ze względu na brak lokalizacji częstotliwości poniżej 150 Hz, praktycznie nie ma znaczenia, a słuchacz i tak otrzymuje holistyczny obraz sceny dźwiękowej. Dokładność lokalizacji zależy od położenia źródła promieniowania fal dźwiękowych w przestrzeni. Tym samym największą dokładność lokalizacji dźwięku notuje się w płaszczyźnie poziomej, osiągając wartość 3°. W płaszczyzna pionowa ludzki układ słuchowy znacznie gorzej określa kierunek źródła, dokładność w tym przypadku wynosi 10-15 ° (ze względu na specyficzną budowę małżowin usznych i złożoną geometrię). Dokładność lokalizacji różni się nieznacznie w zależności od kąta ustawienia emitujących dźwięk obiektów w przestrzeni z kątami względem słuchacza, a stopień załamania fal dźwiękowych głowy słuchacza również wpływa na efekt końcowy. Należy również zauważyć, że sygnały szerokopasmowe są lepiej zlokalizowane niż szum wąskopasmowy.

Znacznie ciekawiej wygląda sytuacja z definicją głębi dźwięku kierunkowego. Na przykład osoba może określić odległość do obiektu za pomocą dźwięku, jednak dzieje się tak w większym stopniu ze względu na zmianę ciśnienia akustycznego w przestrzeni. Zwykle im dalej obiekt znajduje się od słuchacza, tym bardziej fale dźwiękowe są tłumione w wolnej przestrzeni (w pomieszczeniach dodawany jest wpływ fal dźwiękowych odbitych). Można zatem stwierdzić, że dokładność lokalizacji jest wyższa w pomieszczeniu zamkniętym właśnie ze względu na występowanie pogłosu. Fale odbite, które występują w przestrzeniach zamkniętych, dają tak ciekawe efekty, jak poszerzenie sceny dźwiękowej, obwiednie itp. Zjawiska te są możliwe właśnie dzięki podatności trójwymiarowej lokalizacji dźwięku. Głównymi zależnościami determinującymi poziomą lokalizację dźwięku są: 1) różnica czasu nadejścia fali dźwiękowej w lewo i prawe ucho; 2) różnica w natężeniu spowodowana dyfrakcją na głowie słuchacza. Aby określić głębokość dźwięku, ważna jest różnica w poziomie ciśnienia akustycznego i różnica w składzie widmowym. Lokalizacja w płaszczyźnie pionowej jest również silnie zależna od dyfrakcji w małżowinie usznej.

Sytuacja jest bardziej skomplikowana w przypadku nowoczesnych systemów dźwięku przestrzennego opartych na technologii Dolby Surround i analogach. Wydawałoby się, że zasada budowania systemów kino domowe jasno regulują sposób odtwarzania dość naturalistycznego przestrzennego obrazu dźwięku 3D z nieodłączną głośnością i lokalizacją źródeł pozornych w przestrzeni. Jednak nie wszystko jest takie trywialne, ponieważ zazwyczaj nie bierze się pod uwagę mechanizmów percepcji i lokalizacji dużej liczby źródeł dźwięku. Przetwarzanie dźwięku przez narząd słuchu polega na dodawaniu do siebie sygnałów pochodzących z różnych źródeł różne uszy. Co więcej, jeśli struktura fazowa różnych dźwięków jest mniej więcej synchroniczna, to taki proces odbierany jest przez ucho jako dźwięk wydobywający się z jednego źródła. Jest również cała linia trudności, w tym cechy mechanizmu lokalizacyjnego, co utrudnia dokładne określenie kierunku źródła w przestrzeni.

W związku z powyższym najtrudniejszym zadaniem jest oddzielenie dźwięków z różnych źródeł, zwłaszcza jeśli te różne źródła odtwarzają podobny sygnał amplitudowo-częstotliwościowy. I tak właśnie dzieje się w praktyce w każdym nowoczesny układ dźwięku przestrzennego, a nawet w konwencjonalnym systemie stereo. Kiedy człowiek słucha dużej liczby dźwięków pochodzących z różnych źródeł, najpierw następuje określenie przynależności każdego dźwięku do źródła, które go tworzy (grupowanie według częstotliwości, wysokości, barwy). I dopiero w drugim etapie plotka próbuje zlokalizować źródło. Następnie napływające dźwięki są dzielone na strumienie na podstawie cech przestrzennych (różnica w czasie dotarcia sygnałów, różnica w amplitudzie). Na podstawie otrzymanych informacji powstaje mniej lub bardziej statyczny i utrwalony obraz słuchowy, z którego można określić skąd pochodzi dany dźwięk.

Bardzo wygodnie jest prześledzić te procesy na przykładzie zwykłej sceny z zafiksowanymi na niej muzykami. Jednocześnie bardzo ciekawe jest to, że jeśli wokalista/performer, zajmując wstępnie określoną pozycję na scenie, zacznie płynnie poruszać się po scenie w dowolnym kierunku, to wcześniej ukształtowany obraz dźwiękowy się nie zmieni! Określenie kierunku dochodzącego dźwięku od wokalisty pozostanie subiektywnie takie samo, jakby stał on w tym samym miejscu, w którym stał przed ruchem. Tylko na wszelki wypadek nagła zmiana lokalizacji wykonawcy na scenie, wygenerowany obraz dźwiękowy zostanie podzielony. Oprócz rozważanych problemów i złożoności procesów lokalizacji dźwięku w przestrzeni, w przypadku wielokanałowych systemów dźwięku przestrzennego dość dużą rolę odgrywa proces pogłosu w końcowym pokoju odsłuchowym. Ten związek jest najbardziej wyraźny, kiedy duża liczba odbite dźwięki dochodzą ze wszystkich kierunków - dokładność lokalizacji znacznie się pogarsza. Jeżeli nasycenie energią fal odbitych jest większe (przeważa) niż dźwięków bezpośrednich, wówczas kryterium lokalizacji w takim pomieszczeniu ulega skrajnemu zatarciu, niezwykle trudno (jeśli nie niemożliwie) mówić o dokładności określenia takich źródeł.

Jednak w pomieszczeniu o dużym pogłosie lokalizacja teoretycznie zachodzi, w przypadku sygnałów szerokopasmowych słyszeniem kieruje się parametr różnicy natężenia. W tym przypadku kierunek jest określony przez składową wysokiej częstotliwości widma. W każdym pomieszczeniu dokładność lokalizacji będzie zależała od czasu nadejścia dźwięków odbitych po dźwiękach bezpośrednich. Jeśli przerwa między tymi sygnałami dźwiękowymi jest zbyt mała, „prawo fali bezpośredniej” zaczyna działać, aby pomóc układowi słuchowemu. Istota tego zjawiska: jeśli dźwięki o krótkim odstępie czasu dobiegają z różnych kierunków, to lokalizacja całego dźwięku następuje według pierwszego dźwięku, który dotarł, tj. słuch ignoruje do pewnego stopnia dźwięk odbity, jeśli nadejdzie on zbyt krótko po dźwięku bezpośrednim. Podobny efekt pojawia się również przy określaniu kierunku nadejścia dźwięku w płaszczyźnie pionowej, jednak w tym przypadku jest on znacznie słabszy (ze względu na zauważalnie mniejszą podatność narządu słuchowego na lokalizację w płaszczyźnie pionowej).

Istota efektu pierwszeństwa jest znacznie głębsza i ma raczej charakter psychologiczny niż fizjologiczny. Przeprowadzono dużą liczbę eksperymentów, na podstawie których ustalono zależność. Efekt ten występuje głównie wtedy, gdy czas wystąpienia echa, jego amplituda i kierunek pokrywają się z pewnymi „oczekiwaniami” słuchacza od tego, jak akustyka danego pomieszczenia ułoży się na obraz dźwiękowy. Być może osoba miała już doświadczenie słuchania w tym lub podobnym pomieszczeniu, co stanowi predyspozycję układu słuchowego do wystąpienia „oczekiwanego” efektu pierwszeństwa. Aby obejść te ograniczenia tkwiące w ludzkim słuchu, w przypadku kilku źródeł dźwięku stosuje się różne sztuczki, za pomocą których ostatecznie tworzy się mniej lub bardziej wiarygodna lokalizacja instrumentów muzycznych/innych źródeł dźwięku w przestrzeni . Ogólnie rzecz biorąc, odtwarzanie stereofonicznych i wielokanałowych obrazów dźwiękowych opiera się na wielu oszustwach i tworzeniu iluzji słuchowej.

Gdy dwa lub więcej głośników (na przykład 5.1 lub 7.1, a nawet 9.1) odtwarza dźwięk z różnych punktów w pomieszczeniu, słuchacz słyszy dźwięki pochodzące z nieistniejących lub wyimaginowanych źródeł, postrzegając pewną panoramę dźwiękową. Możliwość tego oszustwa tkwi w biologicznych cechach budowy ludzkiego ciała. Najprawdopodobniej dana osoba nie miała czasu na przystosowanie się do rozpoznania takiego oszustwa ze względu na fakt, że zasady „sztucznej” reprodukcji dźwięku pojawiły się stosunkowo niedawno. Ale chociaż proces tworzenia wyimaginowanej lokalizacji okazał się możliwy, implementacja wciąż daleka jest od doskonałości. Faktem jest, że słuch naprawdę odbiera źródło dźwięku tam, gdzie go faktycznie nie ma, ale poprawność i dokładność przekazywania informacji dźwiękowych (w szczególności barwy) jest dużym pytaniem. Metodą licznych eksperymentów w rzeczywistych pokojach pogłosowych iw komorach tłumionych stwierdzono, że barwa fal dźwiękowych różni się od rzeczywistych i urojonych źródeł. Wpływa to głównie na subiektywne postrzeganie głośności spektralnej, barwa w tym przypadku zmienia się w sposób znaczący i zauważalny (w porównaniu z podobnym dźwiękiem odtworzonym przez rzeczywiste źródło).

W przypadku wielokanałowych systemów kina domowego poziom zniekształceń jest zauważalnie wyższy z kilku powodów: 1) Wiele sygnałów dźwiękowych o podobnej charakterystyce amplitudowo-częstotliwościowej i fazowej pochodzi jednocześnie z różnych źródeł i kierunków (w tym fale odbite). do każdego kanału słuchowego. Prowadzi to do zwiększonych zniekształceń i pojawienia się filtrowania grzebieniowego. 2) Silne rozstawienie głośników w przestrzeni (względem siebie, w systemach wielokanałowych odległość ta może wynosić kilka lub więcej metrów) przyczynia się do wzrostu zniekształceń barwy i podbarwień dźwięku w rejonie wyimaginowanego źródła. W rezultacie można powiedzieć, że podbarwienie barwy w systemach dźwięku wielokanałowego i przestrzennego występuje w praktyce z dwóch powodów: zjawiska filtrowania grzebieniowego oraz wpływu procesów pogłosowych w danym pomieszczeniu. Jeśli za odtwarzanie informacji dźwiękowych odpowiada więcej niż jedno źródło (dotyczy to również systemu stereo z 2 źródłami), nieunikniony jest efekt „filtrowania grzebieniowego”, spowodowany różnym czasem dotarcia fal dźwiękowych do każdego kanału słuchowego. Szczególną nierówność obserwuje się w rejonie górnego środkowego pasma 1-4 kHz.

Każdy widział na audiogramach lub sprzęcie audio taki parametr głośności lub związany z nim -. Jest to jednostka miary głośności. Dawno, dawno temu ludzie zgodzili się i zaznaczyli, że normalnie człowiek słyszy od 0 dB, co w rzeczywistości oznacza określone ciśnienie akustyczne, które jest odbierane przez ucho. Statystyki mówią, że normalny zakres to zarówno lekki spadek do 20dB, jak i słuch powyżej normy w postaci -10dB! Delta „normy” wynosi 30 dB, czyli jakoś całkiem sporo.

Jaki jest dynamiczny zakres słyszenia? Jest to zdolność słyszenia dźwięków o różnej głośności. Powszechnie przyjmuje się, że ucho ludzkie słyszy od 0dB do 120-140dB. Zdecydowanie nie zaleca się słuchania dźwięków już od 90dB i więcej przez długi czas.

Zakres dynamiczny każdego ucha mówi nam, że przy 0dB ucho słyszy dobrze i szczegółowo, a przy 50dB słyszy dobrze i szczegółowo. Możesz to zrobić przy 100dB. W praktyce każdy był w klubie lub na koncercie, gdzie muzyka grała głośno – a szczegóły są cudowne. Nagrania słuchaliśmy ledwie cicho przez słuchawki, leżąc w cichym pokoju – i też wszystkie detale były na swoim miejscu.

W rzeczywistości ubytek słuchu można opisać jako zmniejszenie zakresu dynamicznego. W rzeczywistości osoba słabo słysząca nie słyszy szczegółów przy niskim poziomie głośności. Jego zakres dynamiki się zawęża. Zamiast 130dB staje się 50-80dB. Dlatego: nie ma możliwości „wsunięcia” w zakres 80 dB informacji, która w rzeczywistości mieści się w zakresie 130 dB. A jeśli pamięta się też o tym, że decybele to zależność nieliniowa, to cała tragedia sytuacji staje się jasna.

Ale teraz porozmawiajmy o dobrym słyszeniu. Tutaj ktoś wszystko słyszy na poziomie spadku o jakieś 10 dB. To normalne i społecznie akceptowalne. W praktyce taka osoba słyszy zwykłą mowę z odległości 10 metrów. Ale wtedy pojawia się osoba ze słuchem doskonałym - powyżej 0 na 10 dB - i słyszy tę samą mowę z odległości 50 metrów w równych warunkach. Zakres dynamiczny jest szerszy - jest więcej detali i możliwości.

Szeroki zakres dynamiki sprawia, że ​​mózg pracuje w zupełnie inny jakościowo sposób. Znacznie więcej informacji, jest znacznie dokładniejsze i bardziej szczegółowe, ponieważ. słychać coraz więcej różnych alikwotów i harmonicznych, które znikają przy wąskim zakresie dynamicznym: umykają uwadze człowieka, ponieważ nie da się ich usłyszeć.

Nawiasem mówiąc, skoro dostępny jest zakres dynamiki 100 dB+, oznacza to również, że człowiek może go stale używać. Po prostu słuchałem na poziomie głośności 70 dB, a potem nagle zacząłem słuchać - 20 dB, potem 100 dB. Przejście musi trwać minimalny czas. I właściwie można powiedzieć, że osoba z upadkiem nie pozwala sobie na duży zakres dynamiki. Osoby niesłyszące wydają się zastępować ideę, że wszystko jest teraz bardzo głośne - a ucho przygotowuje się do słyszenia głośnego lub bardzo głośnego, zamiast rzeczywistej sytuacji.

Jednocześnie zakres dynamiczny swoją obecnością pokazuje, że ucho nie tylko rejestruje dźwięki, ale także dostosowuje się do aktualnej głośności, aby wszystko dobrze słyszeć. Ogólny parametr głośności jest przekazywany do mózgu dokładnie w taki sam sposób, jak sygnały dźwiękowe.

Ale osoba z doskonałym słuchem może bardzo elastycznie zmieniać swój zakres dynamiki. A żeby coś usłyszeć, nie napina się, a wręcz relaksuje. W ten sposób słuch pozostaje doskonały zarówno w zakresie dynamicznym, jak i jednocześnie w zakresie częstotliwości.

Ostatnie posty z tego czasopisma

  • Jak zaczyna się spadek przy wysokich częstotliwościach? Nie ma możliwości usłyszenia lub uwagi? (20000Hz)

    Możesz przeprowadzić uczciwy eksperyment. Przyjmujemy zwykłych ludzi, nawet jeśli mają 20 lat. I włącz muzykę. To prawda, jest jedno zastrzeżenie. Trzeba to wziąć i zrobić...


  • Kłóć się za jęczeć. Wideo

    Ludzie przyzwyczajają się do narzekania. Wydaje się, że jest to obowiązkowe i konieczne. Takie są dziwne emocje i doznania wewnątrz. Ale wszyscy zapominają, że narzekanie nie jest ...

  • Mówisz o jakimś problemie - to znaczy, że Ci na nim zależy. Naprawdę nie możesz milczeć. Mówią to cały czas. Ale jednocześnie tęsknią...

  • Co to jest ważne wydarzenie? Czy zawsze coś naprawdę wpływa na osobę? Lub? Tak naprawdę ważne wydarzenie to tylko etykietka w głowie...


  • Zdejmowanie aparatu słuchowego: złożoność przejścia. Poprawki słuchu #260. Wideo

    Nadchodzi ciekawy moment: teraz słuch stał się na tyle dobry, że czasami można go całkiem dobrze usłyszeć bez SA. Ale próbując to zdjąć - wszystko wydaje się ...


  • Słuchawki na przewodnictwo kostne. Dlaczego, co i jak będzie ze słuchem?

    Z każdym dniem coraz więcej słyszy się o słuchawkach i głośnikach z przewodnictwem kostnym. Osobiście uważam, że to bardzo zły pomysł w połączeniu z obydwoma...

pola_tekstowe

pola_tekstowe

strzałka_w górę

Funkcje układu słuchowego charakteryzują się następującymi wskaźnikami:

  1. zakres słyszalnych częstotliwości;
  2. Absolutna czułość częstotliwości;
  3. Czułość różnicowa częstotliwości i intensywności;
  4. Rozdzielczość przestrzenna i czasowa słuchu.

Zakres częstotliwości

pola_tekstowe

pola_tekstowe

strzałka_w górę

zakres częstotliwości, odbierany przez osobę dorosłą obejmuje około 10 oktaw skali muzycznej - od 16-20 Hz do 16-20 kHz.

Zakres ten, typowy dla osób poniżej 25 roku życia, z roku na rok stopniowo maleje ze względu na redukcję jego części wysokoczęstotliwościowej. Po 40 latach górna częstotliwość słyszalnych dźwięków zmniejsza się o 80 Hz co kolejne pół roku.

Absolutna czułość częstotliwości

pola_tekstowe

pola_tekstowe

strzałka_w górę

Najwyższa czułość słuchu występuje przy częstotliwościach od 1 do 4 kHz. W tym zakresie częstotliwości czułość ludzkiego słuchu jest zbliżona do poziomu szumu Browna - 2 x 10 -5 Pa.

Sądząc po audiogramie, tj. funkcji zależności progu słyszenia od częstotliwości dźwięku, czułość na tony poniżej 500 Hz systematycznie maleje: przy częstotliwości 200 Hz - o 35 dB, a przy częstotliwości 100 Hz - o 60 dB.

Taki spadek czułości słuchu na pierwszy rzut oka wydaje się dziwny, ponieważ wpływa dokładnie na zakres częstotliwości, w którym się znajduje większość dźwięki mowy i instrumenty muzyczne. Oszacowano jednak, że w obszarze percepcji słuchowej człowiek odczuwa około 300 000 dźwięków o różnej sile i wysokości.

Niska wrażliwość słuchu na dźwięki z zakresu niskich częstotliwości chroni człowieka przed ciągłym odczuwaniem niskoczęstotliwościowych wibracji i dźwięków własnego ciała (ruchy mięśni, stawów, szum krwi w naczyniach).

Czułość różnicowa częstotliwości i intensywności

pola_tekstowe

pola_tekstowe

strzałka_w górę

Czułość różnicowa ludzkiego słuchu charakteryzuje się zdolnością rozróżniania minimalnych zmian parametrów dźwięku (intensywność, częstotliwość, czas trwania itp.).

W obszarze średnich poziomów natężenia (około 40-50 dB powyżej progu słyszalności) i częstotliwości 500-2000 Hz próg różnicowy dla natężenia wynosi tylko 0,5-1,0 dB, dla częstotliwości 1%. Różnice w czasie trwania sygnałów odbieranych przez układ słuchowy wynoszą mniej niż 10%, a zmianę kąta źródła tonu o wysokiej częstotliwości szacuje się z dokładnością do 1-3°.

Rozdzielczość przestrzenna i czasowa słuchu

pola_tekstowe

pola_tekstowe

strzałka_w górę

Słuch przestrzenny nie tylko pozwala na ustalenie lokalizacji źródła dźwięku obiektu, stopnia jego oddalenia i kierunku jego ruchu, ale także zwiększa wyrazistość percepcji. Proste porównanie słuchania mono i stereo z nagraniem stereo daje pełny obraz korzyści płynących z percepcji przestrzennej.

wyczucie czasu słyszenie przestrzenne opiera się na łączeniu danych otrzymanych z dwojga uszu (słyszenie obuuszne).

słyszenie obuuszne zdefiniuj dwa główne warunki.

  1. W przypadku niskich częstotliwości głównym czynnikiem jest różnica w czasie, w jakim dźwięk dociera do lewego i prawego ucha,
  2. dla wysokich częstotliwości - różnice w natężeniu.

Dźwięk najpierw dociera do ucha znajdującego się najbliżej źródła. Przy niskich częstotliwościach fale dźwiękowe „otaczają” głowę ze względu na swoją dużą długość. Dźwięk w powietrzu ma prędkość 330 m/s. W związku z tym pokonuje 1 cm w ciągu 30 µs. Ponieważ odległość między uszami człowieka wynosi 17-18 cm, a głowę można uznać za kulę o promieniu 9 cm, różnica między dźwiękiem docierającym do różnych uszu wynosi 9π x 30=840 µs, gdzie 9π (lub 28 cm (π=3,14)) to dodatkowa droga, jaką dźwięk musi pokonać wokół głowy, aby dotrzeć do drugiego ucha.

Oczywiście różnica ta zależy od lokalizacji źródła.- jeśli znajduje się w środkowej linii z przodu (lub z tyłu), dźwięk dociera do obojga uszu w tym samym czasie. Najmniejsze przesunięcie w prawo lub w lewo od linii środkowej (nawet mniej niż 3°) jest już dostrzegane przez osobę. A to oznacza, że istotna dla analizy przez mózg różnica między dotarciem dźwięku do prawego i lewego ucha jest mniejsza niż 30 μs.

W konsekwencji fizyczny wymiar przestrzenny jest postrzegany dzięki unikalnym zdolnościom układu słuchowego jako analizatora czasu.

Aby móc odnotować tak niewielką różnicę w czasie, potrzebne są bardzo subtelne i precyzyjne mechanizmy porównawcze. Takiego porównania dokonuje ośrodkowy układ nerwowy w miejscach, gdzie impulsy z prawego i lewego ucha zbiegają się na tej samej strukturze (komórce nerwowej).

Takie miejsca, tzwgłówne poziomy konwergencji, w klasycznym układzie słuchowym co najmniej trzy to górny kompleks oliwkowy, dolny wzgórek i kora słuchowa. Na każdym poziomie znajdują się dodatkowe miejsca zbieżności, takie jak połączenia między wzgórzami i między półkulami.

Faza fali dźwiękowej związane z różnicami w czasie dotarcia dźwięku do ucha prawego i lewego. Dźwięk „późniejszy” jest poza fazą z dźwiękiem „wcześniejszym”. To opóźnienie jest ważne w percepcji stosunkowo niskich częstotliwości dźwięków. Są to częstotliwości o długości fali co najmniej 840 µs, tj. częstotliwości nie większej niż 1300 Hz.

Przy wysokich częstotliwościach, gdy rozmiar głowy jest znacznie większy niż długość fali dźwiękowej, ta ostatnia nie może „ominąć” tej przeszkody. Na przykład, jeśli dźwięk ma częstotliwość 100 Hz, to jego długość fali wynosi 33 m, przy częstotliwości dźwięku 1000 Hz - 33 cm, a przy częstotliwości 10 000 Hz - 3,3 cm Z powyższych liczb wynika, że ​​w przy wysokich częstotliwościach dźwięk odbija się od głowy. W rezultacie występuje różnica w natężeniu dźwięków dochodzących do prawego i lewego ucha. U ludzi próg różnicy natężenia przy częstotliwości 1000 Hz wynosi około 1 dB, więc lokalizacja źródła dźwięku o wysokiej częstotliwości opiera się na różnicach w natężeniu dźwięku docierającego do prawego i lewego ucha.

Rozdzielczość słyszenia w czasie charakteryzuje się dwoma wskaźnikami.

Po pierwsze, Ten sumowanie czasu. Charakterystyka sumowania czasu -

  • czas, w którym czas trwania bodźca wpływa na próg odczuwania dźwięku,
  • stopień tego wpływu, tj. wielkość zmiany progu odpowiedzi. U ludzi sumowanie czasowe trwa około 150 ms.

Po drugie, Ten minimalny odstęp między dwoma krótkimi bodźcami (impulsami dźwiękowymi), które rozróżnia ucho. Jego wartość wynosi 2-5 ms.