Jesteś tutaj

Nasz mózg posiada niezwykłą umiejętność selekcjonowania tego, co słyszy. W tłumie ludzi i pośród wielu rozmów potrafimy wyłączyć szum i skupić się na tylko jednej wypowiedzi. Jak udało się ustalić, proces polega na tym, że tylko wybrane dźwięki przetwarzamy na głoski (fonemy, jak mówią neuronaukowcy), czyli jednostki mowy, z których budowane są wyrazy. W ten sposób wyselekcjonowane dźwięki zmieniamy w słowa, podczas gdy reszta pozostaje tylko dźwiękowym tłem.

Jak to możliwe, że w zatłoczonym pokoju, pełnym ludzi rozmawiających między sobą, w restauracji albo na przyjęciu, potrafimy skupić się na jednym głosie, wyłowić go pośród innych i zrozumieć każde słowo? Nasze uszy nie są przecież precyzyjnym mikrofonem punktowym, który omija szumy i chwyta tylko jeden, wyraźnie wskazany dźwięk. Przeciwnie, dostarczają mózgowi dane z całego otoczenia – wszystkie wypowiedziane słowa, dźwięki z ulicy, muzykę z radia i buczenie lodówki. A jednak, nasz mózg wypracował tę niezwykłą umiejętność, by precyzyjnie wybrać i całkiem dokładnie zrozumieć właśnie tę jedną rozmowę, czasem z drugiej strony sali, która przyciąga naszą uwagę.

Poszukiwaniem rozwiązania tej zagadki zajmuje się od pewnego czasu zespół pracujący w laboratorium dr. Edmunda Lalora, profesora neuronauki i inżynierii biomedycznej w University of Rochester Medical Center. Badaczom udało się odkryć niedawno nową wskazówkę, w jaki sposób mózg jest w stanie „rozpakować” wybrane z przekazu informacje i celowo słyszeć jednego mówcę, jednocześnie wyciszając się lub ignorując innego. Wyniki swoich badań opublikowali w czasopiśmie „The Journal of Neuroscience”. Okazuje się, że wstępny przegląd wszystkich informacji wygląda podobnie, ale w przypadku wybranej informacji mózg robi dodatkowy krok, aby zrozumieć słowa pochodzące od słuchanego mówcy, którego nie robi pozostałych słów i dźwięków.

– Nasze badania sugerują, że zarówno akustyka wątku, na którym się koncentrujemy, jak i wątku pozostawionego bez nadzoru lub zignorowanego, jest przetwarzana w podobny sposób – opowiada prof. Lalor. – Odkryliśmy jednak, że istnieje wyraźna różnica w tym, co dzieje się w mózgu później.

W badaniu wzięła udział grupa ludzi, która symultanicznie słuchała dwóch opowieści. Zadaniem każdego uczestnika było skupienie uwagi tylko na jednej z nich. Podczas wykonywania tej czynności słuchający byli badani za pomocą elektroencefalografa (EEG), czyli sieci elektrod przypiętych do skóry głowy, których zadaniem jest rejestracja sygnałów elektrycznych generowanych przez komunikację między neuronami mózgu. Dzięki takiemu badaniu neurolodzy są w stanie odczytać, która część mózgu jest aktywna i porównać tę aktywność ze znanymi sobie schematami działania połączeń nerwowych.

Jak się okazało na podstawie tego badania, tylko podczas słuchania opowieści, na której badani mieli za zadanie się skupić, mózg przekształca dźwięki w głoski (autorzy określają je fonemami), czyli podstawowe jednostki budujące słowa i pozwalające tworzyć znaczenia. To pierwszy, podstawowy krok, który mózg wykonuje, żeby zrozumieć opowiadaną historię.

– Dźwięki muszą być rozpoznawane jako odpowiadające określonym kategoriom językowym, takim jak fonemy i sylaby, abyśmy mogli ostatecznie określić, jakie słowa są wypowiadane – nawet jeśli brzmią inaczej – na przykład wypowiadane przez osoby z innym akcentem lub inną tonacją głosu – wyjaśnia prof. Lalor.

Przedstawione badania są kontynuacją szerszego projektu, który kontynuowany jest w laboratorium prof. Lalora w Rochester od 2012 roku. Wcześniejsza ważna publikacja, do której nawiązują badacze pochodzi z 2014 roku. Udało się wtedy opisać to, jak ustalić za pomocą badania EEG fal mózgowych na czyją wypowiedź w grupie czy w tłumie dana osoba zwraca uwagę.

Była to wówczas praca nowatorska ze względu na niestosowane wcześniej podejście do badania odbioru sygnałów wysyłanych przez mózg. Publikacja była szeroko komentowana, a cały zespół był za nią nagradzany i wyróżniany, w uznaniu zasług w rozwoju technologii, która ma wspierać osoby z niepełnosprawnością słuchową w poprawie interakcji sensorycznych i motorycznych ze światem, między innymi przez opracowywanie lepszych aparatów słuchowych.


Artykuły źrółowe:

Emily S. Teoh et al, Attention differentially affects acoustic and phonetic feature encoding in a multispeaker environment, The Journal of Neuroscience (2021). DOI: 10.1523/JNEUROSCI.1455-20.2021
James A. O'Sullivan et al, Attentional Selection in a Cocktail Party Environment Can Be Decoded from Single-Trial EEG, Cerebral Cortex (2014). DOI: 10.1093/cercor/bht355

Opracowano na podstawie artykułu URMC researchers reveal how the brain understands one voice in a noisy crowd opublikowanego na stronie internetowej University of Rochester Medical Center.

grafika przedstawiająca schemat głowy ludzkiej z mózgiem otoczony przez sieć