Pewnie większość z nas odpowie, że tak, bo przecież kumulujące się w naszym ciele uczucia i emocje z głosu można odczytać. I będziemy mieli rację. Ale jest coś jeszcze. Ta zależność ciała i głosu stała się przedmiotem badań amerykańskich naukowców.
Większość z nas mówi automatycznie, bez wysiłku, nie zdając sobie sprawy i nie myśląc o złożoności struktur naszego głosu, ich koordynacji i wariacji podczas procesu mówienia. Bardzo dobrze, bo ciężko byłoby nam żyć, gdyby nasz twardy dysk nie automatyzował tych czynności. Gdy jednak zastanowimy się i pomyślimy o naszym ciele w kontekście głosu lub o naszym głosie w kontekście ciała, kilka rzeczy możemy odkryć.
Wiemy, że nasz głos dostarcza kilku informacji o człowieku, z rozmowy telefonicznej możemy wyczytać np. trochę o osobowości, trochę o wieku naszego rozmówcy. Wiemy także, że i kondycję fizyczną dość łatwo nam rozpoznać, słyszymy po głosie czy ktoś jest np. zmęczony. To, że trudno ukryć emocje, intencje w głosie też wiemy. O tym, co konkretnie można wyczytać z ludzkiego głosu pisałam tutaj. Co jeszcze jest do odkrycia?
Bardzo ciekawe jest natomiast głębsze połączenie głosu i ciała. Amerykańscy naukowcy na podstawie analizy naszego głosu oraz z pomocą specjalnie napisanych algorytmów, potrafią rozpoznać niektóre symptomy kilku chorób. My, oczywiście, też kilka symptomów możemy rozpoznać, bez pomocy amerykańskich naukowców i algorytmów. Z łatwością stwierdzimy czy kogoś boli gardło, czy jest jest przeziębiony , czy nawet jest w kiepskim stanie psychicznym. Bardziej czujne ucho jest wychwycić także depresję. Jak to słyszymy? To poprzez zmienność motoryczną i akustyczną, czyli ton, tempo, głośność i barwę, można zauważyć co dzieje się z człowiekiem. Jeśli nic nie słyszymy, to niczego nie podejrzewamy. Można więc śmiało powiedzieć, że w zdrowym ciele zdrowy głos.
Zespół naukowców z Massachusetts Institute of Technology (MIT) poszedł jednak o krok dalej. Wykorzystując algorytmy uczenia maszynowego do analizy nagrań głosowych, amerykańscy naukowcy przebadali ponad 3000 pacjentów w całych Stanach Zjednoczonych, analizując ich głosy pod kątem zmian w nich zachodzących.
Nie były to pierwsze próby analizy ludzkiego głosu do wykrywania chorób. Od dłuższego czasu naukowców zajmują zmiany we wzorcach głosów pacjentów w celu wczesnej diagnostyki, czy pomocy w diagnozowaniu stanu zdrowia. Jako ciekawostkę dodam, że już w 1921 roku, niemiecki psychiatra Emil Kraepelin zauważył, że głosy pacjentów z depresją miały zwykle niższy ton, mniejszą intensywność dźwięku. Pacjenci mówili wolniej i bardziej monotonie. To co kiedyś wykryło ucho ludzkie, dzisiaj potwierdziło ucho maszynowe.
Dzięki sztucznej inteligencji, nowoczesnym metodom badawczym i dostępie do ogromnej próby badawczej, analiza stanu zdrowia poprzez wsłuchanie się w głos pacjenta stała się dużo łatwiejsza i dokładniejsza.
Naukowcy z MIT odkryli, że cechy wokalne, takie jak wysokość, głośność i tempo mówienia, artykulacja i płynność mówienia zmieniają się wraz ze zmianą stanu zdrowia i są pomocne w wykrywaniu chorób takich jak: choroba Parkinsona, depresja schizofrenia, przewlekła choroba płuc (POChP), zaburzenia obsesyjno - kompulsyjne, zespół stresu pourazowego PTSD.
Co więcej, zmiany w głosie słyszalne są najwcześniej, zanim jeszcze pojawią się inne charakterystyczne dla danej jednostki chorobowej symptomy. Oznaczałoby, że niektóre choroby można wykryć wcześniej niż do tej pory, co zdecydowanie mogłoby poprawić jakość życia pacjenta.
Ciekawostką dla mnie było to, jak na algorytmy wykrywające COVID na podstawie ludzkiego głosu natknęłam się na podczas pandemii. Wystarczyło zadzwonić i dać próbkę swojego głosu. Proste, prawda?
Trzymam kciuki za amerykańskich naukowców i ich badania nad ludzkim głosem. Myślę, że temat dopiero się rozkręca i sporo jeszcze przed nami. Co ty na to Siri, Alexa?
Więcej o metodzie uczenia maszynowego do diagnozowania choroby Parkinsona, na podstawie analizy głosu można poczytać pod tym linkiem https://www.mdpi.com/2079-9292/11/22/3782