Mozek používá svou funkci „autokorekce“ k vydávání zvuků
Nový výzkum přiblížil schopnosti rozpoznávání řeči v mozku a odhalil mechanismus, kterým mozek rozlišuje mezi nejednoznačnými zvuky.
Mozek nasazuje fascinující mechanismy k vydávání zvuků."Aoccdrnig na rscheearch na Cmabrigde Uinervtisy, to není důležité ve waht oredr ltteers v wrod jsou, olny iprmoetnt tihng je na prsa a lsat ltteer být na rghit pclae."
Stejně jako mnoho dalších jste pravděpodobně dokázali bez problémů přečíst výše uvedenou větu - což je důvod pro hromadné online odvolání, které toto meme mělo před více než deseti lety.
Psycholingvisté vysvětlují, že mem je sám o sobě falešný, protože přesné mechanismy za vizuální „autokorekcí“ funkce mozku zůstávají nejasné.
Vedle prvního a posledního písmene, které je klíčem ke schopnosti mozku rozpoznat chybně napsaná slova, vysvětlují vědci, může mít při vizuálním rozpoznávání slov větší význam kontext.
Nový výzkum, nyní publikovaný v Journal of Neuroscience, zkoumá podobné mechanismy, které mozek nasazuje k „automatickým opravám“ a rozpoznávání mluvených slov.
Výzkumná pracovnice Laura Gwilliams - z Katedry psychologie na New York University (NYU) v New Yorku a Neuroscience of Language Lab na NYU Abu Dhabi - je první autorkou článku.
Alec Marantz z oddělení lingvistiky a psychologie NYU je hlavním řešitelem výzkumu.
Gwilliams a tým se podívali na to, jak mozek rozmotává nejednoznačné zvuky. Například fráze „plánované jídlo“ zní velmi podobně jako „jemné jídlo“, ale mozek dokáže určit rozdíl mezi těmito dvěma, v závislosti na kontextu.
Vědci chtěli vidět, co se děje v mozku poté, co uslyší počáteční zvuk jako „b“ nebo „p“. Nová studie je první, která ukazuje, jak probíhá porozumění řeči poté, co mozek detekuje první zvuk.
Náročná dvojznačnost za půl sekundy
Gwilliams a kolegové provedli sérii experimentů, při nichž 50 účastníků poslouchalo oddělené slabiky a celá slova, která zněla velmi podobně. K mapování mozkové aktivity účastníků použili techniku zvanou magnetoencefalografie.
Studie odhalila, že oblast mozku známá jako primární sluchová kůra zachytí nejednoznačnost zvuku pouhých 50 milisekund po nástupu. Poté, co se zbytek slova rozmotá, mozek „znovu vyvolá“ zvuky, které předtím uložil, zatímco přehodnocuje nový zvuk.
Asi po půl vteřině se mozek rozhodne, jak interpretovat zvuk. „Co je zajímavé,“ vysvětluje Gwilliams, „je skutečnost, že [kontext] může nastat po interpretaci zvuků a může být stále používán ke změně vnímání zvuku.“
„[Nejednoznačný počáteční zvuk“, pokračuje profesor Marantz, „například„ b “a„ p “je slyšet tak či onak, podle toho, zda se vyskytuje ve slově„ parakeet “nebo„ barikáda “.“
"Děje se to bez vědomého povědomí o dvojznačnosti, i když disambiguating informace nepřijde až do poloviny třetí slabiky," říká.
"Konkrétně," poznamenává Gwilliams, "jsme zjistili, že sluchový systém aktivně udržuje akustický signál ve [] sluchové kůře a současně odhaduje totožnost vyslovovaných slov."
„Taková strategie zpracování,“ dodává, „umožňuje rychlý přístup k obsahu zprávy a zároveň umožňuje opětovnou analýzu akustického signálu, aby se minimalizovaly chyby sluchu.“
"To, co si člověk myslí, že slyší, nemusí vždy odpovídat skutečným signálům, které se dostanou k uchu," říká Gwilliams.
"Je to proto, že podle našich výsledků mozek přehodnocuje interpretaci zvuku řeči v okamžiku, kdy je slyšet každý následující zvuk řeči, aby podle potřeby aktualizoval interpretace."
"Je pozoruhodné, že náš sluch může být ovlivněn kontextem, který se objeví až o jednu sekundu později, aniž by si posluchač vůbec uvědomil toto změněné vnímání."
Laura Gwilliams