Published : Feb. 6, 2012 - 10:52
U.S. scientists said Wednesday they have found a way to decode how the brain hears words, in what researchers described as a major step toward one day helping people communicate after paralysis or stroke.
MCT
By placing electrodes on the brains of research subjects and then having them listen to conversations, scientists were able to analyze the sound frequencies registered and figure out which words they were hearing.
“We were focused on how the brain processes the sounds of speech,” researcher Brian Pasley of the Helen Wills Neuroscience Institute at the University of California Berkeley told AFP.
“Most of the information in speech is between one to 8,000 hertz.
Essentially the brain analyzes those different sound frequencies in somewhat separate locations.”
By tracking how and where the brain registered sounds in the temporal lobe -- the center of the auditory system -- scientists were able to map out the words and then recreate them as heard by the brain.
“When a particular brain site is being activated, we know that roughly corresponds to some sound frequency that the patient is actually listening to,” Pasley said.
“So we could map that out to an extent that would allow us to use that brain activity to re-synthesize the sound from the frequencies we were guessing.”
One word the researchers mapped was “structure.” The high-frequency “s” sound showed up as a certain pattern in the brain, while the lower harmonics of the “u” sound appeared as a different pattern.
“There is to some extent a correspondence between these features of sound and the brain activity that they cause,” and putting together the physical registry in the brain helped rebuild the words, Pasley explained.
The work builds on previous research in ferrets, in which scientists read to the animals and recorded their brain activity.
They were able to decode which words the creatures heard even though the ferrets themselves didn’t understand the words.
The next step for researchers is to figure out just how similar the process of hearing sounds may be to the process of imagining words and sounds.
That information could one day help scientists determine what people want to say when they cannot physically speak.
Some previous research has suggested there may be similarities, but much more work needs to be done, Pasley said.
“This is huge for patients who have damage to their speech mechanisms because of a stroke or Lou Gehrig’s disease and can’t speak,” co-author Robert Knight, a UC Berkeley professor of psychology and neuroscience, said in a statement.
“If you could eventually reconstruct imagined conversations from brain activity, thousands of people could benefit.”
Participating researchers came from the University of Maryland, UC Berkeley and Johns Hopkins University in Baltimore, Maryland.
The study appears in the January 31 edition of the open access journal PLoS Biology.
뇌파로 생각 읽는다
뇌파를 통해 어떤 사람이 생각하는 단어를 재구성하는 획기적 인 기술이 개발돼 뇌졸중이나 마비 등으로 언어 능력을 잃은 사람들의 머릿속 목소 리를 들을 수 있는 길이 열리게 됐다고 BBC 뉴스가 보도했다.
미국 버클리 캘리포니아대학 연구진은 환자의 뇌로부터 나오는 전기 신호를 직접 포착하고 컴퓨터 모델을 이용해 그 사람이 생각하는 단어를 소리 내도록 하는데 성공했다고 오픈액세스 학술지 플러스 바이올로지에 발표했다.
이는 뇌에 전극을 부착한 피실험자가 모음의 소리를 생각하는 것만으로 컴퓨터 화면의 커서를 움직이게 된 것이나 뇌파 추적을 통해 피실험자가 생각하고 있는 특정 이미지를 알아맞히는 데까지 진전된 최근 연구에서 한 걸음 더 나아간 것이다.
연구진은 간질이나 종양으로 수술을 받게 된 자원 환자 15명을 대상으로 청각기관의 일부이자 소리로부터 언어적 의미를 만들어내는데 관여하는 상측두회(STG) 영역의 뇌파를 관찰했다.
이들은 환자들에게 여러 사람이 각기 다른 목소리로 단어와 문장을 말하는 것을 들려줬다. 이는 이런 소리들이 환자의 STG 영역에서 일으키는 혼란스러운 전기 신호를 하나하나 구별해 내기 위한 것이다.
연구진은 이를 위해 컴퓨터 모델을 이용해 여러 주파수의 각기 다른 소리들이 나오고 있을 때 어떤 부위가 어떤 속도로 뇌파를 발산하는지 지도를 작성했다.
연구진은 이 모델의 도움을 받아 환자에게 생각할 단어들을 제시하고 환자가 이 중 어떤 단어를 선택했는지 알아맞힐 수 있었다.
이들은 심지어 영상으로 나타난 뇌파를 컴퓨터 모델을 통해 소리로 치환, 일부 단어들을 재구성하는데까지 성공했다.
연구진은 "이 연구를 통해 뇌의 작용을 좀 더 자세히 관찰할 수 있게 됐을 뿐 아니라 언어장애를 가진 사람들이 말로는 못하지만 머릿속에 상상할 수는 있는 것을 표현할 수 있게 하는 보조기구의 가능성이 열리게 됐다"고 말했다.
이들은 이처럼 생각을 소리로 옮기는 장치가 현실화되기까지는 아직 갈 길이 멀 지만 이런 장치가 나오면 의사소통에 획기적인 보조나 대안 역할을 하게 될 것이라 고 전망했다. (연합뉴스)