像已故的斯蒂芬·霍金这样的人可以考虑他们自己想说什么,但是由于肌肉瘫痪,他们无法说话。为了能够交流,他们可以使用能够感知一个人的眼睛或脸颊活动的设备,一次拼出一个字母。然而这个过程是缓慢且不自然的。艺术家解读大脑编码图片来源:metamorworks/Fotolia科学家希望通过研发一种脑机接口可以解码大脑发送给舌头、上颚、嘴唇和喉头(发音器)的指令,来帮助完全瘫痪或“被锁住”的个体更直观地交流。这个人只需试着简单地说话,脑机接口(BMI)就会翻译成语音。西北大学医学院和温伯格文理学院(WeinbergCollegeofArtsandSciences)的新研究通过解锁大脑如何编码语音的新信息,使创建语音-脑机接口的科学更进一步。科学家发现,大脑控制语音产生的方式与控制手臂和手运动的方式类似。为此,研究人员记录了来自大脑两个部分的信号,并破译了这些信号所表达的信息。科学家发现,大脑既控制我们想要表达的目标(比如发“pa”和“ba”的音),也控制我们用来实现这些目标的各种运动(我们如何移动嘴唇、上颚、舌头和喉头)。不同的控制行为发生在大脑的两个不同部位。西北大学范伯格医学院(NorthwesternUniversityFeinbergSchoolofMedicine)神经学和生理学的副教授,同时又是西北大学医学院神经学家的论文主要作者马克·斯卢茨基(MarcSlutzky)博士说:“这可以帮我们为脑机接口建立更好的语音解码器,也使我们更接近帮助那些’被锁住’的人再次说话的目标。”这项研究将于9月26号发表在《神经科学杂志(JournalofNeuroscience)》上。这一发现还可能帮助那些患有其他语言障碍的人,例如儿童以及成人中风后出现的言语失语症(apraxiaofspeech)。在言语失语症中,一个人很难将大脑中的语音信息转化成口语。大脑的话是如何转换成语音的语音是由被称为音位(phoneme)的单个声音组成,这些声音由嘴唇、舌头、上颚和喉的协调运动产生。然而,科学家并不清楚大脑是如何规划这些被称为发音姿势(articulatorygesture)的动作的。尤其是,我们还没有完全理解大脑皮层是如何控制语音产生的,也没发现大脑控制发音姿势的证据。斯卢茨基(Slutzky)说:“我们假设大脑的语言运动区和大脑的手臂运动区有相似的组织。中央前皮层表达嘴唇、舌头、上颚和喉头的运动(姿势),并且较高级皮层区更大程度上表达音位。”那正是他们所发现的。斯卢茨基(Slutzky)说:“我们研究了大脑中有助于产生语音的两个部分,相对于音位,中央前皮层更大程度上表达运动。下额叶皮层是一个更高级别的语言区,同时表达了音位和运动。”和接受脑部手术的病人聊天来解码他们的大脑信号西北大学的科学家在接受大脑肿瘤切除手术的病人脑中放置电极来记录大脑皮层表面的脑信号。病人在手术过程中必须保持清醒,以便于研究人员要求他们读取屏幕上的字。手术后,科学家们标记了病人发出音位和姿势的时间。然后,他们利用记录下来的每个皮层区的脑信号来解码产生了哪些音位和姿势,并测量了解码的精确度。前中央皮层的脑信号在解码姿势时比音位更精确,而额下皮层的脑信号在解码音位和姿势上同样出色。这些信息有助于支持语音产生的语言模型,还有助于指导工程师设计脑机接口来解码这些脑区的语音。下一步研究是开发一种脑机接口算法,该算法不仅可以解码姿势,还可以将这些解码的姿势组合成词。本文来自:环球科学