最近有几项研究,致力于让瘫痪无法说话的人也能再次说话,方法是倚靠人工智能解读大脑神经讯号,重建出人们可以理解的单词与句子。现在中风与其他原因失去说话能力的患者,可以使用眼睛或是其他部位的小动作来操作光标,在屏幕上点选字母进行语句表达,不过,大脑如果能透过连接计算机接口产生语音的话,那原本无法说话的人,将能用更加直觉的方式与其他人互动,甚至是与他人顺畅的交叉谈话。尽管难度很高,但近期的研究说明了这样的可能性。
加州大学旧金山分校的神经外科医生Edward Chang与其带领的团队,根据3名癫痫患者大声说话时的大脑说话规画区域与运动区域的讯号,已经能重建出完整的语句。研究团队邀了166个人听取计算机重建的声音,并在10个句子选项选出正确的配对,发现计算机合成语句可辨识度超过80%。Edward Chang的研究甚至可以辨识出,人类大脑用来控制语音与歌声高低的区域,喉咙用发声与控制音调的肌肉,由不同的神经群体编码,他们透过刺激大脑皮层,证明了喉部肌肉控制的因果关系。
而哥伦比亚大学的计算机科学家Nima Mesgarani带领的团队,则是研究5名癫痫患者的脑部资料,他们让病患听录音并且给予0到9的数字编号,并在同时录制这些病患大脑听觉皮层的讯号,透过神经网络分析这些讯号,计算机将能根据神经讯号重建口说的的数字,人们辨识这些计算机合成出来的数字语音的正确率能达75%。该研究团队根据神经元不同时间点开启与关闭的模式推断语音,Nima Mesgarani表示,要找到将神经讯号转换成实际语音之间的映像关系很困难,他们需要对每个人进行特别的训练,而且这个过程需要用到非常精确的数据,需要打开人类大脑头骨以进一步获得大脑神经元的讯号。
另一个研究是来自德国不莱梅大学神经克学家Miguel Angrick,与马斯垂克大学Christian Herff带领的研究团队的合作成果,他们透过收集6位进行脑肿瘤手术患者的数据,以麦克风捕捉他们朗读单音节单字的声音,并同时以电极从大脑的说话规画区域与运动区域纪录讯号,这些区域在人们要说话时,会透过神经向声道发送命令,类神经网络将电极收到的讯号,映像到患者的语音上,由系统重建的语音,约有40%的单字可供辨识。不过,研究人员很少能进行这类侵入性的研究,因此除非是在切除脑部肿瘤,大脑暴露的时候,另一个时机则是癫痫患者在手术治疗之前,需要植入电极数天以获取准确癫痫发作来源时,但研究团队仍最多只有20到30分钟收集资料。更多相关辅助科技信息: