博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
帮助瘫痪之人 未来人工智能将会经脑神经讯号转语音
阅读量:6226 次
发布时间:2019-06-21

本文共 1092 字,大约阅读时间需要 3 分钟。

hot3.png

最近有几项研究,致力于让瘫痪无法说话的人也能再次说话,方法是倚靠人工智能解读大脑神经讯号,重建出人们可以理解的单词与句子。现在中风与其他原因失去说话能力的患者,可以使用眼睛或是其他部位的小动作来操作光标,在屏幕上点选字母进行语句表达,不过,大脑如果能透过连接计算机接口产生语音的话,那原本无法说话的人,将能用更加直觉的方式与其他人互动,甚至是与他人顺畅的交叉谈话。尽管难度很高,但近期的研究说明了这样的可能性。

加州大学旧金山分校的神经外科医生Edward Chang与其带领的团队,根据3名癫痫患者大声说话时的大脑说话规画区域与运动区域的讯号,已经能重建出完整的语句。研究团队邀了166个人听取计算机重建的声音,并在10个句子选项选出正确的配对,发现计算机合成语句可辨识度超过80%。Edward Chang的研究甚至可以辨识出,人类大脑用来控制语音与歌声高低的区域,喉咙用发声与控制音调的肌肉,由不同的神经群体编码,他们透过刺激大脑皮层,证明了喉部肌肉控制的因果关系。

 

而哥伦比亚大学的计算机科学家Nima Mesgarani带领的团队,则是研究5名癫痫患者的脑部资料,他们让病患听录音并且给予0到9的数字编号,并在同时录制这些病患大脑听觉皮层的讯号,透过神经网络分析这些讯号,计算机将能根据神经讯号重建口说的的数字,人们辨识这些计算机合成出来的数字语音的正确率能达75%。该研究团队根据神经元不同时间点开启与关闭的模式推断语音,Nima Mesgarani表示,要找到将神经讯号转换成实际语音之间的映像关系很困难,他们需要对每个人进行特别的训练,而且这个过程需要用到非常精确的数据,需要打开人类大脑头骨以进一步获得大脑神经元的讯号。

另一个研究是来自德国不莱梅大学神经克学家Miguel Angrick,与马斯垂克大学Christian Herff带领的研究团队的合作成果,他们透过收集6位进行脑肿瘤手术患者的数据,以麦克风捕捉他们朗读单音节单字的声音,并同时以电极从大脑的说话规画区域与运动区域纪录讯号,这些区域在人们要说话时,会透过神经向声道发送命令,类神经网络将电极收到的讯号,映像到患者的语音上,由系统重建的语音,约有40%的单字可供辨识。不过,研究人员很少能进行这类侵入性的研究,因此除非是在切除脑部肿瘤,大脑暴露的时候,另一个时机则是癫痫患者在手术治疗之前,需要植入电极数天以获取准确癫痫发作来源时,但研究团队仍最多只有20到30分钟收集资料。更多相关辅助科技信息:

转载于:https://my.oschina.net/u/4024424/blog/2998816

你可能感兴趣的文章
86. Partition List
查看>>
mysql 主从配置
查看>>
记录已被另一个用户锁定处理方法
查看>>
Codeforces 595B - Pasha and Phone
查看>>
Jquery--ajax
查看>>
shell脚本:批量修改文件名
查看>>
详解SimpleXML添加_修改_删除_遍历XML节点属性
查看>>
WPF DataGrid的使用
查看>>
KMP
查看>>
紫书 例题 11-1 UVa 12219 (表达式树)
查看>>
CPU利用率与Load Average的区别?
查看>>
MATLAB数据处理快速学习教程
查看>>
font property font-family does not have generic default?
查看>>
数字三角形
查看>>
GTID复制模式切换与传统主从复制间切换
查看>>
集成测试
查看>>
Python Learning Day1
查看>>
spring 四种注入方式
查看>>
C++Builder的一些学习资料
查看>>
Matlab调用C程序 分类: Matlab c/c...
查看>>