加拿大萨斯喀彻温省的高中教师兼教练安·约翰逊(Ann Johnson)在 2005 年因脑干中风导致近乎彻底瘫痪,尔后一向饱尝闭锁综合征的摧残。这种稀有病症使患者认识清醒,却无法言语或举动。18 年来,约翰逊依托眼动追寻体系以每分钟 14 个词的速度与外界沟通,远低于正常人每分钟约 160 个词的对话速度。但是,现在她总算再次听到了自己的声响,这得益于一种脑机接口(BCI)技能,
该技能
可以
直接从大脑活动中解码言语。
2022 年,约翰逊成为加州大学伯克利分校和加州大学旧金山分校联合展开的一项临床实验的第三位参与者。这项实验旨在经过一种神经假体康复严峻瘫痪患者的言语才干。研讨人员经过植入神经假体,从大脑的言语运动皮层记载信号,绕过受损的神经通路,然后发生可听的语音。
该设备依赖于放置在大脑言语生成区域上方的植入物,当约翰逊测验说话时,植入设备会检测到神经活动,并将信号传输到衔接的计算机。随后,人工智能解码器将这些信号转化为文本、语音或数字形象上的面部表情。开始,该体系使用了序列到序列的人工智能模型,需求完好的一句话才干输出成果,导致会有 8 秒的推迟。但是,2025 年 3 月,研讨团队在《天然神经科学》杂志上陈述称,他们已转向流式架构,完成了仅 1 秒推迟的近实时翻译。
为了使体会愈加个性化,研讨人员使用约翰逊 2004 年婚礼讲演的录音重现了她的声响。她还挑选了一个与自己表面相符的虚拟形象,该形象可以仿照浅笑或蹙眉等面部表情。

加州大学伯克利分校电气工程与计算机科学助理教授戈帕拉·阿努曼奇帕利(Gopala Anumanchipalli)、加州大学旧金山分校神经外科医生爱德华·张(Edward Chang)以及伯克利分校博士生凯洛·利特尔约翰(Kaylo Littlejohn)表明,他们的方针是使神经假肢完成“即插即用”,将其从实验体系转变为规范临床东西。未来改善的方向或许包含无线植入设备,然后无需直接衔接计算机,以及愈加传神的虚拟形象,以完成更天然的互动。研讨团队还设想开发数字“克隆人”,不仅能仿制用户的声响,还能仿照其对话风格和视觉信号。
这项打破有望协助那些因中风、肌萎缩侧索硬化症(ALS)或受伤而失掉言语才干的相对小众但极为软弱的集体,让他们从头取得更快速、更天然的沟通才干。研讨人员着重,该体系只要在参与者有认识地测验说话时才会作业,然后保证用户的自主性和隐私。
关于约翰逊来说,这次实验彻底改变了她的日子。“我期望患者看到我,知道他们的日子并未完毕,”她在承受加州大学旧金山分校采访时说。她等待有一天能在康复中心担任咨询师,凭借神经假肢与客户沟通。
跟着推迟时间降至约 1 秒,以及人工智能建模的继续前进,研讨人员信任,有用的实时语音康复技能有望在几年内完成,这将彻底改变技能为失掉言语才干的人们赋予声响的方法。