亚马逊和谷歌等科技公司打造的虚拟助手相当先进,语音识别能力比起几年前进步惊人,近年来人们才刚开始领会它们的威力。
然而,事实上,一项更令人惊叹、更匪夷所思的里程碑式技术创新可能即将实现。它的出现让语音识别技术完全相形见绌,这是一个十分强大的人工智能(AI)系统,可以根据人们的大脑活动直接生成完整的文本,整个过程完全不需要听到任何一个单词。
这不完全是科幻小说中的概念。近几十年来,从动物模型到人类参与者,脑机接口技术的发展可谓突飞猛进。事实上,这类技术已经在尝试将这种概念从幻想变成现实。
加州大学旧金山分校的研究人员在一项新研究中解释说,目前来看,通过该技术将人脑信号转换成的文本结果还不很准确。
为了探究是否能够改善这一状况,由加州大学旧金山分校Edward Chang实验室神经外科教授Edward Chang领导的一个团队使用了一种全新的方法来解码脑皮质电图:通过植入大脑的电极,来获取皮质活动中所产生的电脉冲记录。
在这项研究中,四名癫痫患者使用了这种植入物,以便监测他们的身体状况引起的癫痫发作情况。研究团队还进行了一项附带实验:让参与者大声、反复地朗读一些预先准备的句子,同时通过电极来记录他们在此期间的大脑活动。
然后,这些数据被输入到一个神经网络,该网络根据实验的音频记录,分析出与特定语音特征(如元音、辅音或口型)相对应的大脑活动模式。
之后,另一个神经网络对这些大脑表现进行解码——参与者反复朗读30到50个句子时产生的大脑活动数据——并据此来尝试预测人们所说的话,预测根据他们朗读单词时所产生的皮层信号来进行。
在最好的情况下,该系统在将其中一名参与者的大脑信号转化成文本时,词错率(WER)只有3%——至少在这些严格限定的实验条件下,这个词错率也许已经接近于迄今为止人工智能读取人的想法的最佳表现。
在研究论文中,研究团队详细列举了许多参与者所朗读的参照句子的例子,以及神经网络所生成的“预测”。那些预测有时是错误的,但也不总是出错。然而,从那些非常明显的错误来看,它们似乎与人耳听语音时会犯的错误大不一样(这可能是人工智能引入的数据集有限所致)。
神经网络出错的例子包括:“这家博物馆每天晚上都聘请音乐家过来”,被预测为“这家博物馆每个昂贵的早晨都聘请音乐家过来”;“蛋糕的一部分被狗吃掉了”,被预测为“蛋糕的一部分是饼干”;“蒂娜·特纳是一位流行歌手”,被预测被“迪德·特纳是一位流行歌手”。
在最糟糕的例子中,神经网络的错误完全莫名其妙,不管是在语音上还是在语义上,都与实际的句子完全搭不着边:“她穿着温暖的羊毛工装裤”被预测为“绿洲是海市蜃楼”。
然而,研究团队称,尽管这些显而易见的错误有些诡异,但总的来说,该系统也许还是刷新了基于AI的大脑活动解码的最佳表现,毕竟它表现最好时的词错率只有5%,能够与专业的人工语音转录相提并论。
当然,要应付日常发言的专业转录员必须得有数以万计的词汇量。相比之下,这个系统只能从有限的短句中学习到大约250个单词的皮层特征,所以拿二者相比较并不公平。
虽然还有许多障碍需要克服,但研究团伙认为,该系统有朝一日可能会让那些失去说话能力的人能够重新“开口”说话。如果这样的事情成为可能,会有望产生巨大的影响——为一些人提供一种与周围世界交流的方式——而且所带来的影响可能会远远超出人们目前的想象。
研究论文的作者解释说,“在长期植入的参与者中,可用的训练数据量将比本研究中使用的半小时左右的语音量大几个数量级,这意味着输入语言的词汇量和表达灵活性会大大提高。”
该研究的结果发表在《自然神经科学》杂志上。