世界轉一圈|AI助癱瘓病人恢復語言能力 0.08秒實時解碼腦電波轉語音
【有線新聞】俗語有云:「你一言,我一語」,但對於嚴重癱瘓的病人而言,實在是「有口難言」。美國加州大學突破舊有研究成果,結合人工智能技術,幫助恢復自然語言能力。
團隊兩年前曾於嚴重癱瘓病人安娜的腦部特定區域,植入有253個訊號頻道,薄如紙的方形晶片電極陣列。當她以口型默念字句時,電極陣列就會接收腦電波,腦電波原本是傳送到口部發聲用的肌肉,透過固定在頭部的電線,轉為傳到裝有語音合成器的電腦,將神經數據解碼成語音,但過程需時約8秒,嚴重擾亂正常對話的流暢度。
不過最新研發的演算法大大改善這個問題,人工智能會以0.08秒、幾乎實時的速度,將神經數據同步且持續解碼成語音及文本。系統是以大腦運動皮層的聲音控制區域驅動操作,即使沒有模型生成的聽覺反饋,生成語音仍能做到快而準確。
隨着語音神經假體能夠協助病人生成更自然的語音,團隊期望繼續改進演算法,進一步提升解碼質素和速度,增強語音輸出時的表達能力,包括音調、語調和大小聲,使生成語音更生動和貼近「人話」。