美解碼大腦訊號 植入AI使啞子「說話」有望
從腦部活動合成的語言
〔編譯陳正健/綜合報導〕英國科學期刊《自然》二十四日發表最新研究指出,美國加州大學舊金山分校(UCSF)研究團隊在受試者的大腦植入電極,運用實驗性的腦波紀錄器,結合人工智慧(AI)、機器學習與語音合成技術,將他們的大腦訊號解碼,轉換為合成語音,未來有望令咽喉癌、腦部受傷、帕金森氏症等疾病變成啞子的人士「表達心聲」。
美解碼大腦訊號 轉換合成語音
研究針對五名男女進行試驗,他們都能正常講話,成為受試者是因患有嚴重癲癇,腦部已被植入電極來勘測癲癇發作源頭,準備日後手術移除。這項研究分為三步驟,首先,研究人員要求他們大聲閱讀數十個句子,以電極紀錄他們的大腦運動皮質發出的神經脈衝訊號,最後紀錄到大腦皮質用來控制嘴唇、下顎、喉嚨、舌頭等約百條肌肉動作的相關腦部訊號。
接下來,研究人員設計出神經系統網路,將這些訊號轉譯為肌肉活動,接著再轉換為合成語音,這個過程花了一年。
最後,由電腦把訊號合成句子,再由志願者識別這些字詞。研究發現,這些合成語音的精準度約達七十%,約是每分鐘一百五十字,為正常說話速度。過去醫界曾以追蹤無法言語者的眼球、臉部肌肉活動的裝置,讓他們費力逐個拼寫生字,但此種方式速度很慢,通常每分鐘少於十個字。
這項研究形同辨別受試者的聲道活動,為他們創造出「虛擬聲道」。研究主筆、UCSF教授張復倫(Edward Chang)指出,他們使用的方法是基於「虛擬人體聲道」的概念,大腦會把思想轉變成聲道運動,「我們就是要解碼這個運動」。張復倫來自台灣移民家庭,出生在內華達州。
這項研究是首例,展現可以依據個人腦部活動,產生完整的口語句子。華爾街日報引述專家看法指出,這項技術要落實到臨床使用,可能還需十年或更久。研究共同作者夏提爾(Josh Chartier)強調,研究人員正致力使合成語言更清晰、較不含糊,未來若改進所使用的演算法應可取得更好結果,下一步則打算對無法說話的人士測試這項科技。研究團隊也表示,這項科技依賴控制嘴唇、舌頭、喉頭及下顎的大腦部位正確運作,因此部份中風患者可能無法受益。
-
AI機器人神射手 準度連NBA球員都認輸!
-
微軟拒絕在警車、攝影機裝臉部辨識系統 原因是...
-
花甲男星持巨物展雄風 醫:「中藥界硬漢」
-
網路公司Aruba 用AI助企業用抓內賊
-
美科研團隊成功「復活」死腦 挑戰人類對死亡的看法
-
三星全新8K顯示器 送近六萬元好禮
-
震撼日本企業界!「CoCo壱番屋」特許加盟商迎打工出身、22歲女社長
-
宇宙煙火秀! 天文學家捕捉罕見磁星爆發
-
馬尼拉38.8度高溫破紀錄 氣象機構:恐熱到5月中
-
俄羅斯稱摧毀17架烏克蘭無人機 目標疑為能源儲藏設施
-
恐怖X光照曝光!男子要植牙 螺絲竟刺穿頭骨「插入腦袋」
-
灰燼直衝3.5公里高空!印尼伊布火山噴發 當局示警「勿靠近」
-
熱浪席捲泰國!今年已30人熱死 曼谷連日高溫警告
-
哈瑪斯再公布人質影片 以色列透露進攻拉法進展
國際今日熱門