語言表達系統
當嘴巴不能說話,可以學習手語或寫字、打字來表達,但對於肌肉漸漸失去自主功能的患者,手指頭要動一下都像登天一般困難。工程師開發了各式各樣的設備,試圖讓患者能夠透過其它的表達方式,操控人機介面以便順利說話。
物理學家史蒂芬·霍金在得到肌萎縮性脊髓側索硬化症之後,因為肌肉無法自主,他的說話模式,一開始由家人替他翻譯;後來有了用手指打字,再經過語言合成表達的機器,由機械音說出來;之後,他的狀況慢慢變差,手指也不能動了;接著改用偵測臉部的肌肉運動來選擇字母做表達。
各式樣的人機介面
對於漸凍症患者,已有商業公司開發出眼球追蹤系統,甚至在手機上就能操作。另外也有科學家開發腦波讀取技術,直接量測患者的腦波,再透過語言合成器將文字唸出來。也有科學家在患者舌頭裝一個小金屬珠,做為操控感測。以上這些方法各有其優點。對於已經臥床裝上呼吸器的患者,有些甚至虛弱到連張開眼睛都很吃力,這時候,呼吸可能就是讓患者最不費力的表達方法了。那麼,有沒有可能僅憑呼吸就能完整表達患者個人的想法呢?
靠呼吸來表達
這種設計用來幫助失去肌肉自主控制動作能力患者的機器,稱作「輔助與備用通信設備」(Augmentative and Alternative Communication device, AAC device)。英國「羅浮堡大學」(Loughborough University)開發了以呼吸的信號為基礎,來轉換成患者想法的輔助與備用通信設備,它是一個類似氧氣面罩的設備。系統透過和患者互動來自我學習,患者在使用後可逐漸建立自己的呼吸和語言之間的關係。經過測試,使用者有效教育這套機器,認知單字或詞的成功率達97.5%。而相較現有的其它設備,開發團隊認為相對便宜且簡單。它應用的是連續的數位信號,在速度上更佔優勢。同時,研發團隊也認為,除了成為肌萎縮患者的溝通工具以外,也可在加護病房安裝這套設備,以期未來能對患者早期診斷出「閉鎖症候群」(locked-in syndrome, LIS)。
然而,若是緊急使用,要如何能夠事先教育這台設備呢?目前這套計畫還在開發中,已經有初步成果,這會是這套系統的穩定和可靠性的挑戰。
文章參考:Loughborough University
影片來源:Loughborough University
圖片來源:chintermeyer@Flickr CC BY-SA 2.0