【
中國智能制造網(wǎng) 市場分析】語音識別引擎的準確性已經(jīng)提高了很多,現(xiàn)在達到了95%的準確度,略高于人類的成功識別率率。隨著這項技術的改進,語音優(yōu)先的基礎設施變得越來越重要,導致亞馬遜,蘋果,谷歌,微軟和百度都迅速進行布局,發(fā)布軟件構(gòu)建模塊和平臺。
近幾年來,我們?nèi)〉昧司薮蟮募夹g進步。語音識別引擎的準確性已經(jīng)提高了很多,現(xiàn)在達到了95%的準確度,略高于人類的成功識別率率。隨著這項技術的改進,語音優(yōu)先的基礎設施變得越來越重要,導致亞馬遜,蘋果,谷歌,微軟和百度都迅速進行布局,發(fā)布軟件構(gòu)建模塊和平臺。語音似乎要興起了。
在本文中,作者總結(jié)了:我們目前掌握語音識別技術的現(xiàn)狀,以及基礎設施如何圍繞語音發(fā)展起來,以了解過去幾十年來這一領域發(fā)生了什么。
語音是自然的溝通方式,但語音并不是機器交互的主要界面。自從愛迪生發(fā)明留聲機之后,人們一直在和機器交談,但是主要為了與他人進行通信,而不是與機器本身進行通信。到了20世紀80年代,語音識別技術將口語轉(zhuǎn)化為文本的識別率開始足夠準確。2001年,計算機語音識別達到了80%的準確度。我們可以從口頭對話中提取意義,并做出回應。然而,在大多數(shù)情況下,語音技術仍然不足以提供比鍵盤等界面更好的體驗。
語音識別歷史
語音識別不是新鮮事,起源于上世紀五十年代,但多年來一直存在多種理解語音的方式。
個語音識別系統(tǒng)是基于簡單的模式匹配。這些早期系統(tǒng)的一個很好的例子是公用事業(yè)公司使用自動化系統(tǒng)讓客戶不用看儀表讀數(shù)。在這種情況下,客戶端對系統(tǒng)的回答是一個有限的選項列表中的一個字或數(shù)字,計算機只需要區(qū)分有限數(shù)量的不同聲音模式。它通過將每個聲音塊與其存儲器中的類似存儲模式進行比較來實現(xiàn)。
在1952年,貝爾實驗室的一個團隊設計了能夠理解口頭數(shù)字的機器Audrey。
1970年代
技術進步導致了基于模式和特征分析的語音識別系統(tǒng)的發(fā)展,其中每個單詞被分解成小部分并且從關鍵特征(例如它包含的元音)中被識別。這種方法涉及聲音的數(shù)字化和將數(shù)字數(shù)據(jù)轉(zhuǎn)換成頻譜圖,將其分解成聲音幀,分離單詞并識別每一個關鍵特征。為了識別可能已經(jīng)說過的內(nèi)容,計算機必須將每個單詞的關鍵特征與已知功能的列表進行比較。系統(tǒng)越來越好,因為它集成了來自用戶的反饋。這種方法比以前的方法要得多,因為口語的基本組件聲音數(shù)量相當有限。
從1971年到1976年,DARPA資助了五年的語音識別研究,目標是終能夠理解至少1000字的機器。該計劃導致卡耐基-梅隆大學大學創(chuàng)造了一個能夠理解1011個單詞的機器。
1980年代
但是此前的技術仍然不是非常的,因為言語中存在的巨大的復雜性:不同的人可以用不同的方式說出同一個詞,有許多相似的詞(例如two和too)等等。語音識別系統(tǒng)開始使用統(tǒng)計學方法。在此期間推出的關鍵技術是馬爾可夫模型(HMM),用于建立聲學模型和隨機語言模型。
聲學模型代表音頻信號和語言中的語音單元之間的關系,以重建實際發(fā)出的內(nèi)容(特征→音位)。語言模型基于后一個單詞預測下一個單詞(單詞→句子),例如。“God save the“之后可能出現(xiàn)的單詞是Queen(天佑女王),另外,還有一個語音字典/詞典提供關于單詞及其發(fā)音的數(shù)據(jù),并且連接聲學模型和語言模型(音素→單詞)。終,語言模型分數(shù)與當前單詞的聲學分數(shù)相結(jié)合,以確定單詞序列的排序。
玩具娃娃Julie Doll在1989年將家庭語音識別技術帶到家庭中。可以幫助兒童訓練語音、說話。
一直到20世紀90年代,語音識別系統(tǒng)的速度都太慢,無法開發(fā)有用的應用程序,但是當時出現(xiàn)的更快的微處理器可以進行重大改進,而個語音識別商業(yè)應用開始出現(xiàn)。
Dragon公司在1990年推出Dragon Dictate,是個消費級語音識別產(chǎn)品。在1997年,你可以在一分鐘內(nèi)說100個字。
2000年代
計算機語音識別在2001年達到了80%的準確度,但沒有多少進展。
2010年代
在過去十年中,機器學習算法和計算機性能的進步已經(jīng)導致了更有效的深層神經(jīng)網(wǎng)絡(DNN)訓練方法。
因此,語音識別系統(tǒng)開始使用DNN,更具體地說,是DNN的特殊變體,即循環(huán)神經(jīng)網(wǎng)絡(RNN)?;赗NN的模型顯示出比傳統(tǒng)模型更好的精度和性能。事實上,2016年的語音識別準確度達到了90%,Google聲稱在2017年6月達到95%的準確率。
這是非常驚人的,要知道研究人員估計人類轉(zhuǎn)錄精度略低于95%。然而,這些公布的結(jié)果應該仔細考慮,因為它們通常在的條件下測量,例如,沒有背景噪音和英語母語的錄音。在“非無菌條件下”的準確度可能快速下降到75-80%。
當你需要標記數(shù)據(jù)來訓練算法時,現(xiàn)在面臨的挑戰(zhàn)是獲取現(xiàn)實生活中數(shù)千小時的口語音頻,以提供給神經(jīng)網(wǎng)絡并提高語音識別系統(tǒng)的準確性。這就是Google,亞馬遜,蘋果和微軟正在通過將Google Now,Siri和Cortana在手機免費提供服務,以便宜的價格銷售Alexa智能音響的原因。一切都是為了獲取訓練數(shù)據(jù)!
語音基礎設施的開發(fā)
語音基礎設施開發(fā)可以分為3個必需的層次:新的應用程序出現(xiàn):(1)硬件允許更多的人使用語音作為接口(2)軟件構(gòu)建塊,使開發(fā)人員能夠構(gòu)建相關的語音優(yōu)先的應用程序(3)生態(tài)系統(tǒng),以實現(xiàn)有效的分配和商業(yè)化。
語音分析公司Voicelabs將語音優(yōu)先設備定義為始終在線的智能硬件,而其中主界面是語音,包括輸入和輸出。市場上語音優(yōu)先的硬件是2014年底發(fā)布的智能音箱Amazon Echo。根據(jù)2017年VoiceLabs的報告,2015年發(fā)布的語音優(yōu)先設備達170萬臺,2016 年將達到650萬臺,2017年將有2450萬臺設備發(fā)貨,市場總流通設備數(shù)達到3300萬臺。
市場上的主要智能音響是Amazon Echo(2014年11月)和Google Home(2016年11月)。然而,新玩家正在迅速進入市場:索尼推出了內(nèi)置Google助手(2017年9月)的LF-S50G,蘋果即將推出Homepod(2017年12月),三星也近宣布“即將發(fā)布”,F(xiàn)acebook可能會發(fā)布帶觸摸屏的智能揚聲器。Google助手還將來到一些新的智能音響,其中包括Anker的Zolo Mojo,Mobvoi的TicHome Mini和松下的GA10。
無疑,語音優(yōu)先的硬件層正在快速發(fā)展,預計會有所增長!
語音優(yōu)先應用程序的軟件構(gòu)建門檻降低
從頭開始構(gòu)建語音應用程序不是一件容易的事情。Nuance和其他大型公司已經(jīng)向第三方開發(fā)人員提供語音識別API,但是使用這些API的成本歷來相當高昂,并沒有獲得很好的結(jié)果。
隨著語音識別技術開始取得更好的成果,語音優(yōu)先應用的潛力越來越大,像Google,亞馬遜,IBM,微軟和蘋果以及Speechmatics這樣的大型公司開始在較低級別提供各種低價的API產(chǎn)品。
一些常用的包括2016年7月發(fā)布的Google Speech API,和2016年11月發(fā)布的亞馬遜Lex和Amazon Polly。
現(xiàn)在,大量開發(fā)人員可以以合理的成本構(gòu)建語音優(yōu)先的應用程序。
語音優(yōu)先生態(tài)系統(tǒng)的出現(xiàn)
隨著越來越多的語音優(yōu)先應用和硬件帶來越來越多的語音交互界面,平臺不僅需要解決了分發(fā)和商業(yè)化,分析和營銷自動化等第三方服務也越來越重要。
(原標題:為什么說語音可能是下一個Big thing? 本文原作者Savina van der Straten,Point Nine Capital 的投資人,由騰股創(chuàng)投編譯整理。)