首先想強(qiáng)調(diào)一下“語(yǔ)音識(shí)別”四個(gè)字字面意義上的需求:用戶說(shuō)話然后馬上把用戶說(shuō)的話轉(zhuǎn)成文字顯示!,這才是開(kāi)發(fā)者真正需要的功能。
做需求之前其實(shí)是先谷歌百度一下看有沒(méi)有造好的輪子直接用,結(jié)果真的很呵呵,都是標(biāo)著這個(gè)庫(kù)深入學(xué)習(xí)的標(biāo)題,里面調(diào)用一下api從URL里取出一個(gè)本地語(yǔ)音文件進(jìn)行識(shí)別,這就沒(méi)了? 最基本的需求都沒(méi)法實(shí)現(xiàn)。
今天整理下對(duì)于此功能的兩種實(shí)現(xiàn)方式:
首先看下識(shí)別請(qǐng)求的API有兩種 SFSpeechAudioBufferRecognitionRequest 和 SFSpeechURLRecognitionRequest ,并且實(shí)現(xiàn)解析的方式也有兩種 block 和 delegate。 我就相互組合下兩種方法把這些內(nèi)容都能涵蓋。
在開(kāi)發(fā)之前需要先在info.plist注冊(cè)用戶隱私權(quán)限,雖然大家都已經(jīng)知道了我還是說(shuō)一嘴為了本文的完整性。