Repository logo
Communities & Collections
All of DSpace
  • English
  • العربية
  • বাংলা
  • Català
  • Čeština
  • Deutsch
  • Ελληνικά
  • Español
  • Suomi
  • Français
  • Gàidhlig
  • हिंदी
  • Magyar
  • Italiano
  • Қазақ
  • Latviešu
  • Nederlands
  • Polski
  • Português
  • Português do Brasil
  • Srpski (lat)
  • Српски
  • Svenska
  • Türkçe
  • Yкраї́нська
  • Tiếng Việt
Log In
New user? Click here to register.Have you forgotten your password?
  1. Home
  2. Browse by Author

Browsing by Author "羅天宏"

Filter results by typing the first few letters
Now showing 1 - 1 of 1
  • Results Per Page
  • Sort Options
  • No Thumbnail Available
    Item
    探討聲學模型化技術與半監督鑑別式訓練於語音辨識之研究
    (2019) 羅天宏; Lo, Tien-Hong
    近年來鑑別式訓練(Discriminative training)的目標函數Lattice-free maximum mutual information (LF-MMI)在自動語音辨識(Automatic speech recognition, ASR)的聲學模型(Acoustic model)訓練上取得重大的突破。儘管LF-MMI在監督式環境下斬獲最好的成果,然而在半監督式環境下的研究成果仍然有限。在常見的半監督式方法─自我訓練(Self-training)中,種子模型(Seed model)常因為語料有限而效果不佳。再者,因為LF-MMI屬於鑑別式訓練之故,較易受到標記正確與否的影響。基於上述,本論文將半監督式訓練拆解成兩個問題:1)如何提升種子模型的效能,以及2)如何利用未轉寫(無人工標記)語料。針對第一個問題,我們使用兩種方法可分別對應到是否具存有額外資料的情況,其一為遷移學習(Transfer learning),使用技術為權重遷移(Weight transfer)和多任務學習(Multitask learning);其二為模型合併(Model combination),使用技術為假說層級合併(Hypothesis-level combination)和音框層級合併(Frame-level combination)。針對第二個問題,基於LF-MMI目標函數,我們引入負條件熵(Negative conditional entropy, NCE)與保留更多假說空間的詞圖監督(Lattice for supervision)。在一系列於互動式會議語料(Augmented multi-party interaction, AMI)的實驗結果顯示,不論是利用領域外資料(Out-of-domain data, OOD)的遷移學習或多樣性互補的模型合併皆可提升種子模型的效能,而NCE與詞圖監督則能運用未轉寫語料降改善錯誤率(Word error rate, WER)與詞修復率(WER recovery rate, WRR)。

DSpace software copyright © 2002-2025 LYRASIS

  • Privacy policy
  • End User Agreement
  • Send Feedback