Gate 廣場「創作者認證激勵計劃」開啓:入駐廣場,瓜分每月 $10,000 創作獎勵!
無論你是廣場內容達人,還是來自其他平台的優質創作者,只要積極創作,就有機會贏取豪華代幣獎池、Gate 精美週邊、流量曝光等超 $10,000+ 豐厚獎勵!
參與資格:
滿足以下任一條件即可報名👇
1️⃣ 其他平台已認證創作者
2️⃣ 單一平台粉絲 ≥ 1000(不可多平台疊加)
3️⃣ Gate 廣場內符合粉絲與互動條件的認證創作者
立即填寫表單報名 👉 https://www.gate.com/questionnaire/7159
✍️ 豐厚創作獎勵等你拿:
🎁 獎勵一:新入駐創作者專屬 $5,000 獎池
成功入駐即可獲認證徽章。
首月發首帖(≥ 50 字或圖文帖)即可得 $50 倉位體驗券(限前100名)。
🎁 獎勵二:專屬創作者月度獎池 $1,500 USDT
每月發 ≥ 30 篇原創優質內容,根據發帖量、活躍天數、互動量、內容質量綜合評分瓜分獎勵。
🎁 獎勵三:連續活躍創作福利
連續 3 個月活躍(每月 ≥ 30 篇內容)可獲 Gate 精美週邊禮包!
🎁 獎勵四:專屬推廣名額
認證創作者每月可優先獲得 1 次官方項目合作推廣機會。
🎁 獎勵五:Gate 廣場四千萬級流量曝光
【推薦關注】資源位、“優質認證創作者榜”展示、每週精選內容推薦及額外精選帖激勵,多重曝光助你輕
Meta AI 推出全語言語音識別(ASR),推動超過 1,600 種語言的自動語音識別技術
簡要介紹
Meta AI 已推出 Omnilingual 自動語音辨識系統,支援超過 1600 種語言的語音識別,並釋出開源模型與涵蓋 350 種服務不足語言的語料庫。
科技公司 Meta 的研究部門 Meta AI,專注於人工智慧與擴增實境,宣布推出 Meta Omnilingual 自動語音辨識(ASR)系統。
這套模型能提供超過 1600 種語言的語音識別,達到前所未有的高品質表現。此外,Meta AI 也開源了 Omnilingual wav2vec 2.0,一個具有 70 億參數的自我監督、多語言語音表示模型,旨在支援各種下游語音任務。
除了這些工具外,該組織還發布了 Omnilingual ASR 語料庫,這是一個由全球合作夥伴共同開發的、包含 350 種服務不足語言的轉錄語音資料集。
近年來,自動語音辨識技術已取得顯著進展,許多廣泛使用的語言已達到接近完美的辨識率。然而,擴展到資源較少的語言仍具挑戰,主要因為現有 AI 架構對資料與計算資源的高需求。Omnilingual ASR 系統通過將 wav2vec 2.0 語音編碼器擴展至 70 億參數,從原始未轉錄的語音中建立豐富的多語言表示,解決了這一限制。兩種解碼器變體將這些表示轉換為字符標記:一種使用連接時序分類(CTC),另一種則採用類似大型語言模型的變壓器方法。
這種受大型語言模型啟發的 ASR 方法,在超過 1600 種語言中達到最先進的性能,78% 的語言字符錯誤率低於 10,並引入了更靈活的新增語言方式。
與傳統系統需專家微調不同,Omnilingual ASR 只需少量配對的音訊與文字範例,即可加入未支援的語言,實現轉錄,無需大量資料、專業知識或高端運算資源。雖然零-shot 的結果尚未達到完全訓練系統的水準,但此方法提供了一個可擴展的途徑,讓服務不足的語言進入數位生態。
Meta AI 推出 Omnilingual ASR 套件與語料庫,推動語音識別技術進步
該研究部門釋出了一套完整的模型與資料集,旨在推動任何語言的語音技術發展。基於 FAIR 先前的研究,Omnilingual ASR 包含兩種解碼器變體,從適用於低功耗裝置的 3億參數輕量模型,到提供高精度的 70億模型,適用於多種應用。通用的 wav2vec 2.0 語音基礎模型也提供多個規模,支持超越 ASR 的多種語音任務。所有模型皆採用 Apache 2.0 授權,資料集則採用 CC-BY 授權,讓研究人員、開發者與語言推廣者能在 PyTorch 生態系中的 FAIR 開源框架 fairseq2 上,調整與擴展語音解決方案。
Omnilingual ASR 在史上最大、語言多樣性最高的 ASR 資料庫之一上訓練,結合公開資料集與社群收集的錄音。為支援數位資源有限的語言,Meta AI 與當地組織合作,招募並補償偏遠或資料不足地區的母語者,建立了 Omnilingual ASR 語料庫,至今為止最大規模的超低資源自發性 ASR 資料集。透過語言科技合作夥伴計畫,還匯聚了全球語言學家、研究人員與語言社群,包括與 Mozilla Foundation 的 Common Voice 以及 Lanfrica/NaijaVoices 的合作,提供深厚的語言學見解與文化背景,確保技術符合當地需求,同時賦能多元語言社群。