國(guó)際最新研究稱(chēng),一人工智能模型能翻譯200種不同語(yǔ)言
中新網(wǎng)北京6月8日電 (記者 孫自法)國(guó)際著名學(xué)術(shù)期刊《自然》最新一篇人工智能(AI)研究論文稱(chēng),研究人員開(kāi)發(fā)出一個(gè)Meta人工智能模型的底層技術(shù),該模型能翻譯200種不同語(yǔ)言,增加了能用機(jī)器翻譯的語(yǔ)言數(shù)量。
該論文介紹,神經(jīng)機(jī)器翻譯模型利用人工神經(jīng)網(wǎng)絡(luò)翻譯各種語(yǔ)言,這些模型通常需要大量可在線獲取的數(shù)據(jù)加以訓(xùn)練,但并非所有語(yǔ)言數(shù)據(jù)都公開(kāi)、低成本或是普遍可及,此類(lèi)語(yǔ)言被稱(chēng)為“低資源語(yǔ)言”。而增加模型在翻譯語(yǔ)言數(shù)量上的語(yǔ)言輸出可能會(huì)影響模型的翻譯質(zhì)量。
為此,本篇論文作者、“不落下任何語(yǔ)言”(No Language Left Behind,NLLB)團(tuán)隊(duì)開(kāi)發(fā)出一種跨語(yǔ)言技術(shù),能讓神經(jīng)機(jī)器翻譯模型學(xué)習(xí)如何利用翻譯高資源語(yǔ)言的預(yù)存能力來(lái)翻譯低資源語(yǔ)言。作為成果,NLLB團(tuán)隊(duì)開(kāi)發(fā)了一個(gè)在線多語(yǔ)言翻譯工具,名為NLLB-200,該工具能容納200種語(yǔ)言,其低資源語(yǔ)言數(shù)量是高資源語(yǔ)言的三倍,翻譯表現(xiàn)比已有系統(tǒng)高了44%。
由于NLLB團(tuán)隊(duì)在許多低資源語(yǔ)言上只能獲取1000-2000例樣本,為擴(kuò)大NLLB-200的訓(xùn)練數(shù)據(jù)量,他們用一個(gè)語(yǔ)言識(shí)別系統(tǒng)發(fā)現(xiàn)了這些特定語(yǔ)言的更多實(shí)例。該團(tuán)隊(duì)還從互聯(lián)網(wǎng)存檔中挖掘雙語(yǔ)文本數(shù)據(jù),幫助提升了NLLB-200的翻譯質(zhì)量。
《自然》同期發(fā)表同行專(zhuān)家“新聞與觀點(diǎn)”文章指出,NLLB團(tuán)隊(duì)研發(fā)的這個(gè)工具,可以幫助很少被翻譯的那些語(yǔ)言的使用者,讓他們能使用互聯(lián)網(wǎng)和其他技術(shù)。
此外,NLLB團(tuán)隊(duì)還強(qiáng)調(diào)教育是一個(gè)非常重要的應(yīng)用,因?yàn)檫@個(gè)模型可以幫助低資源語(yǔ)言使用者獲取更多圖書(shū)和研究文章。不過(guò),該團(tuán)隊(duì)也提醒說(shuō),誤譯的情況仍有可能出現(xiàn)。(完)
社會(huì)新聞精選:
- 2025年01月09日 20:28:50
- 2025年01月09日 15:10:56
- 2025年01月09日 12:39:14
- 2025年01月09日 10:13:51
- 2025年01月09日 09:54:38
- 2025年01月09日 08:56:02
- 2025年01月09日 08:14:38
- 2025年01月09日 08:11:47
- 2025年01月09日 07:41:29
- 2025年01月09日 07:32:49