京東云語音語義領(lǐng)域8篇論文被國際頂會發(fā)表

              技術(shù)的價值往往體現(xiàn)在其應(yīng)用過程中,便隨著人工智能的大規(guī)模應(yīng)用,人工智能的工程化能力正在被人們所關(guān)注,根據(jù)Gartner發(fā)布的2021年重要戰(zhàn)略科技趨勢,為將人工智能轉(zhuǎn)化為生產(chǎn)力,就必須轉(zhuǎn)向人工智能工程化這門專注于各種人工智能操作化和決策模型(例如機器學(xué)習(xí)或知識圖)治理與生命周期管理的學(xué)科。

              那么,人工智能的基礎(chǔ)研究不再重要了嗎?

              答案是否定的??v觀全球各科技企業(yè),無不例外在持續(xù)加大對人工智能基礎(chǔ)研究的投入,以語音語義為例,作為人工智能的重要組成部分,對該領(lǐng)域的研究正不斷突破,為人機的交互模式帶來了更多的可能。

              2021年,京東云橫掃多個國際頂級學(xué)術(shù)會議,多篇論文獲被發(fā)表,細分領(lǐng)域跨域長文的機器閱讀理解、內(nèi)容生成、知識融合、對話推薦、圖神經(jīng)網(wǎng)絡(luò)和可解釋的增量學(xué)習(xí)等。

              下面以其中的8篇論文為例,分享各自在解決所要攻克的問題、提出的新方法以及取得的可被行業(yè)借鑒的成果。

              論文標題:RoR: Read-over-Read for Long Document Machine Reading Comprehension

              論文鏈接:https://arxiv.org/abs/2109.04780

              發(fā)表刊物:Findings of EMNLP 2021

              Motivation: 大規(guī)模預(yù)訓(xùn)練語言模型在多個自然語言處理任務(wù)上取得了顯著的成果,但受限于編碼長度(例如,BERT只能一次性編碼512個WordPiece字符),無法有效地應(yīng)用于多種長文本處理任務(wù)中,例如長文本閱讀理解任務(wù)。

              Solution: 對此,本論文提出了從局部視角到全局視角的重復(fù)閱讀方法RoR(如下圖所示),可提高超長文本的閱讀理解能力。具體而言,RoR 包括一個局部閱讀器和一個全局閱讀器。首先,給定的長文本會被切割為多個文本片段。然后,局部閱讀器會為每個文本片段預(yù)測出一組局部答案。這些局部答案接下來會被組裝壓縮為一個新的短文本來作為原始長文檔的壓縮版本。全局閱讀器會進一步從此壓縮文本中預(yù)測出全局答案。最終,RoR使用一種投票策略來從局部和全局答案中選擇最終預(yù)測。

              500)this.width=500\" align=\"center\" hspace=10 vspace=10 alt=\"京東云語音語義領(lǐng)域8篇論文被國際頂會發(fā)表   \">


              Experimental Result:在兩個長文本閱讀理解基準 QuAC 和 TriviaQA 上,大量實驗證明了RoR可以有效提高預(yù)訓(xùn)練語言模型在長文檔閱讀的建模能力。RoR在公開對話閱讀理解榜單QuAC(https://quac.ai/)上獲得第一名的優(yōu)異成績。

              500)this.width=500\" align=\"center\" hspace=10 vspace=10 alt=\"京東云語音語義領(lǐng)域8篇論文被國際頂會發(fā)表   \">


              圖1:QuAC官方Leaderboard(截止2021/10)

              論文標題:Learn to Copy from the Copying History: Correlational Copy Network for Abstractive Summarization

              發(fā)表刊物:EMNLP 2021

              Motivation: 復(fù)制機制是生成式自動文摘模型的常用模塊,已有模型使用注意力概率作為復(fù)制概率,忽視了復(fù)制歷史的影響。

              Solution: 本論文提出了一種新的復(fù)制機制(Correlational Copying Network,CoCoNet),該機制可以使用復(fù)制歷史指導(dǎo)當前的復(fù)制概率。具體來說,CoCoNet在計算每一步的復(fù)制概率時,不僅會參考當前時刻的注意力概率,還會通過相似度和距離度量,將歷史時刻的復(fù)制概率轉(zhuǎn)移到當前時刻,從而提高復(fù)制行為的連貫性和合理性。此外,我們還提出一種Correlational Copying Pre-training (CoCo-Pretrain) 子任務(wù),進一步增強CoCoNet的復(fù)制能力。

              500)this.width=500\" align=\"center\" hspace=10 vspace=10 alt=\"京東云語音語義領(lǐng)域8篇論文被國際頂會發(fā)表   \">


              Experimental Result:本論文提出的復(fù)制機制,可以應(yīng)用于一系列文本摘要相關(guān)應(yīng)用中。我們在新聞?wù)獢?shù)據(jù)集(CNN/DailyMail dataset)和對話摘要數(shù)據(jù)集(SAMSum dataset)上的效果(如表1、2)超過已有的生成式摘要模型。

              500)this.width=500\" align=\"center\" hspace=10 vspace=10 alt=\"京東云語音語義領(lǐng)域8篇論文被國際頂會發(fā)表   \">


              表1:ROUGE scores on the CNN/DailyMail dataset.

              500)this.width=500\" align=\"center\" hspace=10 vspace=10 alt=\"京東云語音語義領(lǐng)域8篇論文被國際頂會發(fā)表   \">


              表2:ROUGE scores on the SAMSum dataset.

              論文標題:K-PLUG: Knowledge-injected Pre-trained Language Model for Natural Language Understanding and Generation in E-Commerce

              論文鏈接:https://arxiv.org/abs/2104.06960

              發(fā)表刊物:Findings of EMNLP 2021

              Motivation: 預(yù)訓(xùn)練語言模型在多個NLP任務(wù)展示出超越非訓(xùn)練語言模型的效果。然而,預(yù)訓(xùn)練語言模型在領(lǐng)域遷移過程中,性能會受到影響。特定領(lǐng)域的預(yù)訓(xùn)練語言模型對該領(lǐng)域的下游應(yīng)用會有很大幫助。

              Solution: 本論文為電商領(lǐng)域設(shè)計了一個大規(guī)模預(yù)訓(xùn)練語言模型,定義了一系列電商領(lǐng)域知識,包括產(chǎn)品詞、商品賣點、商品要素和商品屬性。并針對這些知識,提出了相應(yīng)的語言模型預(yù)訓(xùn)練任務(wù),包括面向知識的掩碼語言模型、面向知識的掩碼序列到序列生成、商品實體的要素邊界識別、商品實體的類別分類、商品實體的要素摘要生成。

              500)this.width=500\" align=\"center\" hspace=10 vspace=10 alt=\"京東云語音語義領(lǐng)域8篇論文被國際頂會發(fā)表   \">


              Result:本論文提出的預(yù)訓(xùn)練語言模型可應(yīng)用于多個電商領(lǐng)域的文本理解和生成任務(wù),在包括電商知識圖譜補齊、電商客服多輪對話、商品自動文摘等多個任務(wù)上取得最佳性能。

              論文標題:RevCore: Review-Augmented Conversational Recommendation

              論文鏈接:https://arxiv.org/abs/2106.00957

              發(fā)表刊物:Findings of ACL 2021

              Motivation: 對話推薦系統(tǒng)(Conversational Recommender System)是基于自然語言的多輪對話理解用戶的需求和偏好,并根據(jù)當前動態(tài)的需求和偏好推薦商品和服務(wù)。對話推薦系統(tǒng)中長期存在2個挑戰(zhàn)。1)對話中信息量較少導(dǎo)致的推薦準確度較低的問題; 2)數(shù)據(jù)收集過程缺乏專業(yè)性導(dǎo)致生成的對話回復(fù)信息量較少的問題。

              Solution: 本論文提出使用非結(jié)構(gòu)化的評論作為外部知識緩解對話推薦系統(tǒng)中由于信息量較少而存在的推薦準確度低且回復(fù)話術(shù)信息量不足的問題。該方法首先突破了非結(jié)構(gòu)性文本(評論)與結(jié)構(gòu)化知識(知識圖譜)在對話推薦系統(tǒng)的技術(shù)性融合的問題。其次,通過在對話推薦過程中檢索出情感一致的評論,進一步提高對用戶推薦的契合度。本論文提出的RevCore系統(tǒng)框架圖如下圖。

              500)this.width=500\" align=\"center\" hspace=10 vspace=10 alt=\"京東云語音語義領(lǐng)域8篇論文被國際頂會發(fā)表   \">


              Experimental Result: 本方法在保證外部文本與原始數(shù)據(jù)邏輯一致的前提下,在對話質(zhì)量和推薦質(zhì)量上均有較大提升。情感一致的用戶評論的引入,首先提高了推薦系統(tǒng)的準確度。此外,由于更加豐富的實體信息以及適當?shù)慕7绞教岣吡藢υ捇貜?fù)的多樣性和豐富度。該框架可較好的應(yīng)用在工業(yè)界的對話推薦系統(tǒng)中,包括智能客服、智能家居、智能對話機器人等。該框架還具有較強的可移植性,RevCore在電影對話推薦領(lǐng)域獲得的提升,將給予其他各個行業(yè)啟發(fā),利用外部評論數(shù)據(jù)創(chuàng)造更好的對話推薦引擎,提供更好的行業(yè)服務(wù)。

              論文標題:DialogueBERT: A Self-Supervised Learning based Dialogue Pre-training Encoder

              論文鏈接:https://arxiv.org/abs/2109.10480

              發(fā)表刊物:CIKM 2021

              Motivation:對話文本由于其特殊的角色信息和層次化結(jié)構(gòu),普通的文本編碼器在對話任務(wù)的下游任務(wù)中往往不能發(fā)揮最好的效果。在這篇文章中,受到自監(jiān)督學(xué)習(xí)在NLP任務(wù)中廣泛應(yīng)用的啟發(fā),我們提出了基于自監(jiān)督學(xué)習(xí)、面向?qū)υ挼念A(yù)訓(xùn)練模型DialogueBERT。

              Solution:這篇論文提出了五個面向?qū)υ挼淖员O(jiān)督預(yù)訓(xùn)練任務(wù),包括消息掩碼建模、單詞掩碼建模、消息替換建模、消息順序交換建模、答復(fù)對比建模,基于Transformer模型架構(gòu),利用海量對話數(shù)據(jù)進行預(yù)訓(xùn)練,抽取其中的單詞、對話輪次、對話角色信息作為輸入,學(xué)習(xí)對話文本的上文結(jié)構(gòu)信息和對話場景語義表示。

              500)this.width=500\" align=\"center\" hspace=10 vspace=10 alt=\"京東云語音語義領(lǐng)域8篇論文被國際頂會發(fā)表   \">


              Experimental Result:實驗證明我們的模型相比其他面向?qū)υ挼念A(yù)訓(xùn)練模型,可以較好的改進意圖識別、實體識別以及情緒識別等下游對話理解任務(wù)的表現(xiàn)。DilaogueBERT直接利用海量無監(jiān)督對話數(shù)據(jù)進行自監(jiān)督學(xué)習(xí),證明了基于對話語料的預(yù)訓(xùn)練的可行性。相比傳統(tǒng)的基于監(jiān)督學(xué)習(xí)的編碼器和基于通用自然語言模型的編碼器,DialogueBERT準確率更高,能夠獲得更加魯棒的對話編碼效果。本文還分析了多種針對自監(jiān)督學(xué)習(xí)的任務(wù)特點,對于未來的對話自監(jiān)督編碼研究具有一定借鑒意義。

              論文標題:Multi-hop Attention Graph Neural Networks

              論文鏈接:https://arxiv.org/abs/2009.14332

              發(fā)表刊物:IJCAI 2021

              Motivation: 目前基于注意力機制的圖神經(jīng)網(wǎng)絡(luò)中的Attention僅局限于直接鄰居,因此每一層的感受域只局限在單跳結(jié)構(gòu)中,學(xué)習(xí)多跳結(jié)構(gòu)信息需疊加更多的層數(shù),然而更多層數(shù)通常會帶來過平滑問題(Over-smoothing Problem)。同時這些Attention的計算只與節(jié)點表示本身有關(guān),并沒有考慮到圖結(jié)構(gòu)的上下文信息,而將多跳近鄰結(jié)構(gòu)化信息考慮到圖神經(jīng)網(wǎng)絡(luò)的注意力計算很少被研究。

              Solution: 本論文提出一種基于多跳注意力機制的圖神經(jīng)網(wǎng)絡(luò)模型(MAGNA),包括圖注意力擴散模塊, 深層Feed Forward聚合模塊,Layer Normalization以及殘差鏈接,基于圖擴散(Graph Diffusion)的注意力計算,能夠在單層圖神經(jīng)網(wǎng)絡(luò)中具有多跳結(jié)構(gòu)的感受域。同時給出了基于譜特征分析,證明多跳diffusion attention相比單跳attention具有更好的圖結(jié)構(gòu)學(xué)習(xí)能力。

              500)this.width=500\" align=\"center\" hspace=10 vspace=10 alt=\"京東云語音語義領(lǐng)域8篇論文被國際頂會發(fā)表   \">


              Experimental Result:本論文提出的模型,在半監(jiān)督圖節(jié)點分類問題以及知識圖譜補全任務(wù)上均取得SOTA的性能,同時能夠解決深層圖神經(jīng)網(wǎng)絡(luò)通常出現(xiàn)的過平滑問題。

              Impact: 基于圖擴散注意力計算是將稀疏圖信息和自注意力計算統(tǒng)一到一個模型中的關(guān)鍵步驟,在避免過擬合的同時提高了模型性能,并且只引入了常數(shù)因子的訓(xùn)練時間開銷。自注意力機制在序列(如NLP)數(shù)據(jù)上取得巨大成功,而基于圖擴散的注意力機制在計算任何兩點之間的注意力的同時兼顧到結(jié)構(gòu)信息。因此,本論文提出的模型有利于統(tǒng)一序列數(shù)據(jù)和圖結(jié)構(gòu)數(shù)據(jù)學(xué)習(xí)或者設(shè)計新的算法在考慮結(jié)構(gòu)化信息的同時進行序列分析(如將語法樹信息融合進文本情感分析/利用Diffusion Attention方法實現(xiàn)稀疏化Transformer)。

              論文標題:Incremental Learning for End-to-End Automatic Speech Recognition

              論文鏈接:https://arxiv.org/abs/2005.04288v3

              發(fā)表刊物:ASRU 2021

              Motivation: 語音識別增量學(xué)習(xí)旨在保留模型原有識別能力的同時,提高其在新場景下的語音識別能力,具有廣泛的應(yīng)用價值。然而,在模型原始訓(xùn)練數(shù)據(jù)因隱私、存儲等問題而不再可用的情況下,語音識別模型在增量學(xué)習(xí)過程中往往面臨“災(zāi)難性遺忘”。

              Solution: 本論文提出了一種新的基于模型可解釋性的知識蒸餾方法,并將其與基于模型輸出響應(yīng)的知識蒸餾方法相結(jié)合,以使得在僅采用新場景數(shù)據(jù)進行語音識別增量學(xué)習(xí)的過程中,保留原模型的輸出結(jié)果和得到該輸出結(jié)果的“原因”,從而有效抑制模型對原有知識的遺忘。

              500)this.width=500\" align=\"center\" hspace=10 vspace=10 alt=\"京東云語音語義領(lǐng)域8篇論文被國際頂會發(fā)表   \">


              Experimental Result:在開源數(shù)據(jù)集和實際應(yīng)用場景數(shù)據(jù)集上的增量學(xué)習(xí)實驗結(jié)果表明,在抑制模型對原有知識的遺忘方面,本論文方法顯著優(yōu)于現(xiàn)有方法。本論文提出的方法在無需訪問模型原始訓(xùn)練數(shù)據(jù)的條件下,僅利用原模型和新場景的語音數(shù)據(jù)進行增量訓(xùn)練,能夠在讓模型快速適應(yīng)新任務(wù)場景(如新口音、新術(shù)語、新聲學(xué)環(huán)境等)的同時,保留模型原有的識別性能。

              論文標題:Learning to Compose Stylistic Calligraphy Artwork with Emotions

              發(fā)表刊物:ACM Multimedia 2021 (Oral)

              Motivation:情緒在書法創(chuàng)作中發(fā)揮了非常重要的作用,它讓書法作品更加有藝術(shù)性和感染力。之前的工作忽略了情感在書法創(chuàng)作中的重要性,并且局限于單字書法的圖像生成,沒有考慮篇章布局。在這篇文章中,我們提出了一種情緒驅(qū)動的、篇章級的書法生成框架。

              Solution:我們的模型可以從輸入文本中檢測用戶情感,基于生成對抗網(wǎng)絡(luò)生成字級別書法圖片,最后基于循環(huán)神經(jīng)網(wǎng)絡(luò)預(yù)測書法篇章布局,合成具有藝術(shù)性的風(fēng)格化書法作品。該研究是業(yè)界第一篇基于情緒的、篇章級的風(fēng)格化書法生成工作。

              500)this.width=500\" align=\"center\" hspace=10 vspace=10 alt=\"京東云語音語義領(lǐng)域8篇論文被國際頂會發(fā)表   \">


              Experimental Result:實驗顯示,我們提出的模型相比之前書法生成模型和圖像風(fēng)格轉(zhuǎn)換模型,在真實書法數(shù)據(jù)集上可以獲得更好的內(nèi)容正確性和風(fēng)格一致性。人工評估的結(jié)果也顯示我們提出的模型生成的書法作品更具有藝術(shù)性。此外,本文提出的圖像風(fēng)格遷移算法還可以廣泛應(yīng)用到計算機視覺的圖像生成任務(wù)中,包括個性化廣告圖片生成、圖片特效濾鏡等應(yīng)用場景。

              技術(shù)的創(chuàng)新發(fā)展與應(yīng)用,有效推動了產(chǎn)業(yè)數(shù)字化、智能化的發(fā)展進程,而要實現(xiàn)更高層次的創(chuàng)新發(fā)展,離不開人工智能的堅實助力。本次8篇論文在國際學(xué)術(shù)會議中發(fā)表,是京東云在人工智能領(lǐng)域集中爆發(fā)的重要體現(xiàn)。未來,京東云將繼續(xù)沿著以AI推動產(chǎn)業(yè)數(shù)字化的方向,加快推進產(chǎn)學(xué)研用一體化應(yīng)用,構(gòu)筑“技術(shù)+場景”的創(chuàng)新應(yīng)用新生態(tài),在世界舞臺上彰顯中國企業(yè)的技術(shù)實力。
              无码欧精品亚洲日韩一区| 亚洲日韩看片无码电影| 亚洲AV综合色区无码一区爱AV | 亚洲国产欧美国产综合一区| 亚洲国产午夜电影在线入口| 亚洲综合无码一区二区| 亚洲伊人tv综合网色| 亚洲AV乱码一区二区三区林ゆな| 精品久久久久久亚洲| 亚洲国产成人一区二区三区| 黑人精品videos亚洲人| 亚洲成A人片在线观看WWW| 国产亚洲A∨片在线观看| 国产亚洲综合成人91精品| 国产亚洲高清不卡在线观看| 亚洲大尺度无码无码专区| 久久久久久亚洲av成人无码国产| 亚洲av成人无码久久精品| 亚洲丝袜美腿视频| 亚洲大尺码专区影院| 亚洲AV无码久久久久网站蜜桃| 亚洲人成图片网站| 亚洲色少妇熟女11p| 亚洲成a人无码亚洲成av无码| 自拍偷自拍亚洲精品播放| 亚洲国产人成精品| 国产亚洲人成A在线V网站| 国产精品亚洲成在人线| 亚洲va在线va天堂va888www| 中文字幕在线观看亚洲| 亚洲国产片在线观看| 亚洲最大的成人网| 久久精品国产亚洲AV电影网| 亚洲精品国产自在久久 | 亚洲女人影院想要爱| 亚洲最大福利视频| 亚洲AV无码专区在线厂| 亚洲日本韩国在线| 国产精品亚洲片在线观看不卡| 久久久久久亚洲AV无码专区| 久久精品国产亚洲av麻豆蜜芽|