




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
自然語言處理NaturalLanguageProcessing第五章分類任務(wù)目錄章節(jié)概述Contents1小節(jié)介紹2本章總結(jié)3章節(jié)概述CHAPTEROVERVIEWONE章節(jié)概述一般來說,自然語言處理包含四大主流任務(wù),分別為:分類任務(wù)、生成式任務(wù)、序列標注任務(wù)和句子關(guān)系推斷任務(wù),每一大類任務(wù)又涵蓋多種子任務(wù)。分類任務(wù)包括文本分類(TextClassification)、情感分析(SentimentAnalysis)、意圖識別(IntentDetection)等;生成式任務(wù)包括機器翻譯(MachineTranslation)、文本摘要(TextSummarization)、閱讀理解(ReadingComprehension)、問答系統(tǒng)(Question-AnsweringSystem)、對話系統(tǒng)(DialogueSystem)等;序列標注任務(wù)包括命名體識別(NameEntityRecognition)、詞性標注(Part-of-SpeechTagging)等;句子關(guān)系推斷任務(wù)包含文本推斷(NaturalLanguageInterference)、文本語義相似度(SemanticTextSimilarity)等。章節(jié)概述
本章節(jié)旨在從文本分類、情感分析、意圖識別三個子任務(wù)介紹NLP中的分類任務(wù)。本章首先定義了分類任務(wù)的多種評價指標,以此衡量分類模型的性能好壞。其次,本章將結(jié)合現(xiàn)實背景,描述文本分類、情感分析、意圖識別的實際應(yīng)用價值及研究范圍,并基于人工智能領(lǐng)域的兩大流派--傳統(tǒng)機器學習(如邏輯回歸、樸素貝葉斯、支持向量機、決策樹、提升方法等)和深度學習(如卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、注意力機制、記憶網(wǎng)絡(luò)等),介紹解決上述三類子任務(wù)的基礎(chǔ)及前沿解決方法。此外,由于分類任務(wù)應(yīng)用場景的多樣性,上述解決方法也會隨場景作出相應(yīng)改變,例如長文本與短文本、句子級別與篇章級別文本間需使用不同方法進行處理,因此本章節(jié)另從短文本、句子級別、篇章級別、多模態(tài)等角度,分析并完善上述三個子任務(wù)在不同場景需求下的解決手段。章節(jié)概述---思維導圖小節(jié)介紹SECTIONINTRODUCTIONTWO評價指標5.1評價指標5.15.25.3文本分類情感分析5.4意圖識別5.1評價指標---概述為了判定各種分類算法的好壞,我們需要制定評價指標來衡量各個算法的性能。分類任務(wù)常用的評價指標包含準確率、錯誤率、查全率(又稱召回率)、查準率(又稱精確率)、F值、PR曲線、ROC曲線、AUC等。這些評價指標適用于分類任務(wù)的各種子任務(wù),包括文本分類、情感分析、意圖識別等。本小節(jié)以二分類場景入手,介紹上述評價指標。5.1評價指標---混淆矩陣
PositiveNegativeTrueTPFPFalseFNTN在介紹評價指標前,先結(jié)合表格5-1定義如下概念。TruePositive(TP)表示將真實正類預測為正類的樣本集合,TrueNegative(TN)表示將真實負類預測為負類的樣本集合,F(xiàn)alsePositive(FP)代表將真實負類預測為正類的樣本集合,F(xiàn)alseNegative(FN)代表將真實正類預測為負類的樣本集合。表5-1混淆矩陣5.1評價指標---準確率、錯誤率
PositiveNegativeTrueTPFPFalseFNTN表5-1混淆矩陣5.1評價指標---查全率、查準率、F值
PositiveNegativeTrueTPFPFalseFNTN表5-1混淆矩陣
5.1評價指標---PR曲線以邏輯回歸為例,介紹Precision-Recall曲線。邏輯回歸的輸出是一個(0,1)之間的概率數(shù)字,因此我們需要定義一個閾值來根據(jù)這個概率判斷正負樣本。比如,我們定義了閾值為0.5,即概率小于0.5的可被歸為負樣本,而大于0.5的可被歸為正樣本。此時,在閾值為0.5時,我們能計算相應(yīng)的召回率、精確率和F值。然而這個閾值是隨意設(shè)定的,我們無法判斷這個閾值是否符合我們的需求。因此,為了找到一個最合適的閾值,我們必須遍歷(0,1)之間的所有閾值,而每個閾值下都對應(yīng)著一對召回率和精確率,從而我們可以繪制一條曲線,該曲線稱為P-R曲線,如右圖。從上圖不難發(fā)現(xiàn),對一個模型的P-R曲線而言,召回率和精確率互相影響的,只有當召回率和精確率都較高時,F(xiàn)值才會變高。對不同模型的P-R曲線而言,即圖中的ModelA、ModelB、ModelC,越靠近右上角的曲線代表該分類器的性能越好,即分類器性能A>B>C。圖中BEP(Break-EvenPoint)代表召回率等于精確率的情況,一般來說,BEP越靠近右上角,代表該分類器效果越好。圖5-2
P-R曲線5.1評價指標---ROC曲線
圖5-3
P-R曲線5.1評價指標---AUCAUC(AreaUnderCurve)又稱曲線下面積,是ROC曲線與橫軸圍成的面積大小。AUC越大,代表模型的分類能力越強。通常,AUC的值介于[0.5,1]之間。如果模型能完美區(qū)分正負類,那么該模型的AUC值為1;若該模型為隨機預測的二分類模型,則AUC值為0.5。
P-R曲線和ROC曲線均能反映類別不平衡時的分類器性能。P-R曲線由于計算召回率和精確率,因此它更加側(cè)重于表示分類器對于正類的分類性能,例如檢驗某個模型從海量健康樣本中鑒別癌癥樣本的能力。ROC曲線由于計算真正率和假正率,因此它更加兼容地反映了分類器分別對正類和負類的分類能力。不同場景下P-R曲線和ROC曲線的使用各有優(yōu)缺點。
評價指標5.2文本分類5.15.25.3文本分類情感分析5.4意圖識別5.2.1文本分類---概述日常生活中,我們時常會對某一事物作出判斷。例如在電商軟件上購買物品時,我們會根據(jù)已有用戶評價來分析該款商品的質(zhì)量如何、性價比高不高、值不值得購買;在社交媒體上,我們會根據(jù)其他用戶的發(fā)言來審視大眾對特定社會時事的看法;在查閱、整理電子郵箱時,我們會根據(jù)發(fā)件人地址、郵件主題、郵件內(nèi)容等來判斷該郵件是否屬于垃圾郵件。因此,我們無時不刻地在對身邊出現(xiàn)的文本進行著分類。本章所述的文本分類的意義在于如何將耗時耗力的人工分類過程轉(zhuǎn)變成由機器實現(xiàn)的、快速高效的自動分類過程。針對上述生活中的應(yīng)用場景,文本分類可以實現(xiàn)商品評價分類、社會輿情分析、垃圾郵件過濾、用戶投訴分類、新聞分類等一系列應(yīng)用,以此幫助人們快速了解商品,協(xié)助政府機關(guān)迅速掌握輿情發(fā)展動向,方便企業(yè)、政府分門別類地處理用戶投訴等。因此,文本分類極大程度上地方便了人類各式各樣的“判斷”需求。5.2.1文本分類---概述文本分類通過精心設(shè)計的算法實現(xiàn)對自然語言的分類。然而鑒于使用場景的多樣性,待處理的文本也有著不同特征,因此文本分類算法因為這些多樣性產(chǎn)生了分化。文本分類任務(wù)可進一步從文本長度、文本內(nèi)容等方面進行細分。以文本長度為例,文本可劃分為短文本、句子級別的文本和篇章級別的文本,因此文本分類任務(wù)也被細分為基于短文本(Short-text)的文本分類、基于句子級別(Sentence-level)的文本分類和基于篇章級別(Document-level)的文本分類。若以文本內(nèi)容角度來看,那么文本可以被劃分為僅含文字的文本,和包含文本、圖片的文本,這導致文本分類還可以被分化為基于多模態(tài)(Multimodal)的文本分類?,F(xiàn)階段,實現(xiàn)文本分類的算法主要包含兩類:基于傳統(tǒng)機器學習和基于深度學習的文本分類。基于傳統(tǒng)機器學習的算法有樸素貝葉斯、支持向量機、決策樹、隨機森林、K近鄰等算法,基于深度學習的算法囊括卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、記憶網(wǎng)絡(luò)、注意力機制、膠囊網(wǎng)絡(luò)、預訓練語言模型等算法。不同文本分類算法各有優(yōu)缺點,在日常應(yīng)用中我們需結(jié)合實際情況酌情選擇。5.2.2文本分類---機器學習
基于傳統(tǒng)機器學習的文本分類方法將文本分類問題拆分成特征工程和分類器兩部分。特征工程分為文本預處理、特征提取、文本表示三個部分,目的是將文本轉(zhuǎn)換成計算機可以理解的格式,最后分類器利用上述特征進行分類。
文本預處理階段主要用于提取文本中的關(guān)鍵詞,濾除非關(guān)鍵詞。以英文為例,該階段將英文文本進行分詞,去除無關(guān)標點符號、停用詞(StopWords),還可進行大小寫轉(zhuǎn)換、詞干提?。⊿temming)、詞形還原(Lemmatization)等。之后利用特征提取方法提取文本特征,如詞袋模型(BagofWords)、N-gram詞袋模型、TF-IDF等,最后將文本向量化。圖5-4特征工程5.2.2文本分類---機器學習基于傳統(tǒng)機器學習的分類器種類繁多,例如樸素貝葉斯(Na?veBayes,NB)、決策樹(DecisionTree,DT)、支持向量機(SupportVectorMachine,SVM)、K近鄰法(K-NearestNeighbor,KNN)、集成學習(EnsembleLearning)等。以下挑選部分算法的核心思想進行簡要講解。樸素貝葉斯樸素貝葉斯法是在假定各特征條件相互獨立的情況下,基于貝葉斯定理的分類方法。對于一給定的數(shù)據(jù)集,該方法首先學習輸入輸出的聯(lián)合概率分布,再通過此概率分布,利用貝葉斯定理求出針對輸入的最大輸出。樸素貝葉斯具有簡單、效率高的優(yōu)點,其缺點在于條件獨立性假設(shè)在實際情況中不常見。決策樹決策樹是一種基本的分類和回歸方法。本段簡要介紹決策樹如何應(yīng)用于分類任務(wù)中。決策樹模型呈樹形結(jié)構(gòu),每個樹節(jié)點基于某一特征對樣本進行二分類。學習時,根據(jù)信息增益和損失函數(shù)建立決策樹,預測時利用樹模型進行分類。決策樹的建立通常包括3個步驟:特征選擇、決策樹生成和決策樹的修剪。典型的決策樹模型包括ID3、C4.5、CART等算法。右圖是一個由當天天氣和交通狀況特征決定是否按時舉辦活動的決策樹模型。圖5-5決策樹5.2.2文本分類---機器學習圖5-6支持向量機支持向量機支持向量機是一種二分類模型,它是定義在特征空間上的間隔最大的線性分類器。支持向量機還包括核技巧,這使得它可以針對線性不可分特征進行分類。支持向量機的核心思想在于如何使得間隔最大化,這可看作是一個求解凸二次規(guī)劃的問題。K近鄰學習假定給定一個數(shù)據(jù)集,其中的實例類別已定。分類時,對新的實例,根據(jù)其k個最近鄰的訓練實例的類別,通過多數(shù)表決等方式進行預測。K近鄰法實際上是利用訓練數(shù)據(jù)集對特征向量空間進行劃分,并將其作為分類依據(jù)。K值的選擇、距離度量和分類決策是k近鄰法的三個基本要素。5.2.2文本分類---機器學習集成學習集成學習本身不是一個單獨的機器學習算法,而是通過構(gòu)建并結(jié)合多個弱學習器組建強學習器,以此完成學習任務(wù),也就是我們常說的“博采眾長”。弱學習器可由樸素貝葉斯、決策樹、支持向量機等算法來實現(xiàn)。集成學習可以用于分類問題集成,也可用于回歸問題集成。集成學習主要分為三類:Bagging,Boosting和Stacking。對分類任務(wù)而言,基于Bagging的集成學習利用訓練集學習多個弱分類器,再對多個分類器輸出的結(jié)果進行結(jié)合并預測,結(jié)合策略包括平均法、投票法、學習法等。基于Boosting的集成學習首先從訓練集中學習一個弱分類器,在針對弱分類器的學習誤差調(diào)整訓練集的權(quán)重,使得被錯誤學習的樣本具有較高的權(quán)重,被正確學習的樣本具有較低權(quán)重。再利用更新后的數(shù)據(jù)集訓練第二個弱分類器,以此循環(huán),直至達到指定的弱分類器數(shù)量。最后對這些弱分類器的預測結(jié)果進行整合,得到強分類器?;赟tacking的集成學習算法分為兩層,第一層由若干基學習器構(gòu)建,這些基學習器已在訓練集上訓練完成,它們的預測結(jié)果將作為特征輸入到第二層的學習器中繼續(xù)學習,并輸出最終的預測結(jié)果。5.2.3文本分類---深度學習上文介紹了基于傳統(tǒng)機器學習的文本分類做法,傳統(tǒng)做法的主要問題是文本表示是高維度、高稀疏的,特征表達能力較弱。此外傳統(tǒng)機器學習方法需要人工進行特征工程,成本高昂。應(yīng)用深度學習解決大規(guī)模文本分類問題最重要的是解決文本表示的問題,再利用卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)等網(wǎng)絡(luò)結(jié)構(gòu)自動獲取特征表達能力,去掉繁雜的人工特征工程,端到端的解決問題。本節(jié)將介紹幾種具有代表性的基于深度學習的文本分類算法,包括FastText、卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeuralNetwork)、注意力機制(AttentionMechanism)、圖神經(jīng)網(wǎng)絡(luò)(GraphNeuralNetwork)、預訓練語言模型(PretrainedLanguageModel)。5.2.3文本分類---Fasttext
圖5-7
Fasttext5.2.3文本分類---卷積神經(jīng)網(wǎng)絡(luò)圖5-8
TextCNN結(jié)構(gòu)圖
5.2.3文本分類---卷積神經(jīng)網(wǎng)絡(luò)
圖5-8
TextCNN結(jié)構(gòu)圖5.2.3文本分類---循環(huán)神經(jīng)網(wǎng)絡(luò)圖5-9
RNN結(jié)構(gòu)圖
5.2.3文本分類---循環(huán)神經(jīng)網(wǎng)絡(luò)
圖5-9
RNN結(jié)構(gòu)圖5.2.3文本分類---注意力機制由于人類在觀察事物時會將視線聚焦于某些重點上,因此仿照這個想法,我們可以突出文本中某些重要特征的地位,從而幫助提升模型預測效果,該種方法稱為注意力機制。注意力機制可以與其它模型混合使用,例如RNN+Attention、CNN+Attention,也可以單獨使用,例如Transformer。注意力機制還可以根據(jù)注意力范圍的不同,分為全局注意力機制(GlobalAttention)和局部注意力機制(LocalAttention)。還可根據(jù)注意力權(quán)重的大小,分為硬注意力機制(HardAttention)和軟注意力機制(SoftAttention)。還可根據(jù)注意力對象的不同,分為自注意力機制(Self-Attention)和互注意力機制(Co-Attention)。本小節(jié)僅挑選部分注意力機制進行講解。5.2.3文本分類---注意力機制
5.2.3文本分類---注意力機制
5.2.3文本分類---圖神經(jīng)網(wǎng)絡(luò)
圖5-10圖神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖5.2.3文本分類---預訓練語言模型圖5-11
BERT結(jié)構(gòu)圖預訓練語言模型突破了靜態(tài)詞向量無法解決一詞多義的問題。預訓練語言模型包括ELMo、GPT、BERT、XLNet等。其中BERT作為最經(jīng)典的預訓練語言模型之一,在提出時,在多個領(lǐng)域如分類任務(wù)、生成任務(wù)、匹配任務(wù)、序列標注任務(wù)等均取得了最好成績。我們以BERT為例來介紹如何通過預訓練語言模型解決文本分類任務(wù)。BERT語言模型分為兩個階段,分別為預訓練階段(Pre-train)和微調(diào)階段(Fine-tuning)。BERT由多個Transformer組成(Transformer為自注意力機制,如圖5-11)。在預訓練階段,BERT采用MaskedLanguageModel
(MLM)和NextSentencePrediction
(NSP)兩個任務(wù)對BERT進行訓練。MLM對句子中某些詞進行遮掩(Mask),然后預測這些被遮掩的地方原有的單詞是什么。NSP則利用兩個句子,判斷這兩個句子是否一句為另一句的下一句話。在MLM和NSP中,句子輸入到BERT之前會使用“[CLS]”和“[SEP]”對輸入進行包裹,其中“[CLS]”代表整個輸入的文本特征,“[SEP]”表示句子對的分割標志。在Fine-tuning階段,BERT可被用于文本分類任務(wù),即在相關(guān)數(shù)據(jù)集上,繼續(xù)訓練BERT參數(shù),并使用“[CLS]”對應(yīng)的文本特征用于預測類別概率,損失函數(shù)可使用交叉熵損失函數(shù)。評價指標5.3情感分析5.15.25.3文本分類情感分析5.4意圖識別5.3.1情感分析---概述近年來,互聯(lián)網(wǎng)的快速發(fā)展促使社交平臺上產(chǎn)生了大量用戶參與的、對于諸如商品、事件、人物等方面的評論。例如在某電商平臺上購買某款產(chǎn)品時,用戶會根據(jù)其它用戶評論來判斷該款商品質(zhì)量如何、性價比如何,商家也可通過用戶的反饋來反思自己的商品是否不足,還有哪些地方可以改進;用戶在線購買電影票時,通常會在評論區(qū)瀏覽大眾對每種電影的評價,然后選擇評價最好的電影前去觀看;當社會發(fā)生重大事件時,政府機關(guān)會分析用戶在社交平臺上的討論,以此監(jiān)管輿情。現(xiàn)實中還有諸多情景需要分析文本的情感傾向以達到某種目的,這個過程稱為情感分析。情感分析,又叫意見挖掘,是對帶有情感色彩的主觀性文本進行分析、歸納、推理的過程。情感分析的發(fā)展可大致分為三個階段:基于人工或規(guī)則的情感分析、基于傳統(tǒng)機器學習的情感分析、基于深度學習的情感分析。早期,人們雇傭人力并制定規(guī)則來對文本情感色彩進行判斷,該種方法準確率高,但效率低下,且耗費資源。20世紀末到21世紀初,基于統(tǒng)計學的傳統(tǒng)機器學習利用特征工程提取文本特征,并對其進行分類。2010年以后,基于神經(jīng)網(wǎng)絡(luò)的深度學習因其強大的擬合能力被廣泛應(yīng)用于情感分析中,相比于傳統(tǒng)機器學習取得了較大的性能提升。5.3.1情感分析---概述情感分析的研究領(lǐng)域主要包括基于詞(Word-level)、基于句子(Sentence-level)和篇章(Document-level)、基于視角(Aspect-level)這三種情感分析?;谠~級別的情感分析旨在給詞語賦予情感信息,即構(gòu)建情感詞典(SentimentLexicon),例如“高興”一詞可被標記為“Positive”或者“5”,“5”代表情感程度,數(shù)字越大,情感越積極,反之“-5”代表消極情感,比如“沮喪”。情感詞典的構(gòu)建通常采用人工標注或者自動化方法?;诰渥雍推录墑e的情感分析主要分析文本整體的情感傾向,目前這種情感分析應(yīng)用范圍最廣,目前主流解決方法為使用傳統(tǒng)機器學習或者深度學習。由于文本中的情感傾向可能針對不同對象,例如“這家餐廳環(huán)境很好,就是味道一般”,該句話中針對“環(huán)境”的情感極性為積極,而針對“味道”的情感極性則為消極,因此倘若使用基于句子的情感分析,那么最終得到的情感極性將把針對“環(huán)境”和“味道”的情感混作一團。這種情況下,我們需要針對句子中的不同對象(Target)分別進行情感分析,這個過程即為基于視角的情感分析。基于視角的情感分析主要研究兩點,一是對視角的提?。ˋspectExtraction),二是針對視角的情感分析(Aspect-basedSentimentAnalysis)?,F(xiàn)階段,解決該種情感分析的主流算法大部分都采用了神經(jīng)網(wǎng)絡(luò),但模型結(jié)構(gòu)與文本分類任務(wù)、基于句子和篇章的情感分析存在一定差異。以上內(nèi)容是情感分析這一領(lǐng)域的基本介紹。本節(jié)將從分類任務(wù)的角度,介紹基于句子和篇章級別、視角級別情感分類任務(wù)的實現(xiàn)方法,情感詞典的構(gòu)建、視角提取等子任務(wù)由于不屬于分類任務(wù),因此不進行贅述。5.3.2情感分析---機器學習基于傳統(tǒng)機器學習的情感分析與文本分類基本類似,其將情感分析拆分為兩個步驟,特征工程和分類器。在特征工程階段,文本將由文本預處理、特征提取、文本表示被表征成計算機可以處理的向量形式。此后,對提取到的特征采用分類算法進行情感分析,這里的分類算法仍包括線性回歸、邏輯回歸、感知機、K近鄰法、樸素貝葉斯、決策樹、支持向量機、集成學習、聚類學習等傳統(tǒng)機器學習算法,分類過程與文本分類任務(wù)大致相似。5.3.3情感分析---深度學習基于深度學習的情感分析包含以下主流算法:FastText、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、注意力機制、圖神經(jīng)網(wǎng)絡(luò)、膠囊網(wǎng)絡(luò)、預訓練模型等。基于句子、篇章級別的情感分析算法與文本分類算法保持一致,而基于視角的情感分析算法由于需針對視角進行分類,所以與之前的文本分類算法產(chǎn)生了較大不同。本小節(jié)介紹部分基于篇章和視角的情感分類算法。5.3.3情感分析---基于篇章的情感分析圖5-12
HAN結(jié)構(gòu)圖
5.3.3情感分析---基于篇章的情感分析圖5-12
HAN結(jié)構(gòu)圖
5.3.3情感分析---基于視角的情感分析圖5-13
AT-LSTM結(jié)構(gòu)圖基于視角的情感分析由于需要對不同視角分別分析其情感極性,因此相比于句子、篇章級別的分類,多了視角信息。我們以LSTM+Attention為例,介紹如何針對視角進行細粒度情感分類,如何將視角信息融入于模型之中。
5.3.3情感分析---基于視角的情感分析圖5-13
GCAE結(jié)構(gòu)圖卷積神經(jīng)網(wǎng)絡(luò)也可結(jié)合視角信息實現(xiàn)基于視角的情感分析。如圖5-14所示,該模型稱為GatedConvolutionalNetworkwithAspectEmbedding(GCAE),其利用CNN分別提取文本和對應(yīng)視角的特征,并結(jié)合門機制,利用視角特征對文本中的特征進行篩選,從而實現(xiàn)基于視角的情感分析。以上介紹了幾種基于句子/篇章級別和視角級別的情感分析,可以明顯地發(fā)現(xiàn),由于視角信息的引入,基于視角的情感分析與普通基于神經(jīng)網(wǎng)絡(luò)的情感分析模型產(chǎn)生了不同,所以針對不同場景,對模型做出合理改進是必要的。5.3.3情感分析---多模態(tài)情感分析圖5-13
VistaNet結(jié)構(gòu)圖提及不同場景,最新有研究旨在分析結(jié)合圖片的文本的情感傾向,該研究方向稱為多模態(tài)情感分析(MultimodalSentimentAnalysis)。上圖為多模態(tài)情感分析的一個模型,稱為VistaNet。該模型與HAN結(jié)構(gòu)相似,也是對篇章進行情感分析,不同之處在于,引入了由VGG-16模型提取的圖片特征,并利用這些特征對句子進行注意力加權(quán),從而獲得更好的篇章表征。VistaNet也可用于多模態(tài)的其它分類任務(wù)中。上文主要介紹了基于深度學習的情感分析技術(shù),包括基于句子/篇章級別、基于視角級別、基于多模態(tài)的算法??傮w上,除了基于視角的情感分析額外引入了視角信息,基于深度學習的情感分析算法與文本分類算法大致類似。評價指標5.4意圖識別5.15.25.3文本分類情感分析5.4意圖識別5.4意圖識別---概述意圖識別任務(wù)作為分類任務(wù)之一,其作用在于識別出文本所蘊含的意圖。意圖識別主要應(yīng)用于包含多輪對話的應(yīng)用中,例如問答系統(tǒng)、語音助手、智能家居等。由于多輪開放域?qū)υ捴杏脩羲鰞?nèi)容范圍極廣,漫無目的地搜尋并生成
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 混凝土防裂材料與施工方案
- 城市燃氣設(shè)施提升改造工程社會穩(wěn)定風險評估報告
- 建筑結(jié)構(gòu)勘察與檢測技術(shù)方案
- 手機APP運動管理-洞察與解讀
- 工程勘察數(shù)據(jù)處理與優(yōu)化方案
- 斜視護理病人案例
- 100MW漁光互補光伏電站節(jié)能評估報告
- 輕質(zhì)高強度復合結(jié)構(gòu)設(shè)計-洞察與解讀
- 熱電聯(lián)產(chǎn)項目社會穩(wěn)定風險評估報告
- 生物科技產(chǎn)品知識培訓課件
- 保險基礎(chǔ)知識培訓
- 口腔藥品急救知識培訓課件
- 2025年教育系統(tǒng)學校中層后備干部選拔考試題(含答案)
- 養(yǎng)老院安全培訓考試題及答案解析
- DB32-T 5192-2025 工業(yè)園區(qū)碳排放核算指南
- SEPIC主要參數(shù)設(shè)計軟件
- GB/T 24002.1-2023環(huán)境管理體系針對環(huán)境主題領(lǐng)域應(yīng)用GB/T 24001管理環(huán)境因素和應(yīng)對環(huán)境狀況的指南第1部分:通則
- 2023版思想道德與法治專題5 明確價值要求 踐行價值準則 第2講 堅定社會主義核心價值觀自信
- 2023年自考全國10月財務(wù)管理學試題+答案
- 日語動詞分類課件 【高效課堂+備課精研】 高考日語一輪復習
- GA/T 850-2021城市道路路內(nèi)停車位設(shè)置規(guī)范
評論
0/150
提交評論