注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網(wǎng)絡軟件與程序設計自然語言處理:原理、方法與應用

自然語言處理:原理、方法與應用

自然語言處理:原理、方法與應用

定 價:¥59.00

作 者: 王志立、雷鵬斌、吳宇凡
出版社: 清華大學出版社
叢編項:
標 簽: 暫缺

ISBN: 9787302617747 出版時間: 2023-03-01 包裝: 平裝-膠訂
開本: 16開 頁數(shù): 字數(shù):  

內(nèi)容簡介

  本書系統(tǒng)闡述自然語言處理基礎知識,以及自然語言處理高級模型應用等高級知識。 全書共11章:第1~5章為自然語言處理的基礎知識,第6~11章則將自然語言處理知識應用于實戰(zhàn)。書中主要內(nèi)容包括預訓練模型、文本分類、機器閱讀理解、命名實體識別、文本生成、模型蒸餾與剪枝及損失函數(shù)等知識。 書中包含大量應用示例,不僅可以學會理論知識還可以靈活應用。書中示例基于Linux與PyTorch環(huán)境開發(fā),讀者在學習自然語言處理知識的同時還可學會PyTorch框架技術,內(nèi)容完整、步驟清晰,提供了工程化的解決方案。 本書可作為有一定深度學習基礎的讀者的入門書,也可作為從事自然語言處理算法工作的技術人員及培訓機構(gòu)的參考書。

作者簡介

  王志立,自然語言處理工程師,曾在國際與國內(nèi)的學術會議上發(fā)表學術論文多篇,先后在騰訊等多家知名企業(yè)從事大數(shù)據(jù)與人工智能算法工作,運營和分享人工智能相關知識,曾獲得多項人工智能比賽國家級獎項。雷鵬斌,深圳大學碩士,華為AI算法工程師,主要從事chatops、知識圖譜的研究與應用工作,對自然語言處理各項任務的研究與應用具有經(jīng)驗豐富。2019—2021年在國內(nèi)知名競賽的文本分類、命名實體識別、機器閱讀理解、智能問答,以及文本生成任務中摘獲大量榮譽。曾參與多項課題研究,在AAAI、中文信息學報等高影響力會議上發(fā)表多篇文章。吳宇凡,騰訊算法應用研究員,長期從事業(yè)務安全和金融量化相關算法研究和實踐,已發(fā)表國際頂級會議論文多篇,申請專利數(shù)篇。

圖書目錄


第1章導論(13min)
1.1基于深度學習的自然語言處理
1.2本書章節(jié)脈絡
1.3自然語言處理算法流程
1.4小結(jié)
第2章Python開發(fā)環(huán)境配置(35min)
2.1Linux服務器
2.1.1MobaXterm
2.1.2使用MobaXterm連接遠程服務器
2.1.3在服務器上安裝Python開發(fā)環(huán)境
2.1.4使用Anaconda國內(nèi)源
2.1.5pip設定永久阿里云源
2.2Python虛擬環(huán)境
2.3PyCharm遠程連接服務器
2.4screen任務管理
2.5Docker技術
2.6小結(jié)
第3章自然語言處理的發(fā)展進程
3.1人工規(guī)則與自然語言處理
3.2機器學習與自熱語言處理
3.2.1詞袋模型
3.2.2ngram
3.2.3頻率與逆文檔頻率
3.3深度學習與自然語言處理
3.4小結(jié)
第4章無監(jiān)督學習的原理與應用(30min)
4.1淺層無監(jiān)督預訓練模型
4.2深層無監(jiān)督預訓練模型
4.2.1BERT
4.2.2SelfAttention Layer原理
4.2.3SelfAttention Layer的內(nèi)部運算邏輯
4.2.4MultiHead SelfAttention
4.2.5Layer Normalization
4.2.6BERT預訓練
4.2.7BERT的微調(diào)過程
4.3其他預訓練模型
4.3.1RoBERTa
4.3.2ERNIE
4.3.3BERT_WWM
4.3.4ALBERT
4.3.5Electra
4.3.6NEZHA
4.3.7NLP預訓練模型對比
4.4自然語言處理四大下游任務
4.4.1句子對分類任務
4.4.2單句子分類任務
4.4.3問答任務
4.4.4單句子標注任務
4.5小結(jié)
第5章無監(jiān)督學習進階
5.1生成式對抗網(wǎng)絡
5.2元學習
5.2.1MetricBased Method
5.2.2ModelBased Method
5.2.3PretrainBased Method
5.3小結(jié)
第6章預訓練
6.1賽題任務
6.2環(huán)境搭建
6.3代碼框架
6.4數(shù)據(jù)分析實踐
6.4.1數(shù)據(jù)預處理
6.4.2預訓練任務模型構(gòu)建與數(shù)據(jù)生成
6.4.3模型訓練
6.5小結(jié)
第7章文本分類(45min)
7.1數(shù)據(jù)分析
7.2環(huán)境搭建
7.3代碼框架
7.4文本分類實踐
7.4.1數(shù)據(jù)預處理
7.4.2模型構(gòu)建
7.4.3數(shù)據(jù)迭代器
7.4.4模型訓練
7.4.5模型預測
7.5小結(jié)
第8章機器閱讀理解(16min)
8.1機器閱讀理解的定義
8.1.1完形填空
8.1.2多項選擇
8.1.3片段抽取
8.1.4自由回答
8.1.5其他任務
8.2評測方法
8.3研究方法
8.3.1基于規(guī)則的方法
8.3.2基于神經(jīng)網(wǎng)絡的方法
8.3.3基于深層語義的圖匹配方法
8.4經(jīng)典結(jié)構(gòu)
8.4.1BiDAF模型
8.4.2QANet模型
8.4.3基于BERT模型的機器閱讀理解
8.5多文檔機器閱讀理解實踐
8.5.1疫情政務問答助手
8.5.2信息檢索
8.5.3多任務學習
8.5.4實踐
8.6小結(jié)
第9章命名實體識別(15min)
9.1NER技術的發(fā)展現(xiàn)狀
9.2命名實體識別的定義
9.3命名實體識別模型
9.3.1預訓練模型
9.3.2下接結(jié)構(gòu)
9.3.3條件隨機場
9.4命名實體識別實驗
9.4.1數(shù)據(jù)介紹
9.4.2評估指標
9.4.3數(shù)據(jù)預處理
9.4.4模型構(gòu)建
9.4.5數(shù)據(jù)迭代器
9.4.6模型訓練
9.4.7模型預測
9.5小結(jié)
第10章文本生成(26min)
10.1文本生成的發(fā)展現(xiàn)狀
10.1.1文本生成模板
10.1.2變分自編碼器
10.1.3序列到序列技術
10.2基于預訓練模型的文本生成模型
10.3文本生成任務實踐
10.3.1數(shù)據(jù)介紹
10.3.2評估指標
10.3.3模型構(gòu)建
10.3.4數(shù)據(jù)迭代器
10.3.5模型訓練
10.3.6模型預測
10.4小結(jié)
第11章?lián)p失函數(shù)與模型瘦身
11.1損失函數(shù)
11.2常用的損失函數(shù)
11.2.1回歸
11.2.2分類
11.3損失函數(shù)的進階
11.3.1樣本不均衡
11.3.2Focal Loss
11.3.3Dice Loss
11.3.4拒識
11.3.5帶噪學習
11.4模型瘦身
11.4.1知識蒸餾
11.4.2模型剪枝
11.5小結(jié)
 

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.talentonion.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號