注冊 | 登錄讀書好,好讀書,讀好書!
讀書網-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網絡軟件與程序設計程序設計綜合Java性能優(yōu)化權威指南

Java性能優(yōu)化權威指南

Java性能優(yōu)化權威指南

定 價:¥109.00

作 者: (美)Charlie Hunt,Binu John 著,柳飛,陸明剛 譯
出版社: 人民郵電出版社
叢編項:
標 簽: 編程語言與程序設計 計算機與互聯網

購買這本書可以去


ISBN: 9787115342973 出版時間: 2014-03-01 包裝: 平裝
開本: 16開 頁數: 540 字數:  

內容簡介

  《Java性能優(yōu)化權威指南》是Java應用性能調優(yōu)的圣經,內容通俗易懂,介紹了大量的監(jiān)控和測量工具,涉及各種硬件架構和操作系統。涵蓋了如何構建實驗、解釋結果以及如何采取行動等技巧。

作者簡介

  Charlie Hunt,現任Salesforce公司的性能工程架構師。曾任Oracle公司首席JVM性能工程師,負責HotSpot Java虛擬機和Java SE類庫性能的改進。Charlie擁有美國伊利諾伊理工大學的計算機科學碩士學位、愛荷華州立大學的計算機科學學士學位。Binu John,世界上最大的社交網站創(chuàng)建平臺Ning.com的高級性能工程師。他目前的職責是著力改善Ning平臺的性能和擴展性,以支持每月數百萬PV的訪問量。Binu擁有美國愛荷華大學生物醫(yī)學工程和計算機科學碩士學位。譯者簡介:柳飛,畢業(yè)于中國科學技術大學和復旦大學?,F為上海愛科生信息技術有限公司工程師,曾任OOCL ISD工程師。目前主要關注的領域為MySQL和分布式計算。十年碼農兩忙忙,不coding,自難忘。徒步及跑步業(yè)余湊熱鬧者,中度拖延癥患者。陸明剛,畢業(yè)于四川大學,近十年大型軟件研發(fā)測試經驗,現任易安信中國卓越中心資深軟件工程師,曾任趨勢科技中國軟件研發(fā)中心技術經理,關注JVM性能調優(yōu)和大數據,喜歡挖掘技術背后的內幕,并樂此不疲。

圖書目錄

第1章 策略、方法和方法論  
1.1  性能問題的現狀  
1.2  性能分析的兩種方法:自頂向下和自底向上  
1.2.1  自頂向下  
1.2.2  自底向上  
1.3  選擇正確的平臺并評估系統性能  
1.3.1  選擇正確的CPU架構  
1.3.2  評估系統性能  
1.4  參考資料  
第2章 操作系統性能監(jiān)控  
2.1  定義  
2.2  CPU使用率  
2.2.1  監(jiān)控CPU使用率:Windows  
2.2.2  監(jiān)控CPU使用率:Windows typeperf  
2.2.3  監(jiān)控CPU使用率:Linux  
2.2.4  監(jiān)控CPU使用率:Solaris  
2.2.5  命令行監(jiān)控CPU使用率:Linux和Solaris  
2.3  CPU調度程序運行隊列  
2.3.1  監(jiān)控CPU調度程序運行隊列:Windows  
2.3.2  監(jiān)控CPU調度程序運行隊列:Solaris  
2.3.3  監(jiān)控CPU調度程序運行隊列:Linux  
2.4  內存使用率  
2.4.1  監(jiān)控內存利用率:Windows  
2.4.2  監(jiān)控內存使用率:Solaris  
2.4.3  監(jiān)控內存使用率:Linux  
2.4.4  監(jiān)控鎖競爭:Solaris  
2.4.5  監(jiān)控鎖競爭:Linux  
2.4.6  監(jiān)控鎖競爭:Windows  
2.4.7  隔離競爭鎖  
2.4.8  監(jiān)控搶占式上下文切換  
2.4.9  監(jiān)控線程遷移  
2.5  網絡I/O使用率  
2.5.1  監(jiān)控網絡I/O使用率:Solaris  
2.5.2  監(jiān)控網絡I/O使用率:Linux  
2.5.3  監(jiān)控網絡I/O使用率:Windows  
2.5.4  應用性能改進的考慮  
2.6  磁盤I/O使用率  
2.7  其他命令行工具  
2.8  監(jiān)控CPU使用率:SPARC T系列系統  
2.9  參考資料  
第3章 JVM概覽  
3.1  HotSpot VM的基本架構  
3.2  HotSpot VM運行時  
3.2.1  命令行選項  
3.2.2  VM生命周期  
3.2.3  VM類加載  
3.2.4  字節(jié)碼驗證  
3.2.5  類數據共享  
3.2.6  解釋器  
3.2.7  異常處理  
3.2.8  同步  
3.2.9  線程管理  
3.2.10  C++堆管理  
3.2.11  Java本地接口  
3.2.12  VM致命錯誤處理  
3.3  HotSpot VM垃圾收集器  
3.3.1  分代垃圾收集  
3.3.2  新生代  
3.3.3  快速內存分配  
3.3.4  垃圾收集器  
3.3.5  Serial收集器  
3.3.6  Parallel收集器:吞吐量為先!  
3.3.7  Mostly-Concurrent收集器:低延遲為先!  
3.3.8  Garbage-First收集器:CMS替代者  
3.3.9  垃圾收集器比較  
3.3.10  應用程序對垃圾收集器的影響  
3.3.11  簡單回顧收集器歷史  
3.4  HotSpot VM JIT編譯器  
3.4.1  類型繼承關系分析  
3.4.2  編譯策略  
3.4.3  逆優(yōu)化  
3.4.4  Client JIT編譯器概覽  
3.4.5  Server JIT編譯器概覽  
3.4.6  靜態(tài)單賦值--程序依賴圖  
3.4.7  未來增強展望  
3.5  HotSpot VM自適應調優(yōu)  
3.5.1  Java 1.4.2的默認值  
3.5.2  Java 5自動優(yōu)化的默認值  
3.5.3  Java 6 Update 18更新后的默認優(yōu)化值  
3.5.4  自適應Java堆調整  
3.5.5  超越自動優(yōu)化  
3.6  參考資料  
第4章 JVM性能監(jiān)控  
4.1  定義  
4.2  垃圾收集  
4.2.1  重要的垃圾收集數據  
4.2.2  垃圾收集報告  
4.2.3  垃圾收集數據的離線分析  
4.2.4  圖形化工具  
4.3  JIT編譯器  
4.4  類加載  
4.5  Java應用監(jiān)控  
4.6  參考資料  
第5章 Java應用性能分析  
5.1  術語  
5.1.1  通用性能分析術語  
5.1.2  Oracle Solaris Studio Performance Analyzer術語  
5.1.3  NetBeans Profiler術語  
5.2  Oracle Solaris Studio Performance Analyzer  
5.2.1  支持平臺  
5.2.2  下載/安裝Oracle Solaris Studio Performance Analyzer  
5.2.3  使用Oracle Solaris Studio Performance Analyzer 抓取性能數據  
5.2.4  查看性能數據  
5.2.5  數據表示  
5.2.6  過濾性能數據  
5.2.7  命令行工具er_print  
5.3  NetBeans Profiler  
5.3.1  支持平臺  
5.3.2  下載安裝NetBeans Profiler  
5.3.3  開始方法分析會話  
5.3.4  Controls子面板  
5.3.5  Status子面板  
5.3.6  Profiling Results子面板  
5.3.7  Saved Snapshots子面板  
5.3.8  View子面板  
5.3.9  Basic Telemetry子面板  
5.3.10  查看動態(tài)結果  
5.3.11  對結果進行快照  
5.3.12  啟動內存分析會話  
5.3.13  查看實時結果  
5.3.14  對結果進行快照  
5.3.15  定位內存泄漏  
5.3.16  分析堆轉儲  
5.4  參考資料  
第6章 Java應用性能分析技巧  
6.1  性能優(yōu)化機會  
6.2  系統或內核態(tài)CPU使用  
6.3  鎖競爭  
6.4  Volatile的使用  
6.5  調整數據結構的大小  
6.5.1  StringBuilder或StringBuffer大小的調整  
6.5.2  Java Collection類大小調整  
6.6  增加并行性  
6.7  過高的CPU使用率  
6.8  其他有用的分析提示  
6.9  參考資料  
第7章 JVM性能調優(yōu)入門  
7.1  方法  
7.1.1  假設條件  
7.1.2  測試基礎設施需求  
7.2  應用程序的系統需求  
7.2.1  可用性  
7.2.2  可管理性  
7.2.3  吞吐量  
7.2.4  延遲及響應性  
7.2.5  內存占用  
7.2.6  啟動時間  
7.3  對系統需求分級  
7.4  選擇JVM部署模式  
7.4.1  單JVM部署模式  
7.4.2  多JVM部署模式  
7.4.3  通用建議  
7.5  選擇JVM運行模式  
7.5.1  Client模式或Server模式  
7.5.2  32位/64位 JVM  
7.5.3  垃圾收集器  
7.6  垃圾收集調優(yōu)基礎  
7.6.1  性能屬性  
7.6.2  原則  
7.6.3  命令行選項及GC日志  
7.7  確定內存占用  
7.7.1  約束  
7.7.2  HotSpot VM堆的布局  
7.7.3  堆大小調優(yōu)著眼點  
7.7.4  計算活躍數據大小  
7.7.5  初始堆空間大小配置  
7.7.6  其他考量因素  
7.8  調優(yōu)延遲/響應性  
7.8.1  輸入  
7.8.2  優(yōu)化新生代的大小  
7.8.3  優(yōu)化老年代的大小  
7.8.4  為CMS調優(yōu)延遲  
7.8.5  Survivor空間介紹  
7.8.6  解析晉升閾值  
7.8.7  監(jiān)控晉升閾值  
7.8.8  調整Survivor空間的容量  
7.8.9  顯式的垃圾收集  
7.8.10  并發(fā)永久代垃圾收集  
7.8.11  調優(yōu)CMS停頓時間  
7.8.12  下一步  
7.9  應用程序吞吐量調優(yōu)  
7.9.1  CMS吞吐量調優(yōu)  
7.9.2  Throughput收集器調優(yōu)  
7.9.3  Survivor空間調優(yōu)  
7.9.4  調優(yōu)并行垃圾收集線程  
7.9.5  在NUMA系統上部署  
7.9.6  下一步  
7.10  極端示例  
7.11  其他性能命令行選項  
7.11.1  實驗性(最近最大)優(yōu)化  
7.11.2  逃逸分析  
7.11.3  偏向鎖  
7.11.4  大頁面支持  
7.12  參考資料  
第8章 Java應用的基準測試  
8.1  基準測試所面臨的挑戰(zhàn)  
8.1.1  基準測試的預熱階段  
8.1.2  垃圾收集  
8.1.3  使用Java Time接口  
8.1.4  剔除無效代碼  
8.1.5  內聯  
8.1.6  逆優(yōu)化  
8.1.7  創(chuàng)建微基準測試的注意事項  
8.2  實驗設計  
8.3  使用統計方法  
8.3.1  計算均值  
8.3.2  計算標準差  
8.3.3  計算置信區(qū)間  
8.3.4  使用假設測試  
8.3.5  使用統計方法的注意事項  
8.4  參考文獻  
8.5  參考資料  
第9章 多層應用的基準測試  
9.1  基準測試難題  
9.2  企業(yè)級應用基準測試的考量  
9.2.1  定義被測系統  
9.2.2  制定微基準測試  
9.2.3  定義用戶交互模型  
9.2.4  定義性能指標  
9.2.5  擴展基準測試  
9.2.6  用利特爾法則驗證  
9.2.7  思考時間  
9.2.8  擴展性分析  
9.2.9  運行基準測試  
9.3  應用服務器監(jiān)控  
9.3.1  GlassFish監(jiān)控  
9.3.2  監(jiān)控子系統  
9.3.3  Solaris  
9.3.4  Linux  
9.3.5  Windows  
9.3.6  外部系統的性能  
9.3.7  磁盤I/O  
9.3.8  監(jiān)控和調優(yōu)資源池  
9.4  企業(yè)級應用性能分析  
9.5  參考資料  
第10章 Web應用的性能調優(yōu)  
10.1  Web應用的基準測試  
10.2  Web容器的組件  
10.2.1  HTTP連接器  
10.2.2  Servlet引擎  
10.3  Web容器的監(jiān)控和性能調優(yōu)  
10.3.1  容器的開發(fā)和生產模式  
10.3.2  安全管理器  
10.3.3  JVM調優(yōu)  
10.3.4  HTTP服務和Web容器  
10.3.5  HTTP監(jiān)聽器  
10.4  最佳實踐  
10.4.1  Servlet和JSP最佳實踐  
10.4.2  內容緩存  
10.4.3  會話持久化  
10.4.4  HTTP服務器文件緩存  
10.5  參考資料  
第11章 Web Service的性能  
11.1  XML的性能  
11.1.1  XML處理的生命周期  
11.1.2  解析/解編組  
11.1.3  訪問  
11.1.4  修改  
11.1.5  序列化/編組  
11.2  驗證  
11.3  解析外部實體  
11.4  XML文檔的局部處理  
11.5  選擇合適的API  
11.6  JAX-WS參考實現?! ?br />11.7  Web Service基準測試  
11.8  影響Web Service性能的因素  
11.8.1  消息大小的影響  
11.8.2  不同Schema類型的性能特征  
11.8.3  終端服務器的實現  
11.8.4  處理程序的性能  
11.9  最佳性能實踐  
11.9.1  二進制負載的處理  
11.9.2  處理XML文檔  
11.9.3  使用MTOM發(fā)送XML文檔  
11.9.4  使用Provider接口  
11.9.5  快速信息集  
11.9.6  HTTP壓縮  
11.9.7  Web Service客戶端的性能  
11.10  參考資料  
第12章 Java持久化及Enterprise Java Bean的性能  
12.1  EJB編程模型  
12.2  Java持久化API及其參考實現  
12.3  監(jiān)控及調優(yōu)EJB容器  
12.3.1  線程池  
12.3.2  Bean池和緩存  
12.3.3  EclipseLink會話緩存  
12.4  事務隔離級  
12.5  Enterprise Java Bean的最佳實踐  
12.5.1  簡要說明使用的EJB基準測試  
12.5.2  EJB 2.1  
12.5.3  EJB 3.0  
12.6  Java持久化最佳實踐  
12.6.1  JPA查詢語言中的查詢  
12.6.2  查詢結果緩存  
12.6.3  FetchType  
12.6.4  連接池  
12.6.5  批量更新  
12.6.6  選擇正確的數據庫鎖策略  
12.6.7  不帶事務的讀取  
12.6.8  繼承  
12.7  參考資料  
附錄A  重要的HotSpot VM選項  
附錄B  性能分析技巧示例源代碼  
B.1  鎖競爭實現1  
B.2  鎖競爭實現2  
B.3  鎖競爭實現3  
B.4  鎖競爭實現4  
B.5  鎖競爭實現5  
B.6  調整容量變化1  
B.7  調整容量變化2  
B.8  增加并發(fā)性的單線程實現  
B.9  增加并發(fā)性的多線程實現

本目錄推薦

掃描二維碼
Copyright ? 讀書網 www.talentonion.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網安備 42010302001612號