1.1 软件性能概述
1.2 性能测试相关术语
1.2.1 响应时间
1.2.2 并发用户数
1.2.3 吞吐量
1.2.4 吞吐率
1.2.5 TPS
1.2.6 点击率
1.2.7 资源利用率
1.2.8 性能计数器
1.2.9 思考时间
1.3 性能测试划分
1.3.1 负载测试
1.3.2 压力测试
1.3.3 配置测试
1.3.4 并发测试
1.3.5 可靠性测试
1.3.6 基准测试
1.3.7 各类测试执行阶段
1.4 性能测试应用领域
1.4.1 能力验证
1.4.2 规划能力
1.4.3 性能调优
1.4.4 缺陷发现
1.5 小结
2.1 LoadRunner简介
2.2 LoadRunner工作原理
2.3 LoadRunner工作过程
2.4 LoadRunner内部结构
2.5 LoadRunner 11.0特性
2.6 LoadRunner性能测试步骤 21
2.7 小结
3.1 脚本录制
3.1.1 如何选择协议
3.1.2 开始录制脚本
3.2 Recording Options设置
3.2.1 Recording选项卡
3.2.2 Advanced选项卡
3.2.3 Correlation选项卡
3.3 Run-Time Settings设置
3.3.1 Run Logic选项卡
3.3.2 Pacing选项卡
3.3.3 Think Time选项卡
3.3.4 Miscellaneous选项卡
3.3.5 Log选项卡
3.4 脚本完善
3.4.1 插入事务
3.4.2 插入集合点 57
3.4.3 插入注释 57
3.5 小结 58
4.1 场景类型介绍
4.1.1 手动测试场景
4.1.2 面向目标测试场景
4.2 场景设计
4.2.1 手动场景Schedule配置
4.2.2 面向目标场景Schedule配置
4.2.3 配置View Script
4.2.4 配置Load Generator
4.3 场景执行
4.3.1 场景控制
4.3.2 场景执行期间查看场景
4.4 场景监视
4.4.1 关于联机监控
4.4.2 监控器与度量
4.4.3 联机监视器
4.5 小结
5.1 Analysis简介
5.1.1 Analysis基础知识
5.1.2 设置选项
5.1.3 Analysis图
5.2 摘要报告
5.2.1 概要部分
5.2.2 统计部分
5.2.3 事务统计部分
5.2.4 SLA
5.2.5 HTTP响应统计
5.3 Analysis常见图分析
5.3.1 Vuser图
5.3.2 点击率图
5.3.3 平均事务响应时间图
5.3.4 吞吐量图
5.4 Analysis报告
5.4.1 HTML报告
5.4.2 SLA报告
5.4.3 自定义报告
5.4.4 使用报告模板定义报告
5.5 小结
6.1 检查点
6.1.1 插入检查点的原因
6.1.2 插入检查点
6.1.3 检查点函数
6.1.4 通过检查点判断事务结束状态
6.2 Block(块)技术
6.3 参数化技术
6.3.1 参数化的原因及条件
6.3.2 创建参数
6.3.3 参数类型属性
6.3.4 数据文件
6.3.5 导入数据
6.4 关联技术
6.4.1 关联的原理
6.4.2 录制中关联
6.4.3 录制后关联
6.4.4 手动关联
6.4.5 关联函数介绍
6.4.6 关联技术的经典使用
6.4.7 关联与参数化的区别
6.5 小结
7.1 集合点
7.1.1 集合点设置
7.1.2 集合点与事务的关系
7.2 IP欺骗技术
7.2.1 IP Spoofer设置
7.2.2 Controller中启动IP Spoofer
7.3 负载均衡技术
7.4 RTS设置
7.5 执行路径转换
7.5.1 路径转换介绍
7.5.2 编辑路径转换表
7.6 在LoadRunner中使用功能测试脚本
7.6.1 QuickTest创建GUI Vuser脚本
7.6.2 WinRunner创建GUI Vuser脚本
7.6.3 场景中使用GUI Vuser脚本
7.7 小结
8.1 分析图合并
8.1.1 分析图合并原理
8.1.2 实例讲解
8.2 分析图关联
8.2.1 分析图关联原理
8.2.2 实例讲解
8.3 页面细分
8.3.1 页面细分原理
8.3.2 实例讲解
8.4 钻取技术
8.4.1 钻取技术原理
8.4.2 实例讲解
8.5 导入外部数据
8.5.1 导入数据工具
8.5.2 自定义文件格式
8.6 使用HTTPWatch分析响应时间
8.6.1 HTTP消息格式
8.6.2 Request Grid
8.6.3 Request View
8.6.4 Summary View
8.6.5 其他功能
8.7 小结
9.1 Windows操作系统监控
9.1.1 LoadRunner直接监控
9.1.2 Windows性能工具监控
9.1.3 Windows计数器
9.2 Linux/UNIX操作系统监控
9.2.1 CPU监控
9.2.2 内存监控
9.2.3 磁盘监控
9.2.4 网络监控
9.3 nmon系统资源监控工具
9.3.1 nmon工作流程
9.3.2 nmon命令
9.3.3 结果分析
9.4 小结
10.1 Apache监控
10.2 Apache调优
10.2.1 硬件与操作系统方面
10.2.2 运行时的配置
10.2.3 编译时的配置
10.3 Tomcat监控
10.3.1 Status页监控
10.3.2 JConsole监控
10.4 Tomcat调优
10.4.1 JVM调优
10.4.2 Tomcat配置
10.4.3 连接器配置
10.4.4 APR配置
10.5 小结
11.1 监控SQL Server资源
11.1.1 瓶颈类型
11.1.2 内存瓶颈
11.1.3 CPU瓶颈
11.1.4 磁盘瓶颈
11.1.5 Wait Statistics监控
11.2 SQL Server等待类型
11.2.1 SQL等待类型
11.2.2 跟踪等待
11.2.3 阻塞与锁
11.3 SQL Profiler监控查询
11.3.1 SQL Trace相关术语
11.3.2 SQL Trace选项
11.3.3 捕获阻塞事件
11.3.4 捕获Showplan XML数据
11.3.5 捕获死锁图
11.3.6 SQL Profiler识别长时间查询
11.3.7 Profile Trace与System Monitor关联
11.4 索引调优
11.4.1 索引原理
11.4.2 填充因子
11.4.3 聚集索引
11.4.4 非聚集索引
11.4.5 堆表
11.4.6 用DTA调校索引
11.4.7 索引维护
11.5 T-SQL调优
11.5.1 NOT IN和NOT EXISTS
11.5.2 谓词的使用
11.5.3 为中间结果使用临时表
11.6 小结
12.1 Windows Sockets(WinSock)协议
12.1.1 Windows Sockets录制选项设置
12.1.2 Windows Sockets录制
12.1.3 Windows Sockets数据操作
12.1.4 关于LRS函数
12.2 邮件服务协议
12.2.1 邮件服务协议简介
12.2.2 邮件服务协议录制
12.2.3 脚本分析
12.2.4 关于SMTP和POP3函数
12.3 小结
13.1 性能测试过程概述
13.2 性能测试设计
13.2.1 需求调研
13.2.2 业务模型
13.2.3 场景模型
13.2.4 数据设计
13.2.5 环境设计
13.3 性能测试构建
13.3.1 脚本开发
13.3.2 场景设计
13.3.3 搭建测试环境
13.3.4 准备数据
13.4 性能测试过程执行
13.5 性能测试分析、诊断、调节
13.6 小结
14.1 系统介绍
14.2 需求分析
14.2.1 性能指标
14.2.2 需求详细分析
14.3 测试方案及计划
14.3.1 人力资源
14.3.2 时间进度
14.3.3 测试环境准备
14.3.4 业务模型创建
14.3.5 场景模型创建
14.3.6 测试数据准备
14.4 测试用例
14.5 执行测试
14.5.1 脚本开发
14.5.2 场景设计
14.5.3 计数器设置
14.5.4 场景监视
14.6 结果分析
14.7 测试结论
14.8 小结
15.1 系统介绍
15.2 需求分析
15.2.1 性能指标
15.2.2 需求详细分析
15.3 测试方案及计划
15.3.1 人力资源
15.3.2 时间进度
15.3.3 测试环境准备
15.3.4 业务模型创建
15.3.5 场景模型创建
15.3.6 测试数据准备
15.4 测试用例
15.5 执行测试
15.5.1 脚本开发
15.5.2 场景设计
15.5.3 计数器设置
15.5.4 场景监控
15.6 结果分析
15.7 测试结论
15.8 小结
附录A 主要计数器
附录B 性能测试i模型