性能测试知识框架
2020-10-10 11:38:50 0 举报
AI智能生成
性能测试理论框架
作者其他创作
大纲/内容
测试模型/流程
性能测试过程模型(PTGM)
测试前期准备阶段
系统基础功能测试完毕
组建测试团队
测试经理
测试设计角色
测试开发角色
测试执行角色
测试分析角色
支持角色
系统支持
网络支持
数据库支持
确认测试工具需求
操作系统环境
应用服务器环境
数据库环境
应用使用的协议
网络环境
测试管理支持
测试工具引入阶段
测试工具原理
性能测试工具分类
服务端
前端
Web前端(主要)
Firebug
YSlow
Loadrunner
选择测试工具
依据测试工具需求来选择
测试工具的应用范围
测试计划阶段
测试目的分析(领域)
能力验证
测试目标
子主题
考察指标
测试方法
验收性能测试
规划能力
性能调优
发现缺陷
建模
用户活动剖析
已使用的系统
系统日志分析
未交付的系统
用户调查分析
业务建模
依据用户活动剖析的结果建立模拟业务操作的行为流程及实现这种流程的方式和方法的模型
确定性能测试的目标
根据性能测试需求文档
测试设计与开发
测试环境设计
设计因子
硬件环境
软件环境
数据环境
环境的维护
设计原则
依据测试目的(领域)进行设计
测试场景设计
设计依据
常用测试场景
用户登陆场景
登陆业务
测试指标
响应时间
性能计数器
性能指标
标准日常工作场景
场景中的业务
业务1
业务2
业务3
业务n
对应场景中的每个业务的响应时间
用户退出登陆场景
测试用例设计
设计出的测试场景进行细化
测试执行与管理
搭建测试环境
软件系统环境
应用系统
系统设置参数的调整
时间同步
创建测试脚本
依靠性能测试工具实现
部署测试场景
执行测试和记录测试结果
依靠性能测试工具完成
维护测试环境
策略
使用检查列表(Checklist)
检查内容及维护方法
测试结果分析
依据
性能测试工具产生的报表
方法
拐点分析
敏捷性能测试模型(APTM)
性能测试
测试原理
系统本身/服务器/被测系统三者之间的相互作用力
测试对象
系统本身
Windows
Linux
软件系统
Web前端
服务器
B/S架构(Browser/Server)
C/S架构(Client/Server)
吞吐量
B/S架构
请求数/秒
页面数/秒
字节数/秒
C/S架构
人数/天
业务数/天
资源利用率
被测对象
指标
CPU
MEM(内存)
硬盘空间
网络带宽
其他资源
测试工具
Windows系统
Windows性能计数器
Cmd输入perfmon打开
Linux系统
Linux性能计数器
Linux进入图形界面打开
Linux命令查看
参考Linux手册
并发用户数/在线用户数
并发用户数
定义
用户在干同一事情
制造并发
设置集合点
在线用户数
所有在线的用户数
思考时间
测试类型/方法
负载测试
服务器???
测试目的
测试步骤
搭建一个测试环境
在固定的软件/硬件/网络环境下
开始测试
检测测试环境运行一个或多个任务不断加压(模拟并发用户)性能指标超过阈值确定可以负载的最大并发用户数
压力测试
考察服务器资源在高负载状态下的稳定运行能力
配置测试
搭建多个测试环境
不同的软件/硬件/网络环境下
进入测试环境A运行一个或多个任务进行同等数量虚拟用户的负载测试进入测试环境B......分析不同测试环境下的性能指标确定最佳系统配置参数
并发测试
找到系统处理能力的极限/最大性能容量
检测测试环境运行一个任务不断加压(模拟并发用户)观察性能指标
容量测试
找到数据库的最大容量
运行一个任务或多个任务模拟固定的并发用户数向数据库构造不同数量级别的数据记录观察性能指标的变化确定最大的数据库量级
基准测试
更新的版本系统
各项性能指标的值不低于基准的95%
可靠性测试
失败恢复测试
性能问题
内存
内存溢出
内存泄漏
数据库问题
数据库死锁Dead Lock
经常出现长事务 Long Transation
线程/进程问题
线程与进程同步失败
其他问题
资源竞争导致死锁
处理异常导致系统死锁
0 条评论
下一页