51Testing软件测试论坛

 找回密码
 (注-册)加入51Testing

QQ登录

只需一步,快速开始

微信登录,快人一步

手机号码,快捷登录

查看: 2653|回复: 0
打印 上一主题 下一主题

DevOps架构下微服务性能测试实践

[复制链接]
  • TA的每日心情
    奋斗
    2018-11-26 09:42
  • 签到天数: 11 天

    连续签到: 1 天

    [LV.3]测试连长

    跳转到指定楼层
    1#
    发表于 2018-11-9 11:18:28 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

    微服务架构下的性能测试挑战

    微服务是实现DevOps的重要架构

    1.微服务3S原则
    2.DevOps核心点


    • 亿级用户的平台
    • 单服务业务随时扩容
    • 服务之间存在相互调用关系

    • 版本更新快,上线周期短






    单服务流量激增时扩容
    调用链条变长,调用关系更加复杂
    微服务拆分导致故障点增多

    ▼ ▼ ▼

    单服务变更性能影响如何评估?
    性能瓶颈在各微服务间漂移,如何做好性能测试?
    应对突发流量需求,扩容能否解决问题,如何扩容?
    服务实例数量众多,如何收集信息,快速定位性能问题?


    微服务性能保障解决方案设计






    • 关键设计1:模块化管理,事务灵活组合与复用




    • 关键设计2:应用与资源一体化编排




    性能测试实施策略

    • 单服务接口测试(契约)
      验证单服务的各个接口能力基线以及组合接口的能力基线,服务间遵循契约化原则,大部分问题屏蔽在集成之前
    • 全链路测试(SLA)
      验证整个系统之上全链路场景以及多链路组合场景的性能,优化链路中性能不足的服务
    • 伸缩能力验证(面向现网运维)
      验证单服务的水平扩容能力,验证既定模型下的多链路组合场景的资源模型




    在微服务架构下,自动化仍然是提升效率,看护质量的重要手段,每个微服务独立快速迭代上线,更加要求微服务的性能不劣化








    • 存在部分响应超时:

      a)       服务器繁忙,如某个服务节点CPU利用率高
      b)      网络IO超过VM/EIP带宽
      c)       等待后端微服务、数据库的超时时间设置过长

    • TPS未随着并发数增长而上升:

      a)       系统性能到达瓶颈,持续并发加压过程中响应时延增加(可观察响应区间统计)
      b)      可通过进一步加压是否会出现非正常响应验证


    • 运行一段时间后全部响应超时或者检查点校验不通过:

      a)       大压力导致系统中某个微服务奔溃
      b)      后端数据库无响应

    • TP90响应时延较短,TP99时延高:

      a)       系统性能接近瓶颈
      b)      可通过进一步加压是否会出现非正常响应验证


    • 扩容:链路中的某一应用可能出现cpu使用率较高或者连接池资源不够用(rpc、jdbc、redis连接池等)但本身对于拿到连接的请求处理又很快,这一类需要横向扩展资源。
    • 应用逻辑优化:比如存在慢sql、 逻辑的不合理如调用db或者redis次数过多、没有做读写分离造成写库压力过大。
    • 超时时间的合理设置:对于应用之间的rpc调用或者应用与其他基础组件之间的调用,均需要设置合理的超时时间,否则过长的等待将造成整个链路的故障。
    • 缓存的应用:请求尽可能从前端返回,而不是每一个都要让后端应用处理后再返回,减轻后端应用及数据库压力,提高系统吞吐能力。
    • 限流:对于超出承载能力的QPS或并发,可以进行拦截并直接返回提示页面。
    • 降级:对于非核心链路上的应用,允许故障关闭而不影响核心链路。


    分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
    收藏收藏1
    回复

    使用道具 举报

    本版积分规则

    关闭

    站长推荐上一条 /1 下一条

    小黑屋|手机版|Archiver|51Testing软件测试网 ( 沪ICP备05003035号 关于我们

    GMT+8, 2024-11-22 03:11 , Processed in 0.072274 second(s), 23 queries .

    Powered by Discuz! X3.2

    © 2001-2024 Comsenz Inc.

    快速回复 返回顶部 返回列表