51Testing软件测试论坛

 找回密码
 (注-册)加入51Testing

QQ登录

只需一步,快速开始

微信登录,快人一步

查看: 2369|回复: 0
打印 上一主题 下一主题

[转贴] 微服务架构环境下,运维如何应对各种挑战?(二)

[复制链接]
  • TA的每日心情
    奋斗
    2018-11-26 09:42
  • 签到天数: 11 天

    连续签到: 1 天

    [LV.3]测试连长

    跳转到指定楼层
    1#
    发表于 2018-9-30 15:18:01 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
    . 性能测试实施策略
    1 关键度量指标

    • 制定测试目标,要求测试指标结果达到用户预期目标。
    • 指标数据一般包括并发用户数、Response TimeTPS、通过率等。
    • 系统的吞吐量要和响应时间关联(SLA),如至少90%以上的请求在正常合理响应时间内。






    2 全链路调优测试策略
    性能是一个逐步提升的过程,测试过程中需要找到扩容的模型,从不足50TPS提升至万级






    3 测试报告分析解读
    如何从测试工具侧快速分析被测对象可能存在的问题
    ·   存在部分响应超时:
    a) 服务器繁忙,如某个服务节点CPU利用率高
    b) 网络IO超过VM/EIP带宽
    c)  等待后端微服务、数据库的超时时间设置过长
    ·    运行一段时间后全部响应超时或者检查点校验不通过:
    a) 大压力导致系统中某个微服务奔溃
    b) 后端数据库无响应
    ·   TPS未随着并发数增长而上升:
    a) 系统性能到达瓶颈,持续并发加压过程中响应时延增加(可观察响应区间统计)
    b) 可通过进一步加压是否会出现非正常响应验证
    ·    TP90响应时延较短,TP99时延高:
    a) 系统性能接近瓶颈
    b) 可通过进一步加压是否会出现非正常响应验证

    4 一些常见的性能优化手段

    • 扩容,链路中的某一应用可能出现cpu使用率较高或者连接池资源不够用(rpcjdbcredis连接池等)但本身对于拿到连接的请求处理又很快,这一类需要横向扩展资源。
    • 应用逻辑优化,比如存在慢sql 逻辑的不合理如调用db或者redis次数过多、没有做读写分离造成写库压力过大。
    • 超时时间的合理设置,对于应用之间的rpc调用或者应用与其他基础组件之间的调用,均需要设置合理的超时时间,否则过长的等待将造成整个链路的故障。
    • 缓存的应用,请求尽可能从前端返回,而不是每一个都要让后端应用处理后再返回,减轻后端应用及数据库压力,提高系统吞吐能力。
    • 限流,对于超出承载能力的QPS或并发,可以进行拦截并直接返回提示页面。
    • 降级,对于非核心链路上的应用,允许故障关闭而不影响核心链路
    • 扩容和优化也是有限度的,在评估容量内,保障核心交易链路正常是重中之重,对于非核心功能模块考虑降级场景


    5 面对复杂网络架构如何做性能测试
    一个典型的互联网平台:突发事件高流量突发,如瞬间由百级用户增长到万级



    对于网络架构复杂的应用,可以拆分压力的入口点,进行分段验证,屏蔽对应网元带来的性能影响,如分别从最外端的CDN入口(1)、中间的ELB(2)、业务层(3)分别做测试,验证复杂网络架构情况下,各网元的瓶颈和影响

    6 应用内部的性能瓶颈如何提升定位效率?

    ·  资源、应用、业务一站式监控与分析

    立体运维全景图



    ·   应用拓扑与异常展示、故障下钻

    • 应用发现与依赖关系:非侵入采集应用KPI数据,并通过服务间接口自动生成依赖关系,展现应用拓扑。
    • 应用KPI汇聚:微服务实例汇聚到应用(数字表示XX个实例),KPI数据自动汇聚到应用。
    • 调用链跟踪:下钻获取应用调用链,定位到具体出错方法





    分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
    收藏收藏
    回复

    使用道具 举报

    本版积分规则

    关闭

    站长推荐上一条 /1 下一条

    小黑屋|手机版|Archiver|51Testing软件测试网 ( 沪ICP备05003035号 关于我们

    GMT+8, 2024-5-9 06:51 , Processed in 0.064463 second(s), 23 queries .

    Powered by Discuz! X3.2

    © 2001-2024 Comsenz Inc.

    快速回复 返回顶部 返回列表