51Testing软件测试论坛

 找回密码
 (注-册)加入51Testing

QQ登录

只需一步,快速开始

微信登录,快人一步

手机号码,快捷登录

查看: 14362|回复: 2
打印 上一主题 下一主题

[讨论] 在IOSTAT命令进行磁盘的iops查看,看到有几个磁盘分区,如下图:

[复制链接]

该用户从未签到

跳转到指定楼层
1#
发表于 2012-7-14 11:13:02 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
在IOSTAT命令进行磁盘的iops查看,看到有几个磁盘分区,如下图:

接着通过命令查看到只有一个sda硬盘和有sda1和sda2两个磁盘分区


就是不明白 iostat命令中显示的dm-0和dm-1是什么?

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?(注-册)加入51Testing

x
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏
回复

使用道具 举报

该用户从未签到

2#
发表于 2012-7-14 12:07:44 | 只看该作者
分区是逻辑的不会影响任何事情,只有物理设备才会有变化
个人猜测dm-0是你的光驱。。dm-1是你的硬盘,这个东西是设备编号

iostat 结果解析

[root@20081006-1724 ~]# iostat -x
Linux 2.6.9-78.ELsmp (20081006-1724)    11/20/2009
avg-cpu:  %user   %nice    %sys %iowait   %idle
           0.19    0.00    0.04    0.03   99.73
Device:    rrqm/s wrqm/s   r/s   w/s  rsec/s  wsec/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await  svctm  %util
sda          0.05  17.60  1.46  7.72   80.69  202.57    40.34   101.29    30.87     0.01    1.06   0.37   0.34
sda1         0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00    29.90     0.00    3.14   3.14   0.00
sda2         0.00   0.00  0.00  0.00    0.00    0.00     0.00     0.00    16.25     0.00    1.51   1.30   0.00
sda3         0.05  17.60  1.46  7.72   80.69  202.57    40.34   101.29    30.87     0.01    1.06   0.37   0.34
dm-0         0.00   0.00  1.46 25.28   80.32  202.26    40.16   101.13    10.57     0.36   13.56   0.13   0.34
dm-1         0.00   0.00  0.05  0.04    0.37    0.32     0.18     0.16     8.00     0.00    6.84   1.30   0.01

rrqm/s: 每秒进行 merge 的读操作数目。即 delta(rmerge)/s
wrqm/s: 每秒进行 merge 的写操作数目。即 delta(wmerge)/s
r/s: 每秒完成的读 I/O 设备次数。即 delta(rio)/s
w/s: 每秒完成的写 I/O 设备次数。即 delta(wio)/s
rsec/s: 每秒读扇区数。即 delta(rsect)/s
wsec/s: 每秒写扇区数。即 delta(wsect)/s
rkB/s: 每秒读K字节数。是 rsect/s 的一半,因为每扇区大小为512字节。
wkB/s: 每秒写K字节数。是 wsect/s 的一半。
avgrq-sz: 平均每次设备I/O操作的数据大小 (扇区)。即 delta(rsect+wsect)/delta(rio+wio)
avgqu-sz: 平均I/O队列长度。即 delta(aveq)/s/1000 (因为aveq的单位为毫秒)。
await: 平均每次设备I/O操作的等待时间 (毫秒)。即 delta(ruse+wuse)/delta(rio+wio)
svctm: 平均每次设备I/O操作的服务时间 (毫秒)。即 delta(use)/delta(rio+wio)
%util: 一秒中有百分之多少的时间用于 I/O 操作,或者说一秒中有多少时间 I/O 队列是非空的。
即 delta(use)/s/1000 (因为use的单位为毫秒)

如果 %util 接近 100%,说明产生的I/O请求太多,I/O系统已经满负荷,该磁盘
可能存在瓶颈。

比较重要的参数
%util:      一秒中有百分之多少的时间用于 I/O 操作,或者说一秒中有多少时间 I/O 队列是非空的
svctm:   平均每次设备I/O操作的服务时间
await:    平均每次设备I/O操作的等待时间
avgqu-sz: 平均I/O队列长度

如果%util接近100%,表明i/o请求太多,i/o系统已经满负荷,磁盘可能存在瓶颈,一般%util大于70%,i/o压力就比较大,读取速度有较多的wait.同时可以结合vmstat查看查看b参数(等待资源的进程数)和wa参数(IO等待所占用的CPU时间的百分比,高过30%时IO压力高)。
await 的大小一般取决于服务时间(svctm) 以及 I/O 队列的长度和 I/O 请求的发出模式。如果 svctm 比较接近 await,说明 I/O 几乎没有等待时间;如果 await 远大于 svctm,说明 I/O 队列太长,应用得到的响应时间变慢。

形象的比喻
r/s+w/s 类似于交款人的总数
平均队列长度(avgqu-sz)类似于单位时间里平均排队人的个数
平均服务时间(svctm)类似于收银员的收款速度
平均等待时间(await)类似于平均每人的等待时间
平均I/O数据(avgrq-sz)类似于平均每人所买的东西多少
I/O 操作率 (%util)类似于收款台前有人排队的时间比例

设备IO操作:总IO(io)/s = r/s(读) +w/s(写) =1.46 + 25.28=26.74
平均每次设备I/O操作只需要0.36毫秒完成,现在却需要10.57毫秒完成,因为发出的请求太多(每秒26.74个),假如请求时同时发出的,可以这样计算平均等待时间:
平均等待时间=单个I/O服务器时间*(1+2+...+请求总数-1)/请求总数
每秒发出的I/0请求很多,但是平均队列就4,表示这些请求比较均匀,大部分处理还是比较及时



svctm 一般要小于 await (因为同时等待的请求的等待时间被重复计算了),
svctm 的大小一般和磁盘性能有关,CPU/内存的负荷也会对其有影响,请求过多
也会间接导致 svctm 的增加。await 的大小一般取决于服务时间(svctm) 以及
I/O 队列的长度和 I/O 请求的发出模式。如果 svctm 比较接近 await,说明
I/O 几乎没有等待时间;如果 await 远大于 svctm,说明 I/O 队列太长,应用
得到的响应时间变慢,如果响应时间超过了用户可以容许的范围,这时可以考虑
更换更快的磁盘,调整内核 elevator 算法,优化应用,或者升级 CPU。

队列长度(avgqu-sz)也可作为衡量系统 I/O 负荷的指标,但由于 avgqu-sz 是
按照单位时间的平均值,所以不能反映瞬间的 I/O 洪水。

使用iostat查看磁盘io状态时,Device列显示了多个dm-xxx,但是不知道具体的设备路径。
   
    [root@server2 ~]# iostat 1
   
    avg-cpu: %user %nice %system %iowait %steal %idle
   
    0.00 0.00 0.00 0.00 0.00 100.00
   
    Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn
   
    sda 0.00 0.00 0.00 0 0
   
    sda1 0.00 0.00 0.00 0 0
   
    sda2 0.00 0.00 0.00 0 0
   
    sdb 0.00 0.00 0.00 0 0
   
    sdb1 0.00 0.00 0.00 0 0
   
    sdc 0.00 0.00 0.00 0 0
   
    hdc 0.00 0.00 0.00 0 0
   
    dm-0 0.00 0.00 0.00 0 0
   
    dm-1 0.00 0.00 0.00 0 0
   
    dm-2 0.00 0.00 0.00 0 0
   
    使用sar命令查看详细的dm-xxx信息
   
    [root@server2 ~]# sar -d 1
   
    Linux 2.6.18-274.el5 (server2.lanv.com) 07/06/2012
   
    01:00:26 PM DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util
   
    01:00:27 PM dev8-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
   
    01:00:27 PM dev8-1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
   
    01:00:27 PM dev8-2 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
   
    01:00:27 PM dev8-16 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
   
    01:00:27 PM dev8-17 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
   
    01:00:27 PM dev8-32 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
   
    01:00:27 PM dev22-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
   
    01:00:27 PM dev253-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
   
    01:00:27 PM dev253-1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
   
    01:00:27 PM dev253-2 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
   
    可以知道dm-0、dm-1、dm-2的主设备号是253(是linux内核留给本地使用的设备号),次设备号分别是0、1、2,这类设备在/dev/mapper中
   
    [root@server2 mapper]# cd /dev/mapper/
   
    [root@server2 mapper]# ll
   
    total 0
   
    crw------- 1 root root 10, 63 Jul 6 11:14 control
   
    brw-rw---- 1 root disk 253, 0 Jul 6 11:25 vg01-lanv1
   
    brw-rw---- 1 root disk 253, 1 Jul 6 11:26 vg01-lanv2
   
    brw-rw---- 1 root disk 253, 2 Jul 6 11:26 vg01-lanv3
   
    以上信息也可以使用dmsetup命令查看
   
    [root@server2 mapper]# dmsetup ls
   
    vg01-lanv3 (253, 2)
   
    vg01-lanv2 (253, 1)
   
    vg01-lanv1 (253, 0)
   
    看到dm-0、dm-1、dm-2的详细设备名后,知道这三个设备是属于vg01逻辑卷组的lvm设备。
   
    [root@server2 mapper]# cd /dev/vg01/
   
    [root@server2 vg01]# ll
   
    total 0
   
    lrwxrwxrwx 1 root root 22 Jul 6 11:25 lanv1 -> /dev/mapper/vg01-lanv1
   
    lrwxrwxrwx 1 root root 22 Jul 6 11:26 lanv2 -> /dev/mapper/vg01-lanv2
   
    lrwxrwxrwx 1 root root 22 Jul 6 11:26 lanv3 -> /dev/mapper/vg01-lanv3
   
    现在可以知道dm-0、dm-1、dm-2的具体设备路径了
回复 支持 反对

使用道具 举报

该用户从未签到

3#
发表于 2012-7-15 10:34:21 | 只看该作者
楼上厉害,学习!!
回复 支持 反对

使用道具 举报

本版积分规则

关闭

站长推荐上一条 /1 下一条

小黑屋|手机版|Archiver|51Testing软件测试网 ( 沪ICP备05003035号 关于我们

GMT+8, 2024-11-15 04:38 , Processed in 0.072689 second(s), 27 queries .

Powered by Discuz! X3.2

© 2001-2024 Comsenz Inc.

快速回复 返回顶部 返回列表