1.软文推荐

2.软文推荐

3.软文推荐

大家先看一下二个命令,假如huge_dump.sql文件很大,然后猜测一下哪种导入方式效率会更高一些?

# 命令1,管道导入
shell> cat huge_dump.sql | mysql -uroot;
# 命令2,重定向导入
shell> mysql -uroot 

大家先看一下上面二个命令,假如huge_dump.sql文件很大,然后猜测一下哪种导入方式效率会更高一些?

这个问题挺有意思的,我的第一反应是:没比较过,应该是一样的,一个是cat负责打开文件,一个是bash

这种场景在MySQL运维操作里面应该比较多,所以就花了点时间做了个比较和原理上的分析:

我们先构造场景:

首先准备一个程序b.out来模拟mysql对数据的消耗:

int main(int argc, char *argv[])
 while(fread(buf, sizeof(buf), 1, stdin) > 0);
   return 0;
}

$  gcc  -o b.out b.c
$ ls|./b.out

再来写个systemtap脚本用来方便观察程序的行为。

$ cat test.stp
function should_log(){
 return (execname() == "cat" ||
     execname() == "b.out" ||
     execname() == "bash") ;
}
probe syscall.open,
     syscall.close,
     syscall.read,
     syscall.write,
     syscall.pipe,
     syscall.fork,
     syscall.execve,
     syscall.dup,
     syscall.wait4
{
 if (!should_log()) next;
 printf("%s -> %s
", thread_indent(0), probefunc());
}
 
probe kernel.function("pipe_read"),
     kernel.function("pipe_readv"),
     kernel.function("pipe_write"),
     kernel.function("pipe_writev")
{
 if (!should_log()) next;
 printf("%s -> %s: file ino %d
",  thread_indent(0), probefunc(), __file_ino($filp));
}
probe begin { println(":~") }

这个脚本重点观察几个系统调用的顺序和pipe的读写情况,然后再准备个419M的大文件huge_dump.sql,在我们几十G内存的机器很容易在内存里放下:

$ sudo dd if=/dev/urandom of=huge_dump.sql bs=4096 count=102400
102400+0 records in
102400+0 records out
419430400 bytes (419 MB) copied, 63.9886 seconds, 6.6 MB/s

因为这个文件是用bufferio写的,所以它的内容都cache在pagecahce内存里面,不会涉及到磁盘。

好了,场景齐全了,我们接着来比较下二种情况下的速度,第一种管道:

# 第一种管道方式
$ time (cat huge_dump.sql|./b.out)
 
real    0m0.596s
user    0m0.001s
sys     0m0.919s

从执行时间数看出来速度有3倍左右的差别了,第二种明显快很多。

是不是有点奇怪?好吧我们来从原来上面分析下,还是继续用数据说话:

这次准备个很小的数据文件,方便观察然后在一个窗口运行stap

echo hello > huge_dump.sql
$ sudo stap test.stp
:~
    0 bash(26570): -> sys_read
    0 bash(26570): -> sys_read
    0 bash(26570): -> sys_write
    0 bash(26570): -> sys_read
    0 bash(26570): -> sys_write
    0 bash(26570): -> sys_close
    0 bash(26570): -> sys_pipe
    0 bash(26570): -> sys_pipe
    0 bash(26570): -> do_fork
    0 bash(26570): -> sys_close
    0 bash(26570): -> sys_close
    0 bash(26570): -> do_fork
    0 bash(13775): -> sys_close
    0 bash(13775): -> sys_read
    0 bash(13775): -> pipe_read: file ino 20906911
    0 bash(13775): -> pipe_readv: file ino 20906911
    0 bash(13776): -> sys_close
    0 bash(13776): -> sys_close
    0 bash(13776): -> sys_close
    0 bash(13776): -> do_execve
    0 bash(26570): -> sys_close
    0 bash(26570): -> sys_close
    0 bash(26570): -> sys_close
    0 bash(13775): -> sys_close
    0 bash(26570): -> sys_wait4
    0 bash(13775): -> sys_close
    0 bash(13775): -> sys_close
    0 b.out(13776): -> sys_close
    0 b.out(13776): -> sys_close
    0 bash(13775): -> do_execve
    0 b.out(13776): -> sys_open
    0 b.out(13776): -> sys_close
    0 b.out(13776): -> sys_open
    0 b.out(13776): -> sys_read
    0 b.out(13776): -> sys_close
    0 cat(13775): -> sys_close
    0 cat(13775): -> sys_close
    0 b.out(13776): -> sys_read
    0 b.out(13776): -> pipe_read: file ino 20906910
    0 b.out(13776): -> pipe_readv: file ino 20906910
    0 cat(13775): -> sys_open
    0 cat(13775): -> sys_close
    0 cat(13775): -> sys_open
    0 cat(13775): -> sys_read
    0 cat(13775): -> sys_close
    0 cat(13775): -> sys_open
    0 cat(13775): -> sys_close
    0 cat(13775): -> sys_open
    0 cat(13775): -> sys_read
    0 cat(13775): -> sys_write
    0 cat(13775): -> pipe_write: file ino 20906910
    0 cat(13775): -> pipe_writev: file ino 20906910
    0 cat(13775): -> sys_read
    0 b.out(13776): -> sys_read
    0 b.out(13776): -> pipe_read: file ino 20906910
    0 b.out(13776): -> pipe_readv: file ino 20906910
    0 cat(13775): -> sys_close
    0 cat(13775): -> sys_close
    0 bash(26570): -> sys_wait4
    0 bash(26570): -> sys_close
    0 bash(26570): -> sys_wait4
    0 bash(26570): -> sys_write

stap在收集数据了,我们在另外一个窗口运行管道的情况:

$ cat huge_dump.sql|./b.out

我们从systemtap的日志可以看出:

bash fork了2个进程。

然后execve分别运行cat 和 b.out进程, 这二个进程用pipe通信。

数据从由cat从 huge_dump.sql读出,写到pipe,然后b.out从pipe读出处理。

那么再看下命令2重定向的情况:

$ ./b.out  sys_read
    0 bash(26570): -> sys_read
    0 bash(26570): -> sys_write
    0 bash(26570): -> sys_read
    0 bash(26570): -> sys_write
    0 bash(26570): -> sys_close
    0 bash(26570): -> sys_pipe
    0 bash(26570): -> do_fork
    0 bash(28926): -> sys_close
    0 bash(28926): -> sys_read
    0 bash(28926): -> pipe_read: file ino 20920902
    0 bash(28926): -> pipe_readv: file ino 20920902
    0 bash(26570): -> sys_close
    0 bash(26570): -> sys_close
    0 bash(26570): -> sys_wait4
    0 bash(28926): -> sys_close
    0 bash(28926): -> sys_open
    0 bash(28926): -> sys_close
    0 bash(28926): -> do_execve
    0 b.out(28926): -> sys_close
    0 b.out(28926): -> sys_close
    0 b.out(28926): -> sys_open
    0 b.out(28926): -> sys_close
    0 b.out(28926): -> sys_open
    0 b.out(28926): -> sys_read
    0 b.out(28926): -> sys_close
    0 b.out(28926): -> sys_read
    0 b.out(28926): -> sys_read
    0 bash(26570): -> sys_wait4
    0 bash(26570): -> sys_write
    0 bash(26570): -> sys_read

bash fork了一个进程,打开数据文件。

然后把文件句柄搞到0句柄上,这个进程execve运行b.out。

然后b.out直接读取数据。

现在就非常清楚为什么二种场景速度有3倍的差别:

命令1,管道方式: 读二次,写一次,外加一个进程上下文切换。

命令2,重定向方式:只读一次。

结论:Linux下大文件重定向效率更高。

本文来源:www.lxlinux.net/8269.html,若引用不当,请联系修改。

相关文章 8

1

使用组播 DNS在局域网中发现系统 1分钟前

组播 DNS ( mDNS )同样是工作在 IP 层面,它使用5353端口,由于它只是 DNS 的延伸,所以这也决定了它用起来和 DNS 基本相同。不同点是它不请...

2

注销网站备案号(公司网站备案注销) 4分钟前

目录:1、域名备案怎么注销2、网站备案号自己可以取消吗?3、网站备案注销流程4、icp备案怎么注销5、域名怎么注销备案域名备案怎么注销...

3

Linux安装rz、sz命令 5分钟前

Linux如何安装rz、sz命令?Linux中rz命令和sz命令都可用于文件传输,而rz命令主要用于文件的上传,本篇文章为大家分享一下Linux安装rz、sz命令...

4

360优化大师停止更新(360优化大师停止更新怎么办) 7分钟前

目录:1、任务管理器、360、优化大师集体挂掉了,请求解决办法2、优化大师流氓软件清除大师升级中止3、Windows优化大师(专业版)为什么更...

5

Linux系统如何显示和修改主机名 10分钟前

每一个人都有一个名字,同样计算机也有自己的命令,那就是hostname,hostname是用来显示系统的DNS名字以及为了显示和设置它的主机名或者...

7

甘南网站开发(甘南门户网) 14分钟前

目录:1、甘南有哪个网站有样板房的装修可以看看呀?2、甘南相亲的地方有哪些?3、甘南、甘南州4、甘南有哪些有名的网站都有哪些服务...

8

Linux系统文本处理工具less详细使用方法 16分钟前

cat虽然能够查看文件内容但是有许多的局限性,如果想要查看一个大文件的话less命令是首选工具,下面一起来看一下Linux系统中less命令的详...