温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Linux大文件重定向和管道的效率是怎样的

发布时间:2021-12-31 17:13:50 来源:亿速云 阅读:128 作者:iii 栏目:建站服务器

这篇文章主要讲解了“Linux大文件重定向和管道的效率是怎样的”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Linux大文件重定向和管道的效率是怎样的”吧!

导读大家先看一下二个 命令,假如huge_dump.sql文件很大,然后猜测一下哪种导入方式效率会更高一些?
# 命令1,管道导入 
shell> cat huge_dump.sql | mysql -uroot;
# 命令2,重定向导入 
shell> mysql -uroot < huge_dump.sql;

大家先看一下上面二个命令,假如huge_dump.sql文件很大,然后猜测一下哪种导入方式效率会更高一些?

这个问题挺有意思的,我的第一反应是:没比较过,应该是一样的,一个是cat负责打开文件,一个是bash

这种场景在MySQL运维操作里面应该比较多,所以就花了点时间做了个比较和原理上的分析:

我们先构造场景:

首先准备一个程序b.out来模拟mysql对数据的消耗:

int main(int argc, char *argv[]) 
  while(fread(buf, sizeof(buf), 1, stdin) > 0); 
    return 0; 
} 
 
$  gcc  -o b.out b.c 
$ ls|./b.out

再来写个systemtap 脚本用来方便观察程序的行为。

$ cat test.stp 
function should_log(){ 
  return (execname() == "cat" || 
      execname() == "b.out" || 
      execname() == "bash") ; 
} 
probe syscall.open, 
      syscall.close, 
      syscall.read, 
      syscall.write, 
      syscall.pipe, 
      syscall.fork, 
      syscall.execve, 
      syscall.dup, 
      syscall.wait4 
{ 
  if (!should_log()) next; 
  printf("%s -> %s\n", thread_indent(0), probefunc()); 
} 
  
probe kernel.function("pipe_read"), 
      kernel.function("pipe_readv"), 
      kernel.function("pipe_write"), 
      kernel.function("pipe_writev") 
{ 
  if (!should_log()) next; 
  printf("%s -> %s: file ino %d\n",  thread_indent(0), probefunc(), __file_ino($filp)); 
} 
probe begin { println(":~") }

这个 脚本重点观察几个系统调用的顺序和pipe的读写情况,然后再准备个419M的大文件huge_dump.sql,在我们几十G内存的机器很容易在内存里放下:

$ sudo dd if=/dev/urandom of=huge_dump.sql bs=4096 count=102400 
102400+0 records in 
102400+0 records out 
419430400 bytes (419 MB) copied, 63.9886 seconds, 6.6 MB/s

因为这个文件是用bufferio写的,所以它的内容都cache在pagecahce内存里面,不会涉及到磁盘。

好了,场景齐全了,我们接着来比较下二种情况下的速度,第一种管道:

# 第一种管道方式 
$ time (cat huge_dump.sql|./b.out) 
  
real    0m0.596s 
user    0m0.001s 
sys     0m0.919s

从执行时间数看出来速度有3倍左右的差别了,第二种明显快很多。

是不是有点奇怪?好吧我们来从原来上面分析下,还是继续用数据说话:

这次准备个很小的数据文件,方便观察然后在一个窗口运行stap

$ echo hello > huge_dump.sql 
$ sudo stap test.stp 
:~ 
     0 bash(26570): -> sys_read 
     0 bash(26570): -> sys_read 
     0 bash(26570): -> sys_write 
     0 bash(26570): -> sys_read 
     0 bash(26570): -> sys_write 
     0 bash(26570): -> sys_close 
     0 bash(26570): -> sys_pipe 
     0 bash(26570): -> sys_pipe 
     0 bash(26570): -> do_fork 
     0 bash(26570): -> sys_close 
     0 bash(26570): -> sys_close 
     0 bash(26570): -> do_fork 
     0 bash(13775): -> sys_close 
     0 bash(13775): -> sys_read 
     0 bash(13775): -> pipe_read: file ino 20906911 
     0 bash(13775): -> pipe_readv: file ino 20906911 
     0 bash(13776): -> sys_close 
     0 bash(13776): -> sys_close 
     0 bash(13776): -> sys_close 
     0 bash(13776): -> do_execve 
     0 bash(26570): -> sys_close 
     0 bash(26570): -> sys_close 
     0 bash(26570): -> sys_close 
     0 bash(13775): -> sys_close 
     0 bash(26570): -> sys_wait4 
     0 bash(13775): -> sys_close 
     0 bash(13775): -> sys_close 
     0 b.out(13776): -> sys_close 
     0 b.out(13776): -> sys_close 
     0 bash(13775): -> do_execve 
     0 b.out(13776): -> sys_open 
     0 b.out(13776): -> sys_close 
     0 b.out(13776): -> sys_open 
     0 b.out(13776): -> sys_read 
     0 b.out(13776): -> sys_close 
     0 cat(13775): -> sys_close 
     0 cat(13775): -> sys_close 
     0 b.out(13776): -> sys_read 
     0 b.out(13776): -> pipe_read: file ino 20906910 
     0 b.out(13776): -> pipe_readv: file ino 20906910 
     0 cat(13775): -> sys_open 
     0 cat(13775): -> sys_close 
     0 cat(13775): -> sys_open 
     0 cat(13775): -> sys_read 
     0 cat(13775): -> sys_close 
     0 cat(13775): -> sys_open 
     0 cat(13775): -> sys_close 
     0 cat(13775): -> sys_open 
     0 cat(13775): -> sys_read 
     0 cat(13775): -> sys_write 
     0 cat(13775): -> pipe_write: file ino 20906910 
     0 cat(13775): -> pipe_writev: file ino 20906910 
     0 cat(13775): -> sys_read 
     0 b.out(13776): -> sys_read 
     0 b.out(13776): -> pipe_read: file ino 20906910 
     0 b.out(13776): -> pipe_readv: file ino 20906910 
     0 cat(13775): -> sys_close 
     0 cat(13775): -> sys_close 
     0 bash(26570): -> sys_wait4 
     0 bash(26570): -> sys_close 
     0 bash(26570): -> sys_wait4 
     0 bash(26570): -> sys_write

stap在收集数据了,我们在另外一个窗口运行管道的情况:

$ cat huge_dump.sql|./b.out

我们从systemtap的日志可以看出:

  • bash fork了2个进程。

  • 然后execve分别运行cat 和 b.out进程, 这二个进程用pipe通信。

  • 数据从由cat从 huge_dump.sql读出,写到pipe,然后b.out从pipe读出处理。

  • 那么再看下命令2重定向的情况:

    $ ./b.out < huge_dump.sql
      
    stap输出: 
          0 bash(26570): -> sys_read 
         0 bash(26570): -> sys_read 
         0 bash(26570): -> sys_write 
         0 bash(26570): -> sys_read 
         0 bash(26570): -> sys_write 
         0 bash(26570): -> sys_close 
         0 bash(26570): -> sys_pipe 
         0 bash(26570): -> do_fork 
         0 bash(28926): -> sys_close 
         0 bash(28926): -> sys_read 
         0 bash(28926): -> pipe_read: file ino 20920902 
         0 bash(28926): -> pipe_readv: file ino 20920902 
         0 bash(26570): -> sys_close 
         0 bash(26570): -> sys_close 
         0 bash(26570): -> sys_wait4 
         0 bash(28926): -> sys_close 
         0 bash(28926): -> sys_open 
         0 bash(28926): -> sys_close 
         0 bash(28926): -> do_execve 
         0 b.out(28926): -> sys_close 
         0 b.out(28926): -> sys_close 
         0 b.out(28926): -> sys_open 
         0 b.out(28926): -> sys_close 
         0 b.out(28926): -> sys_open 
         0 b.out(28926): -> sys_read 
         0 b.out(28926): -> sys_close 
         0 b.out(28926): -> sys_read 
         0 b.out(28926): -> sys_read 
         0 bash(26570): -> sys_wait4 
         0 bash(26570): -> sys_write 
         0 bash(26570): -> sys_read
  • bash fork了一个进程,打开数据文件。

  • 然后把文件句柄搞到0句柄上,这个进程execve运行b.out。

  • 然后b.out直接读取数据。

  • 现在就非常清楚为什么二种场景速度有3倍的差别:

  • 命令1,管道方式: 读二次,写一次,外加一个进程上下文切换。

  • 命令2,重定向方式:只读一次。

感谢各位的阅读,以上就是“Linux大文件重定向和管道的效率是怎样的”的内容了,经过本文的学习后,相信大家对Linux大文件重定向和管道的效率是怎样的这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI