数据打印到哪儿了

近日在一次测试Linux内核路由查找算法的过程中,发现一个printf语句竟然能将性能降低2/3。当然,使用“竟然”一词并不意味着这个问题是第一次发现,我的想法是,把它记录下来,让没有经验的同学对printf知其所以然,同时导出我对“性能攸关”的这类算法中记录日志的一个观点。

声明

我不会把大段的源代码贴在文章中,而只是希望能通过阐述原理把我的意思表达清楚。诚然,作为程序员没有代码好像一切都会很虚,不过同样的,也是因为代码,总是会把人逼进死胡同,代码只是一种实现,理解了原理,作为一个懂编程的程序员,任何人都可以写出一个自己的实现。

我会给出原理图,但是这图决不是我凭空想象的,来源在哪?当然是UNIX的相关标准以及Linux的具体实现代码。既然原理来自于Linux的代码,为何不贴出来分析一下呢?要知道,代码随着Linux的内核版本,C库的版本以及应用程序的版本变化而变化,不变的是思想!UNIX历经几十年,其思想不还在指导着千千万万的程序员吗?另外,有谁会去通读Linux内核代码呢?对于大多数的人而言,如果想知道printf或者任何其它的接口的原理,肯定不会去摆开架势做出一副要先了解Linux内核架构,C库架构作为前置知识,然后去跟踪调试其实现。在以上这个过程中,你会把大量的精力消耗在理解不相关的内容上,比如函数调用关系,层层嵌套的条件语句,或者调试器怎么使用,诸如此类。

关于printf

printf是一个接口,跟UNIX标准IO的write系统调用类似,但是更像C库的fwrite,因为同系列的函数中还有一个fprintf(至于同系列其它的函数,请自行man)。printf和fwrite的区别在于两点:

1.它可以格式化输出,如果用fwrite,它接受的是一个固定的buffer,你不得不在调fwrite之前先使用sprintf之类的函数格式化buffer;

2.它免除了你的fopen-fwrite-fclose这个序列的调用,因为它直接将格式化的内容写入UNIX进程自然打开的1号文件描述符,即标准输出。

既然printf写入了标准输出,那么接下来就要定义什么是标准输出。在早期UNIX年代,人们在终端或者伪终端操作机器,那时的输入基本都是键盘,磁带更古老的东西,而输出就是一个计算结果,需要展示出来给人看的那种,一般为终端屏幕,也可以是一条纸带,那么程序怎么知道输入和输出到底是什么呢?这就需要程序明确指定。UNIX的“一切皆文件”思想以及“分离抽象”思想彻底改变了这一切。

UNIX定义了抽象文件描述符0,1,2分别为标准输入,标准输出,标准错误输出。至于它们到底对应什么设备,你可以在程序初始化的时候显式重定向到任意设备,也可以在外部shell做类似的重定向,这样就把指明设备这件事从程序分离了出来。

我为什么不统一说一下fwrite调用对程序性能的影响呢?因为该调用之前你必须执行fopen,而fopen的一个参数明确表示了你希望写入的对象是什么,这就不会带来异议,毕竟如果你非要在性能测试的时候写CF卡,那也是你愿意。printf就不同了,它对效率的影响取决于标准输出是什么以及你是如何重定向标准输出的,所谓的标准输出并不是真实的设备,它只是一个抽象层,具体如何解释标准输出,还要依靠外部。

数据都去哪儿了

我以下面这个超级小的程序来说明printf的时候,数据都去哪了:

#include <stdio.h>
#include <stdlib.h>

int main(int argc, char **argv)
{
        int i = 0;
        int c = atoi(argv[1]);
        for(; i < c; i++) {
                printf("############  %d\n", i);
        }
        return 0;
}

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/db87bd66d707ac22d18e917af4c0fbb2.html