Hprof使用及在Hadoop中MR任务使用(2)


我们可以自己写一个java应用程序,但是例子 里将使用一个J2SE中已有的java应用程序,javac。 

Heap Allocation Profiles(heap=sites)


以下是对一个java代码文件运行java编译 器javac的heap allocation profile日志的一部分: 
Command used: javac -J-agentlib:hprof=heap=sites Hello.java 

Hprof使用及在Hadoop中MR任务使用


从日志中可以看到程序在运行的每一个部分都消耗了多少内存的heap profile数据。以上日志可以看出,整个程序的heap中有44.73%的被分配给了java.util.zip.ZipEntry对象。同时可以观 察到,live data的数量跟所有allocated的总数是匹配atch的,这就说明GC可能在HPROF遍历整个heap搜集信息的很短的时间之前已经做过一次内 存回收了。通常情况下,live data的数量是会稍微少于所有allocated的总数的。 
    
Heap Dump (heap=dump)


该选项用来对java进程的heap进行进行完 全的dump: 
Command used: javac -J-agentlib:hprof=heap=dump Hello.java 
这样会产生一个非常大的输出文件,但是可以用任 何编辑器进行打开和搜索。但是,更好的观察和分析办法是通过HAT来进行分析和观察。所有用heap=sites选项中获取的信息这里也都可以获取到。另 外还加上一些特别的细节数据。如对每个对象的内存分配以及其引用的其他所有的对象。 
该选项会使用很多的内存,因为它会将所有对象的 内存分配情况全部记录下来,同时也可能会影响到应用程序本身的性能,因为数据的产生会影响对象分配和资源回收。 

CPU Usage Sampling Profiles (cpu=samples)


HPROF可以用来搜集java进程中各个threads的cpu使用情况: 

Hprof使用及在Hadoop中MR任务使用


HPROF会对java进程中所有的threads进行周期性的stack traces采集。以上count一列就表示在采集中有多少次的stack trace被HPROF发现,并且是active的(而不是指一个method被执行了多少次)。这些stack traces包括cpu的使用,哪些是cpu消耗热点。 
那么以上日志中可以看出什么信息呢?第一,统计数据的样本数据是很少的,只有126次的采样,如 果是比较大的程序编译,那么应该能够产生更有代表性的数据。第二,该数据跟以上对heap=sites的采集数据比较匹配,ZipFile耗费了比较多的 cpu时间和调用次数。在以上采集中,可以发现,跟ZipFile相关的的性能在javac中都会消耗的比较高,该ZipFile的stack trace如下: 

Hprof使用及在Hadoop中MR任务使用

 

CPU Usage Times Profile (cpu=times)

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/576ce7f7ab4478854042d4f6f3b192c5.html