浅谈Service Manager成为Android进程间通信(IPC)机制(2)

这个结构体的成员比较多,这里就不一一说明了,简单解释一下四个成员变量threads、nodes、 refs_by_desc和refs_by_node,其它的我们在遇到的时候再详细解释。这四个成员变量都是表示红黑树的节点,也就是说,binder_proc分别挂会四个红黑树下。threads树用来保存binder_proc进程内用于处理用户请求的线程,它的最大数量由max_threads来决定;node树成用来保存binder_proc进程内的Binder实体;refs_by_desc树和refs_by_node树用来保存binder_proc进程内的Binder引用,即引用的其它进程的Binder实体,它分别用两种方式来组织红黑树,一种是以句柄作来key值来组织,一种是以引用的实体节点的地址值作来key值来组织,它们都是表示同一样东西,只不过是为了内部查找方便而用两个红黑树来表示。

这样,打开设备文件/dev/binder的操作就完成了,接着是对打开的设备文件进行内存映射操作mmap:

bs->mapped = mmap(NULL, mapsize, PROT_READ, MAP_PRIVATE, bs->fd, 0);  

对应Binder驱动程序的binder_mmap函数:

static int binder_mmap(struct file *filp, struct vm_area_struct *vma)   {       int ret;       struct vm_struct *area;       struct binder_proc *proc = filp->private_data;       const char *failure_string;       struct binder_buffer *buffer;          if ((vma->vm_end - vma->vm_start) > SZ_4M)           vma->vm_end = vma->vm_start + SZ_4M;          if (binder_debug_mask & BINDER_DEBUG_OPEN_CLOSE)           printk(KERN_INFO               "binder_mmap: %d %lx-%lx (%ld K) vma %lx pagep %lx\n",               proc->pid, vma->vm_start, vma->vm_end,               (vma->vm_end - vma->vm_start) / SZ_1K, vma->vm_flags,               (unsigned long)pgprot_val(vma->vm_page_prot));          if (vma->vm_flags & FORBIDDEN_MMAP_FLAGS) {           ret = -EPERM;           failure_string = "bad vm_flags";           goto err_bad_arg;       }       vma->vm_flags = (vma->vm_flags | VM_DONTCOPY) & ~VM_MAYWRITE;          if (proc->buffer) {           ret = -EBUSY;           failure_string = "already mapped";           goto err_already_mapped;       }          area = get_vm_area(vma->vm_end - vma->vm_start, VM_IOREMAP);       if (area == NULL) {           ret = -ENOMEM;           failure_string = "get_vm_area";           goto err_get_vm_area_failed;       }       proc->buffer = area->addr;       proc->user_buffer_offset = vma->vm_start - (uintptr_t)proc->buffer;      #ifdef CONFIG_CPU_CACHE_VIPT        if (cache_is_vipt_aliasing()) {           while (CACHE_COLOUR((vma->vm_start ^ (uint32_t)proc->buffer))) {               printk(KERN_INFO "binder_mmap: %d %lx-%lx maps %p bad alignment\n", proc->pid, vma->vm_start, vma->vm_end, proc->buffer);               vma->vm_start += PAGE_SIZE;           }       }   #endif        proc->pages = kzalloc(sizeof(proc->pages[0]) * ((vma->vm_end - vma->vm_start) / PAGE_SIZE), GFP_KERNEL);       if (proc->pages == NULL) {           ret = -ENOMEM;           failure_string = "alloc page array";           goto err_alloc_pages_failed;       }       proc->buffer_size = vma->vm_end - vma->vm_start;          vma->vm_ops = &binder_vm_ops;       vma->vm_private_data = proc;          if (binder_update_page_range(proc, 1, proc->buffer, proc->buffer + PAGE_SIZE, vma)) {           ret = -ENOMEM;           failure_string = "alloc small buf";           goto err_alloc_small_buf_failed;       }       buffer = proc->buffer;       INIT_LIST_HEAD(&proc->buffers);       list_add(&buffer->entry, &proc->buffers);       buffer->free = 1;       binder_insert_free_buffer(proc, buffer);       proc->free_async_space = proc->buffer_size / 2;       barrier();       proc->files = get_files_struct(current);       proc->vma = vma;          /*printk(KERN_INFO "binder_mmap: %d %lx-%lx maps %p\n", proc->pid, vma->vm_start, vma->vm_end, proc->buffer);*/       return 0;      err_alloc_small_buf_failed:       kfree(proc->pages);       proc->pages = NULL;   err_alloc_pages_failed:       vfree(proc->buffer);       proc->buffer = NULL;   err_get_vm_area_failed:   err_already_mapped:   err_bad_arg:       printk(KERN_ERR "binder_mmap: %d %lx-%lx %s failed %d\n", proc->pid, vma->vm_start, vma->vm_end, failure_string, ret);       return ret;   }  

      函数首先通过filp->private_data得到在打开设备文件/dev/binder时创建的struct binder_proc结构。内存映射信息放在vma参数中,注意,这里的vma的数据类型是struct vm_area_struct,它表示的是一块连续的虚拟地址空间区域,在函数变量声明的地方,我们还看到有一个类似的结构体struct vm_struct,这个数据结构也是表示一块连续的虚拟地址空间区域,那么,这两者的区别是什么呢?在Linux中,struct vm_area_struct表示的虚拟地址是给进程使用的,而struct vm_struct表示的虚拟地址是给内核使用的,它们对应的物理页面都可以是不连续的。struct vm_area_struct表示的地址空间范围是0~3G,而struct vm_struct表示的地址空间范围是(3G + 896M + 8M) ~ 4G。struct vm_struct表示的地址空间范围为什么不是3G~4G呢?原来,3G ~ (3G + 896M)范围的地址是用来映射连续的物理页面的,这个范围的虚拟地址和对应的实际物理地址有着简单的对应关系,即对应0~896M的物理地址空间,而(3G + 896M) ~ (3G + 896M + 8M)是安全保护区域(例如,所有指向这8M地址空间的指针都是非法的),因此struct vm_struct使用(3G + 896M + 8M) ~ 4G地址空间来映射非连续的物理页面。有关Linux的内存管理知识,可以参考Android学习启动篇一文提到的《Understanding the Linux Kernel》一书中的第8章。

这里为什么会同时使用进程虚拟地址空间和内核虚拟地址空间来映射同一个物理页面呢?这就是Binder进程间通信机制的精髓所在了,同一个物理页面,一方映射到进程虚拟地址空间,一方面映射到内核虚拟地址空间,这样,进程和内核之间就可以减少一次内存拷贝了,提到了进程间通信效率。举个例子如,Client要将一块内存数据传递给Server,一般的做法是,Client将这块数据从它的进程空间拷贝到内核空间中,然后内核再将这个数据从内核空间拷贝到Server的进程空间,这样,Server就可以访问这个数据了。但是在这种方法中,执行了两次内存拷贝操作,而采用我们上面提到的方法,只需要把Client进程空间的数据拷贝一次到内核空间,然后Server与内核共享这个数据就可以了,整个过程只需要执行一次内存拷贝,提高了效率。

binder_mmap的原理讲完了,这个函数的逻辑就好理解了。不过,这里还是先要解释一下struct binder_proc结构体的几个成员变量。buffer成员变量是一个void*指针,它表示要映射的物理内存在内核空间中的起始位置;buffer_size成员变量是一个size_t类型的变量,表示要映射的内存的大小;pages成员变量是一个struct page*类型的数组,struct page是用来描述物理页面的数据结构;user_buffer_offset成员变量是一个ptrdiff_t类型的变量,它表示的是内核使用的虚拟地址与进程使用的虚拟地址之间的差值,即如果某个物理页面在内核空间中对应的虚拟地址是addr的话,那么这个物理页面在进程空间对应的虚拟地址就为addr + user_buffer_offset。

再解释一下Binder驱动程序管理这个内存映射地址空间的方法,即是如何管理buffer ~ (buffer + buffer_size)这段地址空间的,这个地址空间被划分为一段一段来管理,每一段是结构体struct binder_buffer来描述:

 

struct binder_buffer {       struct list_head entry; /* free and allocated entries by addesss */       struct rb_node rb_node; /* free entry by size or allocated entry */                   /* by address */       unsigned free : 1;       unsigned allow_user_free : 1;       unsigned async_transaction : 1;       unsigned debug_id : 29;          struct binder_transaction *transaction;          struct binder_node *target_node;       size_t data_size;       size_t offsets_size;       uint8_t data[0];   };  

        每一个binder_buffer通过其成员entry按从低址到高地址连入到struct binder_proc中的buffers表示的链表中去,同时,每一个binder_buffer又分为正在使用的和空闲的,通过free成员变量来区分,空闲的binder_buffer通过成员变量rb_node连入到struct binder_proc中的free_buffers表示的红黑树中去,正在使用的binder_buffer通过成员变量rb_node连入到struct binder_proc中的allocated_buffers表示的红黑树中去。这样做当然是为了方便查询和维护这块地址空间了,这一点我们可以从其它的代码中看到,等遇到的时候我们再分析。

终于可以回到binder_mmap这个函数来了,首先是对参数作一些健康体检(sanity check),例如,要映射的内存大小不能超过SIZE_4M,即4M,回到service_manager.c中的main 函数,这里传进来的值是128 * 1024个字节,即128K,这个检查没有问题。通过健康体检后,调用get_vm_area函数获得一个空闲的vm_struct区间,并初始化proc结构体的buffer、user_buffer_offset、pages和buffer_size和成员变量,接着调用binder_update_page_range来为虚拟地址空间proc->buffer ~ proc->buffer + PAGE_SIZE分配一个空闲的物理页面,同时这段地址空间使用一个binder_buffer来描述,分别插入到proc->buffers链表和proc->free_buffers红黑树中去,最后,还初始化了proc结构体的free_async_space、files和vma三个成员变量。

这里,我们继续进入到binder_update_page_range函数中去看一下Binder驱动程序是如何实现把一个物理页面同时映射到内核空间和进程空间去的:

 

static int binder_update_page_range(struct binder_proc *proc, int allocate,       void *start, void *end, struct vm_area_struct *vma)   {       void *page_addr;       unsigned long user_page_addr;       struct vm_struct tmp_area;       struct page **page;       struct mm_struct *mm;          if (binder_debug_mask & BINDER_DEBUG_BUFFER_ALLOC)           printk(KERN_INFO "binder: %d: %s pages %p-%p\n",                  proc->pid, allocate ? "allocate" : "free", start, end);          if (end <= start)           return 0;          if (vma)           mm = NULL;       else           mm = get_task_mm(proc->tsk);          if (mm) {           down_write(&mm->mmap_sem);           vma = proc->vma;       }          if (allocate == 0)           goto free_range;          if (vma == NULL) {           printk(KERN_ERR "binder: %d: binder_alloc_buf failed to "                  "map pages in userspace, no vma\n", proc->pid);           goto err_no_vma;       }          for (page_addr = start; page_addr < end; page_addr += PAGE_SIZE) {           int ret;           struct page **page_array_ptr;           page = &proc->pages[(page_addr - proc->buffer) / PAGE_SIZE];              BUG_ON(*page);           *page = alloc_page(GFP_KERNEL | __GFP_ZERO);           if (*page == NULL) {               printk(KERN_ERR "binder: %d: binder_alloc_buf failed "                      "for page at %p\n", proc->pid, page_addr);               goto err_alloc_page_failed;           }           tmp_area.addr = page_addr;           tmp_area.size = PAGE_SIZE + PAGE_SIZE /* guard page? */;           page_array_ptr = page;           ret = map_vm_area(&tmp_area, PAGE_KERNEL, &page_array_ptr);           if (ret) {               printk(KERN_ERR "binder: %d: binder_alloc_buf failed "                      "to map page at %p in kernel\n",                      proc->pid, page_addr);               goto err_map_kernel_failed;           }           user_page_addr =               (uintptr_t)page_addr + proc->user_buffer_offset;           ret = vm_insert_page(vma, user_page_addr, page[0]);           if (ret) {               printk(KERN_ERR "binder: %d: binder_alloc_buf failed "                      "to map page at %lx in userspace\n",                      proc->pid, user_page_addr);               goto err_vm_insert_page_failed;           }           /* vm_insert_page does not seem to increment the refcount */       }       if (mm) {           up_write(&mm->mmap_sem);           mmput(mm);       }       return 0;      free_range:       for (page_addr = end - PAGE_SIZE; page_addr >= start;            page_addr -= PAGE_SIZE) {           page = &proc->pages[(page_addr - proc->buffer) / PAGE_SIZE];           if (vma)               zap_page_range(vma, (uintptr_t)page_addr +                   proc->user_buffer_offset, PAGE_SIZE, NULL);   err_vm_insert_page_failed:           unmap_kernel_range((unsigned long)page_addr, PAGE_SIZE);   err_map_kernel_failed:           __free_page(*page);           *page = NULL;   err_alloc_page_failed:           ;       }   err_no_vma:       if (mm) {           up_write(&mm->mmap_sem);           mmput(mm);       }       return -ENOMEM;   }  

        这个函数既可以分配物理页面,也可以用来释放物理页面,通过allocate参数来区别,这里我们只关注分配物理页面的情况。要分配物理页面的虚拟地址空间范围为(start ~ end),函数前面的一些检查逻辑就不看了,直接看中间的for循环:

 

for (page_addr = start; page_addr < end; page_addr += PAGE_SIZE) {       int ret;       struct page **page_array_ptr;       page = &proc->pages[(page_addr - proc->buffer) / PAGE_SIZE];          BUG_ON(*page);       *page = alloc_page(GFP_KERNEL | __GFP_ZERO);       if (*page == NULL) {           printk(KERN_ERR "binder: %d: binder_alloc_buf failed "                  "for page at %p\n", proc->pid, page_addr);           goto err_alloc_page_failed;       }       tmp_area.addr = page_addr;       tmp_area.size = PAGE_SIZE + PAGE_SIZE /* guard page? */;       page_array_ptr = page;       ret = map_vm_area(&tmp_area, PAGE_KERNEL, &page_array_ptr);       if (ret) {           printk(KERN_ERR "binder: %d: binder_alloc_buf failed "                  "to map page at %p in kernel\n",                  proc->pid, page_addr);           goto err_map_kernel_failed;       }       user_page_addr =           (uintptr_t)page_addr + proc->user_buffer_offset;       ret = vm_insert_page(vma, user_page_addr, page[0]);       if (ret) {           printk(KERN_ERR "binder: %d: binder_alloc_buf failed "                  "to map page at %lx in userspace\n",                  proc->pid, user_page_addr);           goto err_vm_insert_page_failed;       }       /* vm_insert_page does not seem to increment the refcount */   }  

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/wwjjww.html