客户在实际进行迁移的时候,往往碰到需要将本地数据中心的超大文件,比如单个200GB的文件,或者总共1TB的无数文件上传到Azure上的情况,尤其是传到Azure的Linux虚拟机的场景,这种场景包括:
大日志文件上传到Azure进行分析
数据库备份文件导入导出
大数据文件下载到本地等等
尤其是要将数据库备份文件导入到Linux虚拟机进行数据库恢复,一般用户常常会选择传统的FTP方式进行处理,这样的方式通常会花费用户十几个小时,甚至几天的时间进行文件传输,但是在云计算的时代,其实有非常多的工具和方法可以使用,让你大幅度降低时间和成本,今天我们就以250GB数据库文件上传到Linux虚拟机为例,来看看怎么利用这些工具。
基本流程:
在本地安装或者使用一个Windows机器,内核数目和内存可能的话最好大一些,因为azcopy会根据内核数计算并发线程数
安装azcopy
在Azure上创建storage account,容器container
利用azcopy上传本地文件到Blob storage
在Linux虚拟机利用Azure CLI下载云端文件到本地Linux虚拟机
如果Azure上是Windows虚拟机,使用azcopy下载
限制和优化建议:
单个block blob的文件不能超过195GB,所以如果你的本地单个文件超过这个大小,你可以选择:
分割文件成小份
利用压缩软件压缩文件到较小大小
如果你本地的机器比较强大,并且单个文件的确比较大,建议你本地压缩,可以节约总体时间,你开始压缩的时候,大致可以知道这个压缩需要多长时间,
你的虚拟机和你的存储帐号入伍特别需要,请放在一个区域,比如都在北京或者上海,一边最大限度的降低延迟,提升速度
Azcopy会最大限度的利用你的数据中心的带宽,如果你希望降低带宽占用,可以限制azcopy的并发处理数目,利用/NC来做限制,默认情况下,如果你是操作blob storage,azcopy的并发线程数是你处理器数目的8倍;对于Table的操作,默认的并发线程数是你的处理器数目。
上传下载速度和你的磁盘速度,网络带宽等都有关系,如果需要处理大规模文件,可以考虑临时调整你的数据中心带宽大小
在本示例中,基本环境如下:
备份文件未压缩前210GB,压缩后60GB
用户数据中心服务器,Windows Server 2012,16 cores,32GB
Azure Linux虚拟机:A4, SUSE 11 SP3
基本配置步骤如下:
在用户数据中心Windows Server上下载并安装azcopy,请安装最新版本:
在Azure上创建一个存储账号,并取得存储账号的主访问密钥:
3. 在该存储账号下创建一个容器,名字为upload,你可以按照自己的需要命名:
4. 利用Azcopy,上传你本地的文件到Blob storage,注意要用到上个步骤创建到的存储账号和账号的key,假定当前的上传文件名为FULL0606.zip,放在你的E盘:
Azcopy.exe /Source:E:\ /Dest: https://myhousestorage.blob.core.linuxidc.com/upload /DestKey:YOURSTORAGEKEY /Pattern:"FULL0606.zip"
参数说明:
/Souce:你的源文件地址,写目录,具体文件名写后面,如C:\data
/Dest:你的存储账号的容器地址,可以在你的容器页面看到
/DestKey:存储帐号的主访问密钥
更多关于azcopy的详细用法和命令,请参考:
https://azure.microsoft.com/en-us/documentation/articles/storage-use-azcopy/
5. 传统方式下,用户会使用FTP的模式,经过调优,大概速度是3.5MB/s,而使用了azcopy,由于它有多线程,网络优化等底层功能的支持,速度可以达到近11MB/s,用户数据中心带宽100M,这个速度是相当不错的:
6. 在将数据上传到Azure blob storage之后,需要在Linux虚拟机上将他下载到本地,在Windows上有Powershell,azcopy等工具,在Linux系统上,有Azure CLI作为跨平台的工具可以管理Azure的各项服务,关于如何在Linux上安装配置Azure CLI,请参考: