随身GPU服务器:Kaggle中kernels的快速入门指南 (2)

《随身GPU服务器:Kaggle中kernels的快速入门指南》

然后我们就可以看到配置信息图,从图中可以得知我们此刻使用的显卡为Tesla K80,显存为12G,显卡驱动信息还是比较新,396.44。我们再看下CUDA的版本:

《随身GPU服务器:Kaggle中kernels的快速入门指南》

gcc版本:

《随身GPU服务器:Kaggle中kernels的快速入门指南》

整体来说,这个GPU服务器的硬件和软件配置都满足我们的一般需要了。

另外,Kaggle官方也贴心地为我们安装了Pytorch和fastai。

《随身GPU服务器:Kaggle中kernels的快速入门指南》

我们无需提前安装,直接使用即可,方便吧。

《随身GPU服务器:Kaggle中kernels的快速入门指南》

那么在回到显卡的配置,这款kernels中的K80属于什么水平呢,经过测试1080TI显卡比K80的速度快2倍左右,也就是说K80显卡的配置也算还不错了。

在美团云上的价格可以接受的服务器配置一般都是M60、M40、K40这三种配置,这三种为服务器显卡,
M60拥有两个 GM204 核芯,每个 GM204 核芯拥有 2048 个计算单元,拥有8G显存,单精度浮点性能可达 4.85Tflops。在美团云上,一个 M60 的 GPU云主机是拥有一个 GM204 核芯的计算能力,售价为 1.2 元/时(仅GPU,不包括CPU、内存、网络、磁盘的价格)。
M40拥有一个 GM200 核芯,该核芯拥有 3072 个计算单元,拥有12G显存,单精度浮点性能可达 7Tflops。在美团云上,一个 M40 的 GPU云主机是拥有一个 GM200 核芯的计算能力,售价为 2.5 元/时(仅GPU,不包括CPU、内存、网络、磁盘的价格)。
K40 拥有一个 GK110 核芯,该核芯拥有 2880 个计算单元,拥有12GB显存,单精度浮点性能可达 4.29Tflops。出售时的价格是 1.8 元/时(仅GPU,不包括CPU、内存、网络、磁盘的价格)。
执行相同的CNN任务,M40云主机用的时间是 858s,M60云主机用的时间是 931s,K40云主机用的时间是1143s,可见在 CNN 训练时 M40 的性能是 M60 的 1.08倍,M60的性能是K40的1.23倍,M60几乎不逊色于M40。
综上所述,在K40、M40、M60中,M60拥有最高的性价比。

中规中矩,毕竟是免费的显卡资源,能这样撸羊毛我们已经很满足了。总之在这个虚拟环境中我们可以利用其中的软件和硬件实现训练任务。

上传数据

那么数据怎么上传呢?其实我们只要点击下图中的Add Data按钮即可。

《随身GPU服务器:Kaggle中kernels的快速入门指南》

此时会出现这样的界面,kernels中上传数据的方式是多种多样的,我们可以利用别人已经创建好的数据,或者一些比赛中共享的数据,当然我们也可以自己创建数据集,然后在使用的过程中选择使用即可:

《随身GPU服务器:Kaggle中kernels的快速入门指南》

这里举几个已经导入数据集的例子,其中第一个是船只识别的数据集,而第二个是Pytorch神经网络框架中的预训练模型,至于我们如何如何找到他们,其实也很简单。

《随身GPU服务器:Kaggle中kernels的快速入门指南》

因为整个kernel相当于一个虚拟的环境,自然会有路径之类的信息,我们通过在命令前面加上!(感叹号)来使用它,从下面的例子中我们可以看到船只数据集和预训练模型资源的位置:

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zwpysz.html