另一个缩小重排序范围的原因是性能问题。构建和评估模型都是计算密集型的。因为训练模型时要求每个特征都是一个文档或者文档和用户关系的数值表示,它必须每次都能用于计算。因为用户期望搜索结果在秒级或毫秒级返回,对1000到2000个文档同时做二次排序,要比对每次搜索的数万甚至数百万文档二次排序代价低。
后续内容本文是机器学习排序系列文章的第二篇,如果想亲自动手尝试,可以试试我们开发的Elasticsearch的LTR插件!敬请关注本系列的更多文章:
另一个缩小重排序范围的原因是性能问题。构建和评估模型都是计算密集型的。因为训练模型时要求每个特征都是一个文档或者文档和用户关系的数值表示,它必须每次都能用于计算。因为用户期望搜索结果在秒级或毫秒级返回,对1000到2000个文档同时做二次排序,要比对每次搜索的数万甚至数百万文档二次排序代价低。
后续内容本文是机器学习排序系列文章的第二篇,如果想亲自动手尝试,可以试试我们开发的Elasticsearch的LTR插件!敬请关注本系列的更多文章:
内容版权声明:除非注明,否则皆为本站原创文章。
转载注明出处:https://www.heiqu.com/a0079dfb3a0aceb5fc0e48b4f5036eeb.html