李宏毅机器学习课程笔记-1.机器学习概论

机器学习是什么

机器学习就是让机器能自动找到一个函数(function)

语音识别(Speech Recognition)

输入是音频,输出是音频对应的文字。

图像分类

输入是图片,输出是类别(比如猫、狗)。

AlphaGo下围棋

输入是当前棋盘的状态,输出是下一步落棋的位置。

对话/问答系统

机器能够找到哪些函数?

为解决不同的问题、完成不同的任务,需要找到不同的函数,那机器学习能找到哪些函数呢?

回归(Regression)

输出是一个连续的数值、标量,比如PM2.5预测。

分类(Classification)

输出是一个离散的值。

二分类(Binary Classification)的输出就是0或1、Yes或No、…,比如文本情感分析的输出可以是正面和负面。

多分类(Multi-Category Classification)的输出就是[1,2,3,...,N],比如图像分类里判断一张图片是猫还是狗还是杯子。

生成(Generation)

很多教科书把机器学习划分为回归问题和分类问题,但其实不止这两种问题,还有其它问题,比如生成(Generation)。

生成(Generation)指让机器学习如何创造/生成,比如生成文本、图片等。

如何告诉机器我们希望找到什么函数

我们该如何为机器提供学习资料?

有监督学习(Supervised Learning)

可以把有监督学习中的“监督”理解为“标签(Label)”,即数据集中不仅包括特征还包括标签。

有了标签,我们就可以评价一个函数的好坏,进而优化这个函数。

使用Loss判断函数的好坏,Loss越小,函数越好。个人想法:值得一提的是,Loss/评价指标是多样的、优化方法也是多样的。

强化学习(Reinforcement Learning)

原始的AlpahGo是先通过有监督学习优化到一定程度,然后用强化学习继续优化。

新版本的AlphaGo是完全通过强化学习实现的,优于原始的AlphaGo。

无监督学习(Unsupervised Learning)

只给机器提供数据特征,但不提供数据标签。那机器能学到什么呢?

下面以让机器学习下围棋为例:有监督学习VS强化学习。

有监督学习

函数的输入(数据特征)就是棋盘状态,函数的输出(数据标签)就是下一步落棋的位置。

此时,我们需要为机器提供的数据就类似棋谱(如果现在棋局是这样,那下一步怎么落棋最好),但其实人类不一定知道怎么落棋最好

个人想法:理论上,通过这样的有监督学习,机器是无法超越人类的。因为这样的有监督学习的本质是人类把自己的下棋策略教给机器,机器学习的内容仅仅是人类的下棋策略而无法“自主进行思考”,所以理论上机器是无法超越人类的。同时要注意,这里的人类指全人类。

强化学习

让机器跟自己、别人下棋,把结果(赢或输)作为Reward,引导机器学习如何下棋。

如果它赢了,那它就知道这一盘里有几步棋下得好,但不知道是哪几步;如果它输了,它就知道这一盘里有几步棋下得不好,但不知道是哪几步。

个人想法:理论上,通过这样的强化学习,机器是可以超过人类的。因为两者的学习材料没有本质区别,但机器的机能却优于人类,这里讲的机能包括信息共享能力、记忆能力、执行能力等方面

机器如何找出我们想找到的函数

我们要给定函数形式/范围(模型)

比如假定函数是线性模型、神经网络等等。模型就是一个函数集,模型的参数确定以后,才得到一个函数。

找到更好的函数:

使用梯度下降(Gradient Descent),找到更好的函数。

前沿研究

AI的可解释性(Explainable AI)

比如,机器为什么认为这张图片里有一只猫?

对抗攻击(Adversarial Attack)

对输入故意添加一些人无法察觉的细微的干扰,导致模型以高置信度给出一个错误的输出。

模型压缩(Network Compression)

把模型压缩以减少模型对计算资源消耗。

异常检测(Anomaly Detection)

使机器知道它遇到了自己不知道的东西。

迁移学习(Transfer Learning/Domain Adversarial Learning)

一个模型已经学到了一些知识,将这些知识应用到另一个任务中。

元学习(Meta Learning)

让机器学习如何学习。

机器学习是我们教机器学习某种知识,元学习是我们教机器如何学习。

终身学习(Life-Long Learning)

让机器终身学习,学习完任务1、再继续学任务2、……

机器学习的三个步骤

确定模型(Model)/函数集(Function Set)

确定如何评价函数的好坏

确定如何找到最好的函数

Github(github.com):@chouxianyu

Github Pages(github.io):@臭咸鱼

知乎(zhihu.com):@臭咸鱼

博客园(cnblogs.com):@臭咸鱼

B站(bilibili.com):@绝版臭咸鱼

微信公众号(WeChat Official Accounts):@臭咸鱼的快乐生活

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/wpsfsz.html