首先关于“回归”这两个字,我觉着有必要先补充一下,这样会让大家更随意马虎接管AI的干系观点。在我们日常生活中提到回归,指返回到某个稳定状态或者回到某个集体,比如台湾回归祖国,房价回归到正常状态等等。那么AI中的回归可以理解为是一个回归的过程,通过不断的演习学习,逐步靠近演习集中的真实值,回归到真实值凑集中去,因此提到回归一定便是有目标,在机器学习中我们把这个目标叫做“标签”,有标签意味着便是监督学习,以是只要看到“xx回归”,这便是监督学习的一种。
在本次讲述的“逻辑回归”中,“逻辑”一样平常指是非对错,代表着2个面,以是一样平常处理二分类的问题:真or假、是or否、True or False、“1”or“0”等等,那么“回归”便是通过演习学习让预测的逻辑结果逐步靠近真实、回归真实。逻辑回归可用于某个评论是否是违规评论、邮件是否是垃圾邮件、评论是积极正向的还是悲观负面的等等。
下面为大家讲讲逻辑回归是如何运行演习的,首先逻辑回归的最开始的输出实在并不是直接给出明确的二分类结果,而是给出介于0-1之间的值,然后我们人为的给这段值划分为2段,一样平常我们都是设定在y≥0.5,即剖断为1(类似四舍五入= =)。详细的演习过程与线性回归的步骤基本同等,只是在某些细节上有些差异(机器学习基本都是这样)如下:
1、准备好演习集,演习集需明确输入x(还记得吧,这个x大概率会是一个向量)和输出(明确指出二分类的结果);
2、给出初始方程,这里就和线性回归不太一样了,会比线性回归更繁芜一些。首先总体函数是一个叫Sigmoid函数(或S形函数)(图像如下图)。其次看大家有没有把稳到,前面说的函数f(x)是关于x的函数,但是在后面并没有涌现x,这便是第二点不一样,逻辑回归的方程式有嵌套的,完全的是一个Sigmoid函数中嵌套一个线性函数z=wx+b,以是完全版的函数是(记得w和x很多时候是向量)
Sigmoid函数图像
3、最关键的一步:通过不断调度w和b两个参数,让方程能够只管即便的拟合演习集中的数据,终极得出一个可以预测出可接管范围内的算法。这一步与线性回归同等,通过不断一小步一小步的调度参数w和b,直到让丢失函数只管即便靠近最小值,这时得到的参数便是一个可以预测是非对错二分类的算法了。
同样,这里再补充几句,紧张是对AI或者说机器学习常常提到的名词进行引入和解释:
1、我们在不断调度w和b的值时,目标是让丢失函数逐步达到最小值,以是这个过程有一个比较贴切的叫法——梯度低落。
2、有的时候我们在演习过程中会涌现一种情形,在“演习集”中表现的很出色,丢失函数特殊小,但是在“测试集”的时候表现又很差,这种情形我们叫做“过拟合”。下图展示关于拟合程度的三种情形,从左到右分别为“欠拟合”、“拟合”、“过拟合”,从图里面我们可以看出,图一过于大略;图二刚刚好;图三过于契合测试集中的数据,太繁芜。因此在演习的时候我们也要记住演习到刚刚好就可以了,太过追求完美随意马虎造成过拟合。
不同拟合程度的三种情形
那么以上便是关于逻辑回归的大略先容,包括逻辑回归的定义、用途以及如何进行逻辑回归的演习,这是办理二分类(是非对错)问题的机器学习技能。感谢大家耐心不雅观看,下一章我将连续讲述机器学习的根本——聚类。
关注不迷路,如果我讲述的内容对您有帮助,请关注、点赞、转发、收藏!
您的支持是我更新的动力来源!