hello,我是kk~
今天看到社群里有同学反馈,说是面试腾讯,居然让手推LR。
底下不出所料的一片哗然,绝大多数同学说,这么简单,送分题好吗?
大家觉得是不是送分题,评论区给出~
那咱们今天也就这个话题,大概捋一捋其中的原理:
手撕逻辑回归
手推逻辑回归模型的推导涉及到最大似然估计(MLE)。
逻辑回归是一种二分类模型,通过 sigmoid 函数将线性组合的特征映射到一个概率值,然后利用最大似然估计来找到最优的参数。
下面给出逻辑回归的推导过程:
1. 定义模型:
我们的模型是一个 sigmoid 函数,用来将线性组合的特征映射到一个概率值。
其中
是预测的概率,
是参数向量,
是特征向量。
2. 定义似然函数:
对于给定的样本集合
,每个样本的标签为
(0 或 1),似然函数定义为所有样本被正确分类的概率。
3. 对数似然函数:
取对数似然函数,这样可以方便后续计算,而且对数函数是单调递增的。
4. 损失函数:
对数似然函数取负值并除以样本数量得到损失函数。这样我们的目标就是最小化损失函数,即最大化似然函数。
5. 梯度下降:
求解最优参数,通过对损失函数
求偏导数,得到梯度。
利用梯度下降法更新参数:
其中
是学习率。
6. 迭代:
重复梯度下降步骤,直到收敛或达到迭代次数。
这样,我们通过最大似然估计推导出了逻辑回归的损失函数,并通过梯度下降法找到了最优参数。这个推导的过程是为了找到使观测数据出现的概率最大的模型参数,从而实现对样本分类的目的。推荐阅读
不愧是微软,巨深入
不愧是京东,面试超开心
拼多多,目前薪资天花板