英文原版请移步Avik-Jain。
翻译前请先阅读规范。
今天我深入研究了逻辑回归到底是什么,以及它背后的数学是什么。学习了如何计算代价函数,以及如何使用梯度下降法来将代价函数降低到最小。
由于时间关系,我将隔天发布信息图。如果有人在机器学习领域有一定经验,并愿意帮我编写代码文档,也了解github的Markdown语法,请在领英联系我。
为了使我对逻辑回归的见解更加清晰,我在网上搜索了一些资源或文章,然后我就发现了Saishruthi Swaminathan的这篇文章
它给出了逻辑回归的详细描述。请务必看一看。
直观了解SVM是什么以及如何使用它来解决分类问题。
了解更多关于SVM如何工作和实现knn算法的知识。
今天我在线性相关数据上实现了SVM。使用Scikit-Learn库。在scikit-learn中我们有SVC分类器,我们用它来完成这个任务。将在下一次实现时使用kernel-trick。Python代码见此处,Jupyter notebook见此处。
学习不同类型的朴素贝叶斯分类器同时开始Bloomberg的课程。课程列表中的第一个是黑河机器学习。它给出了预测函数,特征提取,学习算法,性能评估,交叉验证,样本偏差,非平稳性,过度拟合和超参数调整的整体观点。
使用Scikit-Learn库实现了SVM算法以及内核函数,该函数将我们的数据点映射到更高维度以找到最佳超平面。
在1天内完成第1周和第2周内容以及学习课程中的逻辑回归神经网络。
完成课程1。用Python自己实现一个神经网络。
开始Yaser Abu-Mostafa教授的Caltech机器学习课程-CS156中的课程1。这基本上是对即将到来的课程的一种介绍。他也介绍了感知算法。
完成改进深度神经网络第1周内容:参数调整,正则化和优化。
观看了一些关于如何使用Beautiful Soup进行网络爬虫的教程,以便收集用于构建模型的数据。
完成Yaser Abu-Mostafa教授的Caltech机器学习课程-CS156中的课程2。学习Hoeffding不等式。
Bloomberg ML课程的第3课介绍了一些核心概念,如输入空间,动作空间,结果空间,预测函数,损失函数和假设空间。
发现YouTube一个神奇的频道3Blue1Brown,它有一个播放列表《线性代数的本质》。看完了4个视频,包括了向量,线性组合,跨度,基向量,线性变换和矩阵乘法。
播放列表在这里。
继续观看了4个视频,内容包括三维变换、行列式、逆矩阵、列空间、零空间和非方矩阵。
播放列表在这里。
继续观看了3个视频,内容包括点积和叉积。
播放列表在这里。
观看了剩余的视频12到14,内容包括特征向量和特征值,以及抽象向量空间。
播放列表在这里。
完成上一播放列表后,YouTube推荐了新内容《微积分的本质》,今天看完了其中的3个视频,包括导数、链式法则、乘积法则和指数导数。
播放列表在这里。
观看了2个视频,内容包括隐分化与极限。
播放列表在这里。
观看了剩余的4个视频,内容包括积分与高阶导数。
播放列表在这里。