首页
博客
源码
资源
博客
源码
写文章
发布博客
发布资源
登录
X
机器学习
相关资讯
热门
最新
后端
01-01 08:00
后端
机器学习基础 | 互相关系数和互信息异同探讨
机器学习基础 | 互相关系数和互信息异同探讨,机器学习基础|互相关系数和互信息异同探讨主要阐述互相关系数和互信息的区别和联系,先说结论:对于高斯分布,两者是等价的,且存在转换公式,当XX与YY互相关系数为零时,两者相互独立,且互信息为零;当互相关系数为±1±1时,两者完全相关且互信息为无穷大,转换公式:I(X,Y)=−12log(1−r2)I(X,Y)=−12log(1−r2)一般情形,互相关系
148
后端
01-01 08:00
后端
机器学习sklearn(61):算法实例(十八)聚类(一)概述
机器学习sklearn(61):算法实例(十八)聚类(一)概述,机器学习sklearn(61):算法实例(十八)聚类(一)概述1无监督学习与聚类算法聚类vs分类2sklearn中的聚类算法聚类算法在sklearn中有两种表现形式,一种是类(和我们目前为止学过的分类算法以及数据预处理方法们都一样),需要实例化,训练并使用接口和属性来调用结果。另一种是函数(function),只需要输入特征矩阵和超参
299
后端
01-01 08:00
后端
机器学习算法之K近邻算法
机器学习算法之K近邻算法,机器学习算法之K近邻算法0x00概述K近邻算法是机器学习中非常重要的分类算法。可利用K近邻基于不同的特征提取方式来检测异常操作,比如使用K近邻检测Rootkit,使用K近邻检测webshell等。0x01原理距离接近的事物具有相同属性的可能性要大于距离相对较远的。这是K邻近的核心思想。K邻近K-NearestNeighbor,KNN算法,KNN指K个最近的邻居,可认为每个
177
后端
01-01 08:00
后端
机器学习-深度学习-强化学习-知识总结
机器学习-深度学习-强化学习-知识总结,机器学习-深度学习-强化学习-知识总结MetricLearning:度量学习,距离度量学习(DistanceMetricLearning,DML),相似度学习,传统机器学习方法,在人脸识别任务中,可以通过某个指标来衡量不同图片之间的相似度。MetaLearning:元学习,就是learningtolearn,在一项任务上学习得到一个模型f1,能够自己在其他任
128
后端
01-01 08:00
后端
机器学习一到三章笔记
机器学习一到三章笔记,机器学习一到三章笔记1.1什么是模式识别定义:模式识别是根据已有的知识表达,针对待识别模式,判别决策其所属的类别或者预测其对应的回归值。应用领域:计算机视觉,人机交互,医学,网络,金融,机器人,无人车。1.2模式识别数学表达1.数学解释:看成一种函数映射f(x),将待识别模式x从输入空间映射到输出空间,f(x)是关于已有知识的表达。2.模型:关于已有知识的一种表达方式,即函数
220
后端
01-01 08:00
后端
机器学习之KNN(k近邻)算法详解
机器学习之KNN(k近邻)算法详解,机器学习之KNN(k近邻)算法详解文章目录1-1机器学习算法分类一、基本分类:①监督学习(Supervisedlearning)②无监督学习③半监督学习④强化学习小结:2-1KNN基本流程一、概念:2-2K值的选择2-3kd树一、原理:二、构造方法:1-1机器学习算法分类一、基本分类:①监督学习(Supervisedlearning)数据集中的每个样本有相应的“
151
后端
01-01 08:00
后端
机器学习(27)【降维】之主成分分析(PCA)详解
机器学习(27)【降维】之主成分分析(PCA)详解,机器学习(27)【降维】之主成分分析(PCA)详解昱良机器学习算法与Python学习前言主成分分析(Principalcomponentsanalysis,以下简称PCA)是最重要的降维方法之一。在数据压缩消除冗余和数据噪音消除等领域都有广泛的应用。一般我们提到降维最容易想到的算法就是PCA,下面我们就对PCA的原理做一个总结。PCA基本思想PC
168
后端
01-01 08:00
后端
机器学习狗太苦逼了!自动化调参哪家强?
机器学习狗太苦逼了!自动化调参哪家强?,动机:机器学习狗太苦逼了在给定的数据集上实现最先进的结果是十分困难的。这往往需要小心翼翼地选择正确的数据预处理方式,精心挑选算法、模型及架构,并装配最合适的一套参数。这种端到端的过程通常被称为机器学习流水线/工作流。这套流程中的每一步怎么走并没有一个经验上的固定方向。而且,因为新的模型不断被开发出来,就连选择合适的模型都成为了一个巨大挑战。超参数的调试通常需
218
后端
01-01 08:00
后端
机器学习陷入困境!谷歌大脑专家发文吐槽AI工程现状
机器学习陷入困境!谷歌大脑专家发文吐槽AI工程现状,现代加速器编译在试图改进胶囊网络的实现,以扩大到更大的数据集时,研究团队有了这篇论文的初步想法。胶囊网络是一个令人兴奋的机器学习研究思想,其中标量值的“神经元”被小矩阵取代,使它们能够捕捉更复杂的关系。胶囊或许不是机器学习中的“下一个大事件”,但它算是创新性机器学习研究理念的一个代表性例子。虽然卷积胶囊模型需要的浮点运算(FLOPs)比卷积神经网
188
后端
01-01 08:00
后端
机器学习所需的工程量未来会大大减少
机器学习所需的工程量未来会大大减少,作者|DavidLiCause译者|平川编辑|陈思未来,构建ML产品将更加有趣,并且这些系统会工作得更好。随着ML自动化工具的不断改进,数据科学家和ML工程师将把更多的时间花在构建优秀的模型上,而花在与生产级ML系统相关的繁琐但必要的任务上的时间会更少。本文最初发布于KDnuggets,经原作者授权由InfoQ中文站翻译并分享。AI是一个系统工程问题。构建一个有
187
«
1
2
3
4
5
6
»