Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)

Dirichlet过程是一个随机过程,在非参数贝叶斯模型中有广泛运用,最常见的应用是Dirichlet过程混合模型

小木 85292 Dirichlet分布/Dirichlet过程/无限混合模型/混合模型/贝叶斯模型
贝塔分布(Beta Distribution)简介及其应用

贝塔分布(Beta Distribution)是一个连续的概率分布,它只有两个参数。它最重要的应用是为某项实验的成功概率建模。在本篇博客中,我们使用Beta分布作为描述。

小木 59065 BetaDistribution/Beta分布/推断/统计
回归模型中的交互项简介(Interactions in Regression)

在回归模型中加入交互项是一种非常常见的处理方式。它可以极大的拓展回归模型对变量之间的依赖的解释。本篇博客将简要介绍这个交互项。

小木 54939 交互项/回归模型/正则项
使用R语言进行K-means聚类并分析结果

R语言进行数据分析非常简单方便,在这篇博客中,我们将描述如何使用R语言进行K-means聚类分析,并分析结果。

小木 46158 K-means/R语言/聚类
矩母函数简介(Moment-generating function)

在统计学中,矩母函数是一个关于随机变量的实值函数,它可以替代密度函数来描述分布。也就是说,出了概率密度函数外,我们也可以通过矩母函数来描述分布。

小木 40846 分布/统计
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程

在统计学中,普通最小二乘法(OLS)是一种用于在线性回归模型中估计未知参数的线性最小二乘法。这篇博客将简要描述其参数的求解过程。

小木 35162 优化/回归/最小二乘法/机器学习
Wishart分布简介

Wishart分布在多元高斯的贝叶斯推断中非常重要。它通常作为正态分布的协方差矩阵的逆矩阵的共轭先验存在。这篇博客将详细讲述Wishart分布及其作用。

小木 25845 Wishart分布/分布/多元正态分布/统计/高斯分布
深度学习技巧之Early Stopping(早停法)

当我们训练深度学习神经网络的时候通常希望能获得最好的泛化性能(generalization performance,即可以很好地拟合数据)。但是所有的标准深度学习神经网络结构如全连接多层感知机都很容易过拟合:当网络在训练集上表现越来越好,错误率越来越低的时候,实际上在某一刻,它在测试集的表现已经开始变差。早停法就是一种防止深度学习网络模型过拟合的方法。

小木 24175 深度学习/深度学习技巧
R语言分析面板数据:简单案例

面板数据,即Panel Data,也叫“平行数据”,是指在时间序列上取多个截面,本文介绍了一个R语言处理面板数据的案例

慕清雪 21342 R语言/面板数据
多元高斯分布(多元正态分布)简介

高斯分布是一种非常常见的分布,对于一元高斯分布我们比较熟悉,对于高斯分布的多元形式有很多人不太理解。这篇博客的材料主要来源Andrew Ng在斯坦福机器学习课的材料。

小木 21317 正态分布/统计基础/高斯分布
Generative Adversarial Networks 生成对抗网络的简单理解

这几年在机器学习领域最亮最火最耀眼的新思想就是生成对抗网络了。这一思想不光催生了很多篇理论论文,也带来了层出不穷的实际应用。Yann LeCun 本人也曾毫不吝啬地称赞过:这是这几年最棒的想法!

somTian 21107 GAN/深度学习/生成对抗网络
深度学习基础——激活函数以及什么时候该使用激活函数

这篇博客是来自Analytics Vidhya的一篇文章。写的很不错。

小木 17231 深度学习/激活函数
机器学习中的高斯过程

关于高斯过程,其实网上已经有很多中文博客的介绍了。但是很多中文博客排版实在是太难看了,而且很多内容介绍也不太全面,搞得有点云里雾里的。因此,我想自己发表一个相关的内容,大多数内容来自于英文维基百科和几篇文章。

小木 16487 机器学习/统计/非参数模型/高斯过程
Python中的Pickle操作(pkl文件解释)

您刚刚经历了一个耗时的过程,将一堆数据加载到python对象中。 也许你从数千个网站上爬取了数据。也许你计算了pi的数值。如果您的笔记本电脑电池耗尽或python崩溃,您的信息将丢失。 Pickling允许您将python对象保存为硬盘驱动器上的二进制文件。 在你pickle你的对象后,你可以结束你的python会话,重新启动你的计算机,然后再次将你的对象加载到python中。

小木 14548 python/序列化
狄利克雷过程混合模型(Dirichlet Process Mixture Model, DPMM)

狄利克雷过程混合模型(Dirichlet Process Mixture Model, DPMM)是一种非参数贝叶斯模型,它可以理解为一种聚类方法,但是不需要指定类别数量,它可以从数据中推断簇的数量。这篇博客将描述该模型及其求解过程。

小木 13914 dirichletprocessmixturemodel/dpmm/混合模型/非参数贝叶斯
层次贝叶斯模型(一) 之 构建参数化的先验分布

这个系列的博客来自于 Bayesian Data Analysis, Third Edition. By. Andrew Gelman. etl. 的第五章的翻译。实际中,简单的非层次模型可能并不适合层次数据:在很少的参数情况下,它们并不能准确适配大规模数据集,然而,过多的参数则可能导致过拟合的问题。相反,层次模型有足够的参数来拟合数据,同时使用总体分布将参数的依赖结构化,从而避免过拟合问题。

小木 13539 层次模型/统计推断/贝叶斯模型
深度学习卷积操作的维度计算(PyTorch/Tensorflow等框架中Conv1d、Conv2d和Conv3d介绍)

卷积操作的维度计算是定义神经网络结构的重要问题,在使用如PyTorch、Tensorflow等深度学习框架搭建神经网络的时候,对每一层输入的维度和输出的维度都必须计算准确,否则容易出错,这里将详细说明相关的维度计算。

小木 12736 PyTorch/卷积神经网络/深度学习
层次狄利克雷过程(Hierarchical Dirichlet Processes)

Dirichlet过程是一种重要的非参数模型,它可运用在聚类中,自动发现类别的数量。但很多时候,我们的工作都是具有层次话的。这篇文章介绍的层次狄利克雷模型就是解决这样的问题的。

小木 11967 DPMM/HDP/统计
keras解决多标签分类问题

multi-class classification problem和 multi-label classification problem在keras上的实现

somTian 11907 keras/multi-label
正则项的理解之正则从哪里来

在机器学习或者深度学习中,正则项是我们经常遇到的概念。它对提高模型的准确性和泛化能力非常重要。本文详细描述了正则项的来源以及与其他概念的相关关系。

小木 11883 人工智能/机器学习/正则化/正则项/深度学习
推荐系统之概率矩阵分解的详细推导过程(Probabilistic Matrix Factorization,PMF)

本篇博客详细说明了概率矩阵分解(Probabilistic Matrix Factorization,PMF)的推导过程

小木 11213 PMF/推荐/概率矩阵分解/矩阵分解
Tensorflow中数据集的使用方法(tf.data.Dataset)

Tensorflow中tf.data.Dataset是最常用的数据集类,我们也使用这个类做转换数据、迭代数据等操作。本篇博客将简要描述这个类的使用方法。

小木 10909 python/tensorflow/编程
集成学习(Ensemble Learning)简介及总结

集成学习(Ensemble Learning)是解决有监督机器学习的一类方法,它的思路是基于多个学习算法的集成来获取一个更好的预测结果。本文将介绍相关概念,并对一些注意事项进行总结。

小木 10113 有监督的学习/机器学习/集成学习