浅谈随机向量与随机矩阵

随机向量与随机矩阵有个反直觉的性质。

阅读全文

概率图模型系列(5):条件随机场CRF

HMM引入马尔科夫假设,当前状态只与前一时刻状态有关,然而在很多情况下知道前一时刻状态与后一时刻状态对当前状态的判定有准确,例如分词。这种情况下,MEMM解决去掉了HMM的观察独立性假设,解决HMM的问题。但是,由于MEMM存在局部归一化问题,导致其倾向于选择状态转移更少的状态,引发标签偏置问题。CRF通过引入全局归一化能够解决MEMM标签偏置问题。

阅读全文

概率图模型系列(4):MEMM

最大熵马尔可夫模型(MEMM)是使用最大熵原理作为学习准则的马尔科夫模型。

阅读全文

概率图模型系列(3):隐马尔可夫模型(HMM)

HMM是描述时间序列生成的概率模型,属于概率生成模型,由一个隐藏的马尔可夫链随机生成不可观测的状态序列,再由各个状态随机生成一个可观测状态,进而构成观测序列的过程。

阅读全文

概率图模型系列(2):最大熵原理和最大熵模型

本系列虽然讲概率图模型,但是搞明白最大熵模型需要理解熵、最大熵原理、最大熵分布、最小熵原理与最大熵模型(MEM)。最大熵模型也是CRF模型的基础。

阅读全文

概率图模型系列(1):朴素贝叶斯分类器

本篇是概率图模型系列的第一篇,首先介绍朴素贝叶斯分类器和Logistic模型。

阅读全文

范数正则化的原理分析(二):参数约束与最大熵原理

最大熵原理角度看参数约束

阅读全文

范数正则化的原理分析(一):贝叶斯学派角度

范数正则化是机器学习和深度学习中最常用的正则化手段,本文讲述从贝叶斯角度理解范数正则化,另外还提供信息论上的解释。$L_1$、$L_2$​​正则化都是解决模型过拟合的方法,它们有什么数学上的解释呢?

阅读全文

集成分类的有效性证明

本文证明分类问题使用集成学习方法的有效性。

阅读全文

Logistic模型及其推广

从线性模型出发,再到odds & logit这两个概念,然后介绍Logistic模型及其推广。

阅读全文

马尔可夫链及其Python实现(补充)

简单理解马尔可夫链,以及使用Python实现一下。

阅读全文

交叉验证和数据泄漏

任何学习任务,只要模型容量足够,都可以在训练集上达到最优性能,最直观的一点是,模型足够复杂,训练时它记住了训练数据中的所有输入输出的映射关系,从而达到最优性能。然而,这并不是我们想要的模型,因为模型只是“记住”训练样本,而非学习到所有样本包括测试集合从未见过的样本的一般特征。为解决这个问题,引入交叉验证方法相对有意义。需要注意,不恰当的交叉验证方法可能会引起数据泄漏。

阅读全文

机器学习中分类与回归问题常用的损失函数

分类中常用的损失函数

回归和预测中常用的指标 (损失函数)

阅读全文

极大似然估计与最小二乘法的关系

本文分析极大似然估计与最小二乘法的关系。

阅读全文

频率学派与贝叶斯学派之争

频率学派与贝叶斯学派在参数估计中分别对应最大似然估计(MLE)与最大后验估计(MAPE),它们都是机器学习和数理统计中常见的参数估计方法。今天我们先分析一下频率学派与贝叶斯学派的出发点和基本思想差异。

阅读全文

最大熵原理、最大熵约束与概率分布

本文讲最大熵原理,并从最大熵约束角度导出常见概率分布。

阅读全文

漫谈“熵”

如果度量信息量的多少?漫谈“熵”

阅读全文

漫谈概率论与信息论中的不等式

本文证明常用的概率或信息论相关的不等式,会持续更新~

阅读全文

解释常见的统计分布

分布是数据生成之母,这里梳理常见的概率分布。

阅读全文

Minkowski距离、Mahalanobis距离、Wasserstein距离

本文总结Minkowski距离、Mahalanobis距离、Wasserstein距离。

阅读全文