DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
  1. 首页/
  2. 博客列表/
  3. 博客详情

LDA的Gibbs抽样详细推理与理解

2017-01-08 21:39:18
4,389 阅读
Gibbs抽样LDA

本文作者:合肥工业大学 管理学院 钱洋 email:1563178220@qq.com 欢迎交流。 #LDA图模型表示

这里写图片描述
这里写图片描述

#LDA所要求得目标分布 关于LDA的理解,可以去看《LDA数学八卦》以及Heinrich G. Parameter estimation for text analysis[J]. University of Leipzig, Tech. Rep, 2008这两篇文章。

其实LDA所要做的就是求主题的后验分布。由于这里打公式太麻烦,我就把我写的word直接截图了。下面开始上图。

这里写图片描述
这里写图片描述

#联合概率分布 从上看的式子可以看出,要想求得主题的后验分布,必须去求主题和单词的联合概率分布。下面来求联合概率分布。哎,敲公式,实在太烦,还是上图。。。。

这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

#求解 下面是最关键的求解,怎么对公式进行化简。本人刚学LDA不过两个多星期,而求解的过程浪费了不少时间。幸亏有我大佳佳师兄指导(LDA数学八卦看了三遍,Parameter estimation for text analysis看了3,4遍,Probabilistic Topic Models看了2遍),所以建议大家集中时间,不要断断续续的看。

这里写图片描述
这里写图片描述

这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

#参考文献 Heinrich G. Parameter estimation for text analysis[J]. University of Leipzig, Tech. Rep, 2008 LDA数学八卦

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码
返回博客列表

相关博客

  • Author Topic Model[ATM理解及公式推导]

热门博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署