多模型贝叶斯平均法及MCMC资料
马尔科夫链蒙特卡洛算法在贝叶斯推断中的应用

马尔科夫链蒙特卡洛算法在贝叶斯推断中的应用随着信息技术的发展,数据的规模不断增大,同时数据的复杂度也不断提高。
在这样的情况下,如何利用这些大规模、高复杂度的数据去推断未知的结果,是许多领域所面临的共同问题。
而贝叶斯推断作为一种概率统计的理论框架,近年来在推断问题上已经成为了重要的解决方案。
而马尔科夫链蒙特卡洛算法(简称MCMC)则是贝叶斯推断中的一种重要方法,本文将尝试阐述MCMC算法在贝叶斯推断中的应用。
一、MCMC算法及其基本原理MCMC算法源于计算机模拟及概率统计领域,是为了模拟复杂系统的多维随机变量分布而发展出来的一类算法。
而MCMC算法的核心可以概括为生成随机样本的方法。
具体地,我们可以以Markov链为基础,通过接受拒绝的方式,生成与目标概率分布相符的样本。
那么,什么是Markov链呢?举个简单的例子,比如翻硬币的游戏。
游戏规则如下:每次翻硬币,都有50%的概率是正面,50%的概率是反面。
若用数字“1”和“0”来表示正面和反面的结果,每次翻硬币就会生成一个结果。
如果我们不断地进行翻硬币的游戏,并把结果按翻硬币的时间顺序排列起来,就形成了一个序列,称为Markov链。
上述例子非常简单,但是我们可以看到,每一次翻硬币仅取决于上一次的翻硬币结果,与之前的结果无关。
这就是所谓的“马尔科夫性质”,即未来的状态只与现在的状态有关,与过去的状态无关。
而基于这个性质,我们可以通过MCMC算法,使用Markov链从目标概率分布中生成随机样本。
具体地,MCMC算法中最重要的部分是接受-拒绝步骤。
我们通常定义一个提议分布(proposal distribution),它可以根据当前状态生成一个新的状态。
然后根据当前状态和新的状态,计算接受概率(acceptance probability),即在两个状态之间转移的概率。
$$p_{accept}=\min\left\{\frac{p(\theta_{proposal})}{p(\theta_{cur rent})}\frac{q(\theta_{current}|\theta_{proposal})}{q(\theta_{proposal }|\theta_{current})}, 1\right\}$$在这个公式中,$p()$表示目标概率分布,即我们想要模拟的分布。
基于贝叶斯理论MCMC优化参数的负荷预测模型

基于贝叶斯理论MCMC优化参数的负荷预测模型一、本文概述随着能源市场的快速发展和智能电网的广泛应用,负荷预测已成为电力系统规划和运行管理中的重要环节。
准确的负荷预测不仅能够提高电力系统的稳定性和可靠性,还有助于实现资源的优化配置和节能减排。
近年来,随着大数据和技术的飞速发展,负荷预测模型也在不断更新和优化。
本文旨在探讨基于贝叶斯理论的马尔可夫链蒙特卡洛(MCMC)方法在负荷预测模型参数优化中的应用,以期提高负荷预测的准确性和实用性。
本文将简要介绍负荷预测的重要性和研究背景,阐述当前负荷预测模型的研究现状和发展趋势。
在此基础上,本文将重点介绍贝叶斯理论和MCMC方法的基本原理及其在负荷预测模型参数优化中的应用。
通过构建基于贝叶斯理论的负荷预测模型,并利用MCMC方法进行参数优化,可以实现对模型参数的有效估计和选择,从而提高负荷预测的精度和稳定性。
本文还将通过实际案例分析,验证所提出的基于贝叶斯理论MCMC 优化参数的负荷预测模型的有效性和实用性。
通过与传统的负荷预测模型进行对比分析,展示本文所提出模型在预测精度、稳定性和鲁棒性等方面的优势。
本文将对研究成果进行总结,并展望未来的研究方向和应用前景。
通过本文的研究,希望能够为电力系统负荷预测领域提供一种新颖且高效的模型优化方法,为推动电力系统的智能化和可持续发展做出贡献。
二、贝叶斯理论与MCMC方法贝叶斯理论是一种在统计学中用于更新概率估计的方法,它基于贝叶斯定理,该定理描述了当新的证据出现时,如何根据先验知识更新对某一未知量的信念或概率。
在贝叶斯框架下,未知参数被视为随机变量,并通过先验分布来表达对其可能值的初始信念。
然后,通过收集到的数据,我们可以计算出一个后验分布,该分布反映了在给定数据的情况下,对未知参数可能值的信念。
马尔可夫链蒙特卡洛(MCMC)方法是一种用于从复杂的概率分布中抽样的技术,特别适用于难以直接采样的分布。
MCMC方法通过构建一个马尔可夫链,使其收敛到目标分布,从而在链达到稳定状态后,可以从链中抽取的样本近似地代表目标分布。
贝叶斯统计ppt课件

29
二 参数的Bayes点估计
(3)后验中位数估计
若 Me是后验分布h(θ| x )的中位数, 则 Me称为θ的后验中位数估计。即若
u0.5 h( x)d 0.5
则后验分布中位数估计
Me u0.5
30
二 参数的Bayes点估计
以上三种估计统称θ的Bayes估计,记为
或简记B 为 。它们 皆是样本观察值
18
历史迭代图
不收敛 收敛
19
(2)观察自相关性图 (m)
自相关性图用于描述(m)序列在不同迭代
延迟下的相关性,延迟i的自相关性是指相 距i步的两迭代之间的相关性。具有较差的 性质的链随着迭代延迟的增加会表现出较 慢的自相关衰弱。
20
21
22
23
Bayes Bayes统计推断
Bayes统计推断概述 参数的Bayes点估计 Bayes区间估计 Bayes假设检验
选择检验统计量,确定抽样分布,等等。
41
四 Bayes假设检验
Bayes假设检验不同型:
简单假设 简单假设
复杂假设 复杂假设 假单假设 复杂假设
42
四 Bayes假设检验
Bayes因子
设两个假设Θ0,Θ1的先验概率分布为π0与π1,
即:
0 P( 0 ),1 P( 1)
则 0 1 称为先验概率比。
3
(一)预备知识
4
5
(二)基本思想
6
(三)常用MCMC算法 Gibbs抽样(吉布斯采样算法)
7
8
立即更新的Gibbs抽样
每次迭带的时候 的一些元素已经被跟新了,如果在更
新其他的元素时不使用这些更新后的元素会造成一定程度 的浪费。事实上, Gibbs抽样 可通过在每一步都利用近似 得到的其他元素的值来获得更好的效果。这种方法改进了 练的混合,换句话说,链能更加迅速,更加详尽的搜索目 标分布的支撑空间。
贝叶斯模型平均方法研究综述与展望

贝叶斯模型平均方法研究综述与展望王亮【摘要】贝叶斯模型平均方法是通过后验概率为权重对可能的单项模型进行加权平均,以后验概率大小为标准客观选择解释变量,并通过设置不同的先验概率分布将主观信息与模型和数据信息相融合,进而反映信息更新的动态过程,是处理经济计量建模过程中模型不确定问题的有效方法.文章首先从数理统计视角探讨了贝叶斯模型平均方法的基本原理,其次从模型空间抽样技术、先验概率分布设置等方面评述了贝叶斯模型平均方法的理论研究动态,并重点综述了贝叶斯模型平均方法在解释变量选择和被解释变量预测领域的应用现状,以及贝叶斯模型平均方法的最新发展动向和我国学术界应用贝叶斯模型平均方法的最新进展.最后对贝叶斯模型平均方法在非线性和多方程计量建模领域中的发展进行了展望.文章对国内学者研究贝叶斯模型平均方法具有一定的参考价值.【期刊名称】《技术经济与管理研究》【年(卷),期】2016(000)003【总页数】5页(P19-23)【关键词】贝叶斯模型;计量建模;宏观经济;计量经济【作者】王亮【作者单位】大连民族大学经济管理学院, 辽宁大连 116600【正文语种】中文【中图分类】F064.1运用计量方法刻画、描述和模拟经济事实是目前实证宏观经济研究领域的主流分析范式。
然而由于经济系统的复杂性和经济理论的开放性等原因,建模者在实际计量建模过程中,往往会面临模型不确定(Model Uncertainty)问题。
以最简单的多元回归模型为例:其中,y是被解释变量,xi是解释变量。
建模者经常遇到的情况是,在回归模型中引入变量x2和x3后,变量x1显著;而当再引入变量x4后,却发现变量x1不显著。
因此,在这种情况下,建模者无法判定变量x1和x4哪一个应该被引入到回归模型中来,此即典型的模型不确定问题。
模型不确定问题已是经济计量建模过程中潜在的普遍性问题。
在模型不确定环境下,传统的建模方法严重威胁了计量建模的科学性和稳健性。
由此建立的计量模型在分析预测、政策评价等方面可能会产生严重偏误,甚至会得出错误的研究结论。
MCMC应用于参数贝叶斯估计

湖北大学硕士学位论文MCMC应用于参数贝叶斯估计姓名:周娟申请学位级别:硕士专业:概率论与数理统计指导教师:张绍义20080501MCMC应用于参数贝叶斯估计作者:周娟学位授予单位:湖北大学相似文献(10条)1.学位论文蒋远营混合相依随机变量序列极限理论的若干结果2008概率极限理论是概率论的主要分支之一,也是概率论的其他分支和数理统计的重要基础。
近代极限理论的研究主要在于削弱对独立性的限制,使其更贴近实际、便于验证与应用。
但由于其复杂性,许多问题未得到满意解决. 鉴于此,本文对这些问题进行研究,获得了如下结果:1. 建立了ND(negatively dependent) 随机变量序列的指数不等式和矩不等式.运用这些结果讨论了几乎处处收敛性,将一些几乎处处收敛定理推广到了更为广泛的ND序列上来. 结果,将独立情形下的对数律推广到了ND序列情形下依然成立,文献中相应结果成为其特殊情形,并得到加强. 最后研究了ND序列的完全收敛性,本文将独立情形下的完全收敛定理推广到了ND序列情形下依然成立而未额外添加任何多余条件.2. 针对ρ-混合序列,首先讨论了几乎处处收敛性,改进了杨善朝(1998),甘师信(2004)和吴群英(2001)等人的相应结果. 将经典的Khintchine-Kolmogorov 收敛定理,Marcinkiewicz 强大数定律以及三级数定理等从独立随机变量序列情形推广到了ρ-混合序列情形下而未额外增加任何其它条件;本文还讨论了ρ-混合序列的弱收敛性和完全收敛性. 将经典的弱大数定律和Baum 与Katz 完全收敛定理等等从独立随机变量序列情形推广到了ρ-混合序列情形下,这些结论实质性的改进和推广了文献中的相应结果.2.学位论文幺志梅随机变量序列的极限定理2009概率极限理论不仅是概率论的主要分支之一,而且也是概率论其它分支和数理统计的基础和工具,多参数的概率极限理论广泛应用于生物信息科学、计量经济学、金融经济学等学科.它的方法和结果将继续对其它领域产生巨大影响.因此多参数的的极限理论仍然是当今概率论的重要课题,各国数学家已经将部分单参数的极限理论的一些主要结果推广到多参数的情形[1],国内林正炎,苏淳,白志东,苏中根等教授在这方面也做出了重要的贡献.本人在他们的工作基础上做了一些工作.本论文第一章介绍了随机变量序列极限理论的背景,第二章介绍了大数定律,各种收敛性概念,相关结论及他们相互之间的关系,第三章论述了两参数两两独立随机变量序列加权和的强大数定律.第四章论述了两两NQD列的极限定理,运用概率极限理论的一些基本方法将独立随机变量序列的经典结论进行推广,第五章是结论,总结性列出了本文的主要结果。
- 贝叶斯近似算法介绍-概述说明以及解释

- 贝叶斯近似算法介绍-概述说明以及解释1.引言1.1 概述在贝叶斯统计学中,贝叶斯近似算法是一种通过近似地求解贝叶斯推断问题的方法。
贝叶斯推断是一种基于贝叶斯定理的统计推断方法,旨在估计未知参数的后验分布。
然而,由于后验分布通常难以解析求解,因此需要采用近似算法来求解。
贝叶斯近似算法通过在后验分布中进行采样或使用近似的数值方法来估计参数的后验分布。
这些算法包括马尔可夫链蒙特卡洛方法(MCMC)、变分推断方法等。
本文将介绍贝叶斯近似算法的基本概念,探讨其原理及应用场景,并介绍一些常见的贝叶斯近似算法。
通过深入了解贝叶斯近似算法,读者可以更好地理解和应用这些方法于实际问题中。
1.2 文章结构文章结构部分的内容:本文将首先介绍贝叶斯推断的基本概念,包括其原理和应用场景。
接着,将详细讨论贝叶斯近似算法的概述,包括其核心思想和主要方法。
最后,将探讨贝叶斯近似算法在实际应用中的具体案例和效果。
通过深入了解贝叶斯近似算法的原理和应用,希望读者能够更好地理解其在数据分析和机器学习领域的重要性和价值。
1.3 目的本文旨在介绍贝叶斯近似算法,讨论其在贝叶斯推断中的应用以及其优势和局限性。
通过深入了解贝叶斯近似算法的工作原理和算法流程,读者将能够更好地理解该算法在实际问题中的应用场景和效果。
此外,本文还将探讨贝叶斯近似算法的发展趋势和未来可能的改进方向,为读者提供对该算法的全面认识和深入了解。
通过本文的阅读,读者将能够掌握贝叶斯近似算法的基本概念和原理,从而在实际问题中灵活运用该算法,提高问题求解的效率和精度。
2.正文2.1 贝叶斯推断简介贝叶斯推断是一种基于贝叶斯定理的统计推断方法。
在统计学中,我们通常需要根据收集到的数据来对未知参数进行推断。
贝叶斯推断通过将先验知识和数据信息结合起来,得出对参数的后验分布,从而对参数进行推断。
贝叶斯推断的核心思想是先验概率和后验概率之间的贝叶斯定理。
在贝叶斯推断中,我们首先给定一个先验分布,描述对参数的初始信念或者认识。
基于MCMC算法的贝叶斯网络建模研究

基于MCMC算法的贝叶斯网络建模研究概述近年来,随着数据科学和人工智能领域的发展,贝叶斯网络(Bayesian network)在机器学习和数据挖掘领域中得到了广泛应用。
它是一种概率图模型,能够描述有多个变量之间的关系,并通过概率推断来预测未知的事物。
在实际应用中,我们经常需要对大量的数据进行建模,以便更好地理解各个变量之间的关系。
然而,对于大规模的贝叶斯网络建模来说,传统的贝叶斯推理方法往往面临主观性强、计算量大等问题。
因此,基于MCMC算法的贝叶斯网络建模成为了一种有效的解决方案。
MCMC算法MCMC(Markov Chain Monte Carlo)是一种基于马尔可夫链的概率统计方法。
该方法可以通过一系列状态转移产生样本,并通过样本的数量和分布来估计概率分布。
MCMC算法的核心思想是利用马尔可夫链的稳态分布来估计统计量。
在贝叶斯网络建模中,MCMC算法可以用来估计贝叶斯网络中各个变量节点之间的条件概率分布。
基于MCMC算法的贝叶斯网络建模步骤如下:1.构建初始模型:在构建贝叶斯网络之前,需要确定变量节点的个数和相互之间的关系。
初始模型可以是一个随机图或通过专家经验确定的一个合理的关系结构。
2.引入随机性:在此步骤中,需要引入一定的随机性,以便在不同的状态间进行转移。
可以通过增加或删除边、改变节点的状态、对节点分配权值等方式来引入随机性。
3.计算概率:在每一次转移之后,需要重新计算每个节点的条件概率分布。
这个过程可以通过马尔可夫链的稳态分布来实现。
4.评估模型:在得到稳态分布之后,需要对模型进行评估。
评估指标可以包括节点之间的条件概率分布、结构的准确性和模型的健壮性等。
5.优化模型:根据评估结果,对模型进行优化。
可以通过调整节点之间的关系或权重来提高模型的性能。
应用案例基于MCMC算法的贝叶斯网络建模已经得到了广泛的应用。
以下是一些成功的案例:1.气候数据建模:利用气象数据构建贝叶斯网络建模,预测未来的气候变化。
mcmc原理

MCMC原理什么是MCMCMCMC(Markov Chain Monte Carlo)是一种用于从概率分布中抽样的算法。
它结合了马尔可夫链和蒙特卡洛方法,能够通过迭代的方式逼近目标分布。
MCMC在统计学和机器学习领域被广泛应用,特别是在贝叶斯推断中。
马尔可夫链为了理解MCMC的原理,首先需要了解马尔可夫链。
马尔可夫链是一个随机过程,具有马尔可夫性质,即当前状态的转移概率只依赖于前一个状态,与其他状态无关。
马尔可夫链可以用状态空间和转移概率矩阵来描述。
假设有一个状态空间S,包含所有可能的状态。
每个状态之间的转移由转移概率矩阵P决定,其中P(i,j)表示从状态i转移到状态j的概率。
马尔可夫链的特性是,经过足够多的转移后,状态会收敛到一个稳定的分布。
这个稳定的分布称为平稳分布,也被称为马尔可夫链的平稳分布。
蒙特卡洛方法蒙特卡洛方法是一种基于概率的数值计算方法,通过随机抽样来近似计算。
它的基本思想是,通过生成大量的随机样本,利用样本的统计特性来估计未知的数值。
蒙特卡洛方法的一个重要应用是计算积分。
假设要计算一个函数f(x)在区间[a,b]上的积分∫f(x)dx,可以通过在[a,b]上生成大量的随机样本x,然后计算这些样本对应的函数值f(x),最后取这些函数值的平均值乘以区间长度(b-a)来近似计算积分的值。
MCMC的基本原理MCMC的基本原理是利用马尔可夫链来生成服从目标分布的样本。
具体来说,MCMC通过构建一个马尔可夫链,使得平稳分布就是目标分布。
然后,通过从初始状态开始,通过一系列的转移来逼近平稳分布。
MCMC的核心思想是通过状态转移概率来探索状态空间。
在MCMC算法中,每个状态的转移概率与其在目标分布中的概率成比例。
这样,经过足够多的转移后,马尔可夫链的状态会收敛到目标分布。
MCMC算法的基本步骤如下:1.选择一个初始状态作为马尔可夫链的起点。
2.根据当前状态,通过转移概率进行状态转移。
转移概率可以根据目标分布来确定。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
使用矩阵的表示方式,转移概率矩阵记为: 0.65 0.28 0.07
P 0.15 0.67 0.18 0.12 0.36 0.52
假设当前这一代人处在下层、中层、上层的人的比例是概率分布向量 π0=[π0(1),π0(2),π0(3)],那么他们的子女的分布比例将是 π1=π0*P,他们的孙 子代的分布比例将是 π2=π1*P=π0*P^2, ……, 第n代子孙的收入分布比例将是 πn=πn-1*P=π0*P^n。
P^20=P^21=⋯=P^n=
我们发现,当 n 足够大的时候,这个P^n矩阵的每一行都是 稳定地收敛到π=[0.286,0.489,0.225] 这个概率分布。自然的, 这个收敛现象并非是我们这个马氏链独有的,而是绝大多数 马氏链的共同行为。
马氏链定理
马氏链定理: 如果一个非周期马氏链具有转移概率矩阵P,
步骤:(1)构造或描述概率过程
(2)实现从已知概率分布抽样
(3)建立各种估计量
马尔科夫链简介
马尔可夫链(Markov Chain),描述了一种状态序列,其每个状态值取 决于前面有限个状态。马尔可夫链是具有马尔可夫性质的随机变量的一 个数列。
马尔可夫性质:
MCMC简介
MCMC方法是使用马尔科夫链的蒙特卡洛积分,其基本思 想是:构造一条Markov链,使其平稳分布为待估参数的 后验分布,通过这条马尔科夫链产生后验分布的样本, 并基于马尔科夫链达到平稳分布时的样本(有效样本) 进行蒙特卡洛积分。
其中yBMA为BMA法对系统响应的组合预测值;
最后一项是各单一模型 Mk 的预测值,t为变量; Pr(Mk|D) 为给定数据D下模型的后验概率。 BMA法的实质:以各模型的后验概率为权重,对单一模型的预测值进行
加权平均得到贝叶斯模型平均值 。
蒙特卡洛算法
蒙特卡洛算法基本思想:当所求解问题是某种随机事件 出现的概率,或者是某个随机变量的期望值时,通过某 种“实验”的方法,以这种事件出现的频率估计这一随 机事件的概率,或者得到这个随机变量的某些数字特征, 并将其作为问题的解。
多模型问题的贝叶斯模型平均 组合预测法
预测方法
单一模型预测方法:灰色预测模型
多元统计
BP神经网络法等。
多模型预测方法:加权平均法
最优模型修正
最小方差法等
Байду номын сангаас
贝叶斯模型平均组合预测
贝叶斯模型平均组合预测克服了其他预测模型的以下缺 点:
第一,未考虑主观先验信息。 第二,没有充分提取各预测方法正确的预测信息。 第三,没有考虑模型的不确定因素。
(1)构造Markov链,使其收敛到平稳分布π(x)。
(2)产生样本:由空间中某一点出发,用(1)的 Markov链进行抽样模拟,产生点序列:x1,...,xn.
(3)蒙特卡洛积分。
马尔科夫链及其平稳分布
我们先来看马氏链的一个具体的例子。社会学家经常把人按其经济状 况分成3类:下层(lower-class)、中层(middle-class)、上层(upper-class), 我们用1,2,3 分别代表这三个阶层。社会学家们发现决定一个人的收 入阶层的最重要的因素就是其父母的收入阶层。如果一个人的收入属 于下层类别,那么他的孩子属于下层收入的概率是 0.65, 属于中层收 入的概率是 0.28, 属于上层收入的概率是 0.07。事实上,从父代到子 代,收入阶层的变化的转移概率如下
且它的任何两个状态是连通的,那么 lim Pnij 存在且与i无
关,记
lim
P
n ij
=π(j),我们有
n
n
其中π称为马氏链的平稳分布。
Metropolis-Hastings算法
细致平稳条件:非周期马氏链的转移矩阵P和分布π(x) 满 足
π(i)*Pij=π(j)*Pji (for all i,j)
p(i)q(i,j)α(i,j)=p(j)q(j,i)α(j,i)
取什么样的 α(i,j) 以上等式能成立呢?最简单的,按照对 称性,我们可以取
α(i,j)=p(j)q(j,i),α(j,i)=p(i)q(i,j)
Metropolis-Hastings算法
于是我们把原来具有转移矩阵Q的一个很普通的马氏链, 改造为了具有转移矩阵Q′的马氏链,而 Q′恰好满足细致 平稳条件,由此马氏链Q′的平稳分布就是p(x)。
在改造 Q 的过程中引入的 α(i,j)称为接受率,物理意义可 以理解为在原来的马氏链上,从状态 i 以q(i,j) 的概率转跳 转到状态j 的时候,我们以α(i,j)的概率接受这个转移,于 是得到新的马氏链Q′的转移概率为q(i,j)α(i,j)。
根据这种算法,我们首先分别假设初始概率分布π0=[0.21,0.68,0.11]和 π0=[0.75,0.15,0.1] ,则我们可以迭代计算前n代人的分布状况如下
计算结果
马氏链的收敛
我们发现,两次给定不同的初始概率分布,最终都收敛到概 率分布 π=[0.286,0.489,0.225],也就是说收敛的行为和初始 概率分布 π0 无关。这说明这个收敛行为主要是由概率转移 矩阵P决定的。我们计算一下 P^n
Metropolis-Hastings算法
假设我们已经有一个转移矩阵为Q马氏链(q(i,j)表示从状 态 i转移到状态j的概率,也可以写为 q(j|i)或者q(i→j)), 显 然,通常情况下
p(i)q(i,j)≠p(j)q(j,i)
也就是细致平稳条件不成立,所以 p(x) 不太可能是这个 马氏链的平稳分布。我们可否对马氏链做一个改造,使 得细致平稳条件成立呢?譬如,我们引入一个 α(i,j), 我们 希望
细致平稳条件的物理含义就是对于任何两个状态i,j, 从 i转 移出去到j 而丢失的概率质量,恰好会被从 j 转移回i 的概 率质量补充回来,所以状态i上的概率质量π(i)是稳定的, 从而π(x)是马氏链的平稳分布。
简单验证:m=π(1)*P12-π(2)*P21 =0.286*0.280.489*0.15=0.0067
贝叶斯模型平均组合预测的关键是计算后验概率,计算 后验概率的关键是计算边际似然,边际似然是一个高维、 复杂的积分。目前比较好的方法是马尔科夫蒙特卡洛法。
优点:1、当用不同的条件概率分布时,不需要改变运算 法则。2、全面考虑了贝叶斯模型平均的权重和方差的后 验概率。
贝叶斯模型平均法(BMA)
基本表述