如何理解最大似然估计?
1 469
1
该提问暂无详细描述
收藏
2021-01-18 10:39 更新 🍊小桔子 •  2439
共 1 个回答
高赞 时间
0

我们使用最大似然估计(MLE)的主要原因是它通常易于计算。在最好的情况下,使用它的逻辑依据很弱,而且常常是错误的。 参数的MLE值最有可能产生你观察到的结果的值。相反,这是合理的逻辑。如果一个参数值不太可能观察到你的结果,那么它就不太可能是正确的参数值。但是,在所有合理观察到的结果的参数估计中,没有充分的理由偏向于最大可能性。 MLE的一个论点是,最大似然点可能在似然区域的中心附近,因此,这是似然参数值之间合理的平均猜测,这在某些对称或近似对称的情况下可能是对的。但当MLE是一个拐角值时,它就出错了。 例如,你观察到一个篮球运动员罚球10投10中,他罚球成功的概率是1的假设是很有可能的。但这不是合理值区域的中心,而是一个极端。 当您具有除观察值以外的参数信息时,该参数也会失败。在罚球的例子中,世界上一些罚球技能高的人通过大量练习可以使概率达到大约95%左右;最好的篮球运动员的典型代表可以达到70%左右;对于大多数健康的成年人来说,并不难达到50%的概率。 如果我们看到有人10投6中,60%的最大可能性估计并不奇怪。但是,如果我们看到10分之9,就猜出90%,或者如果我们看到10分之1,就猜测10%,那这种行为是愚蠢的。 另一个问题是MLE高度依赖于模型。例如,假设你知道某个地方过去10000天中有500天下雪。如果你的模型是每天下雪的概率是一个常数,那么这个常数的值是5%,这个常数给出了10000个雪日中观测500个雪日的最大概率。 但由于大多数地方降雪的实际概率因日历而异,半年或更长时间内可能接近零,最冷月份可能是平均值的四倍,因此你的模型是错误的,你的估计可能会有很大偏差,至少在8月和2月是如此。 当你有充分的理由相信你的模型是正确的,除了你的数据之外几乎没有有用的信息,而且结果似乎接近合理范围的中心时,MLE是最有意义的。

收藏
2021-01-18 11:04 更新 Lisa •  1800