期望极大化(expectation maximization),理学-计算机科学技术-计算机科学理论-概率统计-概率推理,一种求解未观测变量的迭代式计算形式。是在不完整数据上计算概率模型分布参数的一种常用方法。在机器学习中,不直接包含一些变量对应值的采样数据称为不完整数据,这些变量相应地称为未观测变量或隐含变量。期望极大化迭代地使用两个步骤,避开这些缺失的数据又能估计出模型参数:步骤一,根据模型预估参数推断缺失数据,亦即推断出未观测变量的“期望”(名称的前半部分);步骤二,结合所推断数据使用极大似然估计(maximum likelihood estimate)法精化模型参数,亦即“最大化”(名称的后半部分)参数似然,作为下一轮迭代中步骤一使用的预估参数。计算机算法由哈佛大学统计系名誉教授A.P.登普斯特(Arthur Pentland Dempster)等人在1977年命名为EM,E和M分别取自“期望”和“最大化”两个英文单词的首字母。由两个部分构成:①模型参数初始化。②由“期望”步骤(E步骤)和“最大化”(M步骤)组成的迭代部分。