然后我们看看结果, 参数跟预设模型的关系是否合理 很多时候结果跟我们的预测不同, 那什么才算合理 例如数学跟理科两个因子的相关 数学跟理科成绩两个因子的相关是0.5, 0.6, 0.7的相关 但假如模型错误, 缺少或过多路径 那估计结果中数学成绩跟理科成绩的相关是-0.7, -0.8 那一定是出了问题, 可能是模型本身有错误 所以有严重冲突, 模型出现矛盾或出现不合理的结果的话 就要小心是否模型本身有不合理的地方 我们要参考模型的拟合指数 拟合指数一般都是用卡方(Chi-Square) 卡方(Chi-Square)代表我们输入的矩阵S跟输出的再生矩阵Σ距离 卡方(Chi-Square)越大, 距离越远 两个矩阵的吻合度很低 我们发现如果样本N很大 那卡方(Chi-Square)容易出现大的数值 我们有两个策略 一个是就是我们有1000个样本 那只会抽取200个作分析 那得出的卡方(Chi-Square)会较低, 结果更好 如果1000个样本全都作分析 就算吻合度高, 得出的卡方(Chi-Square)仍会很高 那电脑还是会告诉我们拟合度还是不好 所以很多统计学家想办法产生其他指数 使能更加表现出Σ和S的距离 就是我们现在经常用的NNFI NNFI在用途上差不多等于TLI, Tucker-Lewis index 我们希望它大概是0.9 它大概是0.9以上就代表吻合得不错 CFI跟RNI的定义相差不多 我们亦希望它大概是0.9以上 它大概是0.9就代表吻合得不错 RMSEA越小越好, 最好小于0.08或0.05 如果小于0.08或0.05就代表吻合得不错 但要小心 很多标准大过0.9或小于0.08都是很在乎所用的模型 所以一个标准用于所有模型可能差别很大 但很多用家都是将这些数值当是指标来看 另一个要小心的是我们比较模型都会看它们的吻合指数 那究竟模型A还是模型B好呢 那就要看A还是B的吻合指数好 在实际的情况下模型里作检查的话会很复杂 我们知道有时大型模型会有几十个路, 一二百个路径 一二百个路径里改动一两个路径并不能令吻合度有大的影响 所以在比较模型时, 如果A跟B的路径只相差一两个路径 那不论A还是B的吻合度较好或更合理 两个模型的吻合指数都只是相差不多 所以如果我们希望用吻合指数来决定A还是B更好 在很多情况下是不能吻合指数来作比较和测量的 因为可能两个模型的吻合指数都相差不多 另外我们检查这些吻合指数时都需要仔细检查每个部分 每个部分都需要用验证性因素分析去检查 每个因子都需要先检查 因子跟题目的相关和负荷factor loading的好坏 然后才决定题目的好坏 因为将所有东西都放在一起看的话敏感度是不高的 不会看出有问题的题目的