Residual Deviance

統計用語の1つで、よく一般化線形モデル等で解析を行うと出てくる言葉。
H先生は、「残差の平方和」と言っていた。つまり、この値が小さいほど、当てはまりがいいわけだ。(ちなみに、GLMではこの標準誤差が1に)

また、K先生の講義ノートでは、「実験者が(解析者)が、調べたいモデルの-2*logLikと、null modelつまり最小限のモデルの-2*logLikの差」
と書いてある。

なかなか古典的統計と、最尤法が結びついていないのだが、なぜ残差の平方和つまりΣ(Y-yi)^2と対数尤度の差に-2をかけたものが等しいのか?