Cronbach’s α 不是萬用的:二元計分該用 KR-20

前陣子在幫一本期刊審稿時,又看到了一個非常典型、許多研究生都會踩到的統計地雷。

這篇研究用了一份自編的知識測驗量表,所有的題目都是「對/錯」的二元計分(0或1)。然而,在信度分析的部分,作者洋洋灑灑地報出了「Cronbach’s α = .85」。

當下我的第一個反應是:數值看起來不錯,但指標用錯了。

如果你也是正在處理問卷數據的碩博士生,或者你設計的量表包含是非題、檢核表、選擇題(答對給 1 分、答錯給 0 分),這篇文章就是為你寫的。我們來聊聊為什麼在這種情況下,你不該報 Cronbach’s α,而應該改用 KR-20 (Kuder-Richardson Formula 20)

為什麼 0/1 計分不能直接用 Cronbach’s α?

在社會科學研究中,Cronbach’s α 幾乎成了內部一致性信度(internal consistency reliability)的代名詞。許多同學跑統計時,不管三七二十一,直接把所有題目丟進軟體裡算 α 值。就像我在之前文章《Cronbach’s α 信度夠高就好嗎?》裡提過的,信度分析不能只看數字高低,還要看你的資料性質。

Cronbach’s α 的設計初衷,是針對「連續變項」或至少是「多點量表的類別變項」(例如典型的 5 點或 7 點李克特量表,Likert scale)。它考慮了題目得分的變異數。

但是,當你的題目是 0 和 1 的二元計分(dichotomous data)時,資料本身是不連續的。這時候,計算連續變異數的數學邏輯就不完全適用了。強行用 SPSS 或其他軟體跑 Cronbach’s α,雖然軟體還是會吐出一個數字給你,但這在統計學理上是不夠嚴謹的。

KR-20 是什麼?它和 Cronbach’s α 有什麼關係?

這時候,我們需要搬出 KR-20

KR-20(Kuder-Richardson Formula 20)是專門用來計算「二元計分」題目內部一致性的信度係數。有趣的是,從數學推導來看,KR-20 其實是 Cronbach’s α 在二元資料下的特例

如果你把 0/1 的資料丟進公式去算,得出來的 KR-20 數值,往往會跟軟體硬算出來的 Cronbach’s α 數值一模一樣,或者極度接近。

你可能會問:「既然數字一樣,那報 Cronbach’s α 錯在哪裡?」

問題出在「專業度」與「對資料性質的理解」。當你在論文裡寫下「本研究以 KR-20 檢驗二元計分題目的信度」時,你是在向審稿人(或口試委員)傳遞一個明確的訊息:我清楚我的資料是類別變項,而且我知道針對這類資料該用什麼統計方法。

相反地,如果你報 Cronbach’s α,審稿人心裡可能會打個問號:「這個作者是不是只會按軟體預設的按鈕,連資料尺度都沒搞清楚?」在競爭激烈的學術期刊審查中,這種小細節往往會影響審稿人對你整體研究嚴謹度的第一印象。

實務上的建議與做法

那麼,如果你現在的手邊正好有這類資料,該怎麼辦呢?我給碩博士生們三個實務上的建議:

第一,檢視你的量表計分方式。
在跑信度之前,先確認每一題的計分尺度。如果是 1-5 分的同意度量表,放心用 Cronbach’s α。如果是對錯題、有/無、是/否這種只有 0 和 1 的計分,請把 KR-20 寫進你的分析計畫裡。

第二,不要被軟體的介面綁架。
很多同學會說:「可是 SPSS 的 Reliability Analysis 預設只有 Alpha 可以選啊!」沒錯,在許多軟體中,如果你硬跑 Alpha,它跑出來的數字其實就是 KR-20 的等效值。但在寫作時,你必須在文字描述和表格標題中,將其正確標示為 KR-20。這是寫作上的嚴謹,與軟體介面無關。

第三,混合題型的量表要分開處理。
這是我最常看到的另一個誤區:同一份問卷裡,前半部是 1-5 分的態度題,後半部是 0/1 的知識題,然後作者把它們全部混在一起跑一個總信度。這在統計上是災難。你應該把李克特量表的部分獨立跑 Cronbach’s α,二元計分的部分獨立跑 KR-20,然後分別在報告中呈現。

結語:魔鬼藏在細節裡

學術研究的價值,很大一部分建立在方法論的嚴謹度上。信度分析只是資料處理的第一步,但這一步走得穩不穩,往往決定了後續分析的基礎。

下次遇到 0/1 計分的量表,別再習慣性地敲下 Cronbach’s α 的按鈕了。換成 KR-20,讓你的論文在細節處展現出真正的學術專業度。這不僅能幫你避開像我這種挑剔的審稿人的法眼,更是對你自己研究資料的一種尊重。

相關文章

References

Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16(3), 297–334.

Kuder, G. F., & Richardson, M. W. (1937). The theory of the estimation of test reliability. Psychometrika, 2(3), 151–160.

如果有問題,歡迎留言。

Leave a Comment

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Scroll to Top