2018 年發表的研究系統性分析了 784 篇投稿的拒稿原因,雖然資料來自神經科/頭痛醫學期刊,但裡面列出的六大拒稿理由,在教育與社會科學領域同樣高度適用。
樣本與方法
從 2014 到 2016 年投稿至此期刊的 784 篇稿件中,只有 434 篇送外審,外審後被拒的有 155 篇。作者對這 155 篇的拒稿意見進行編碼分析。
拒稿原因分成九大類,由高至低為:
- 方法:85.8%
- 定義案例:70.3%
- 討論/結論:64.5%
- 統計問題:53.5%
- 背景/目的:51.0%
- 一般:37.4%
- 結果:34.2%
- 倫理:21.3%
- 寫作:20.0%
每篇文章拒稿原因的中位數是 5 個。也就是說,大多數被拒的論文,不是踩了一個雷,而是同時踩了五個。
作者進一步從中提煉出六個最關鍵的拒稿原因,以下逐一說明,並補充我在教育類期刊投稿與評審的實際觀察。

拒稿原因一:方法與研究設計的缺陷
方法上、研究設計上的缺陷(flaws in methodology and study design),74.8% 的拒稿論文都有這個問題,是六大原因裡排名最高的。
在教育領域,寬容度或許比醫學略高——評審者知道教育研究很難做隨機對照實驗,限制多是常態。但這不代表設計上的根本缺陷可以被接受。
最致命的情況是:研究問題根本無法被現有的方法或設計回答。用錯誤的設計去解決研究問題,修改的可能性極低,通常直接拒絕。
這種問題的常見形式包括:比較的兩組在系統性上就不對等、用橫斷面資料下縱向因果的結論、或是研究情境根本不支持研究者想宣稱的推論範圍。
拒稿原因二:方法描述不清
60% 的拒稿論文有方法描述不清(poor reporting of methodology)的問題。
這個原因有時比設計缺陷更令人惋惜——研究本身或許做得不錯,但因為沒有說清楚,審稿人根本無法判斷。方法描述不清的意思是:讀完方法段,還是不知道研究是怎麼做的。常見情形:
- 沒說清楚研究工具是如何選定或改編的
- 問卷如何施測、回收率如何,完全略過
- 缺失資料(missing data)的處理方式沒有交代
- 若有多個評分者(inter-rater),一致性如何確認沒有說明
在教育研究裡,常見的問題是:引用他人開發的量表,卻沒有交代在本研究情境下的效度與信度驗證;或只寫「用 SPSS 進行迴歸分析」,但整個分析流程語焉不詳。
方法描述不清屬於可修正的問題,但若審稿人對研究流程已失去信心,修改後被接受的機率也會大打折扣。
拒稿原因三:統計分析問題
53.5% 的拒稿論文有統計分析問題(poor statistical analysis)。最常見的情形:
- 用錯分析方法:資料違反常態假設,卻直接用參數檢定
- 沒報告效果量(effect size):只有 p 值,沒有實質意義的評估
- SEM 的修改索引濫用:大量調整誤差共變結構(modification indices)讓模型配適,卻沒有理論依據
最後這一點值得特別說明。在審稿時,我看過不少論文在 SEM 裡做大規模誤差項調整,讓 fit index 看起來很漂亮,但一問為什麼這樣修,沒有理論說明。這不是「讓模型反映資料」,而是「讓資料服從模型」,是統計上的硬傷。
另一個教育研究裡常見的問題,是樣本量不足以支撐統計考驗力(statistical power),卻沒有做事先的 power analysis,也沒有在限制中說明。
拒稿原因四:過度解讀結論
64.5% 的拒稿論文在結論上有問題——或是過度解讀,或是討論段不夠充分。這是九大類裡排名第三高的。
⚠️ 最常見的過度解讀:用相關(correlation)資料下因果(causality)的結論。「A 和 B 有顯著相關」和「A 導致 B」是截然不同的陳述。但很多論文在討論段會不自覺地滑向因果語言,例如「本研究結果顯示 AI 工具有效提升學習成效」——但研究設計根本不支持因果推論。
另一個常見問題是過度推論研究對象。樣本是某所大學的大學生,結論卻說「所有學習者在面對……時都會……」。研究情境和樣本特性在教育研究中影響極大,把結論放大超過資料所能支撐的範圍,審稿人一眼就看得出來。
✅ 誠實討論限制,反而會增加可信度。審稿人不會因為你說「本研究僅限於某情境,推論需謹慎」就扣分;他們會因為你假裝限制不存在而扣分。
拒稿原因五:協變量或結果的問題
41.3% 的拒稿論文在協變量(covariates)或結果變數(outcomes)的定義上有問題。簡單說,就兩種情況:
1. 測量工具測不到理論上要測的東西:研究者聲稱在測「自主學習能力」,但量表實際上在測的是「自我效能感」——兩個概念有重疊,但不相同。測量效度有問題,整篇的建構效度都會受質疑。
2. 分析時沒有控制應該控制的變數:研究 AI 介入對學習成效的影響,卻沒有控制學生的先備知識或學習動機,結論自然站不穩。審稿人不是在挑剔,而是在問:你確定你測到的差異是介入造成的,不是其它因素?
拒稿原因六:控制組或實驗組的問題
同樣有 41.3% 的拒稿論文在控制組或實驗組的設計上出了問題。這類問題往往在研究設計階段就埋下了,研究完成後很難補救。
最典型的情況:實驗組和控制組的學生來自不同學校、不同教師,甚至不同年級,但結果差異全被歸因於介入方案本身。這種系統性差異(systematic difference)如果沒有在設計階段透過隨機分派或配對來排除,事後很難靠統計手段完全處理。
另一種常見問題是比較的基準點根本不對等。例如把 AI 生成的作文反饋與完全沒有反饋的情況比較——差異不只是「有 AI vs 沒有 AI」,也包含了「有反饋 vs 沒有反饋」,研究結論自然無法只歸功於 AI 本身。
⚠️ 這個問題屬於致命性問題(fatal flaw):一旦研究執行完畢,無法在修改階段補救。唯一的解法是重新設計研究。
投稿前的自我檢查清單
這六大拒稿原因裡,有三個屬於「致命性問題」(設計缺陷、控制組問題、協變量問題)——研究做完後無法修補;另外三個在理論上可以透過修改改善,但能否真正挽回審稿人的信心,就不一定了。
- ✅ 研究問題是否在動筆前就明確定義?
- ✅ 設計方法是否能真的回答研究問題?
- ✅ 測量工具是否與理論構念一致?
- ✅ 是否控制了關鍵的干擾變數?
- ✅ 結論是否超出資料所能支撐的範圍?
- ✅ 方法段是否清楚到讓人能重複這個研究?
參考文獻
Hesterman, C. M., Szperka, C. L., & Turner, D. P. (2018). Reasons for manuscript rejection after peer review from the journal Headache. Headache: The Journal of Head and Face Pain, 58(8), 1220–1229. https://doi.org/10.1111/head.13343