外審後還是被拒:審稿人最常看到的 6 個問題

2018 年發表的研究系統性分析了 784 篇投稿的拒稿原因,雖然資料來自神經科/頭痛醫學期刊,但裡面列出的六大拒稿理由,在教育與社會科學領域同樣高度適用。

樣本與方法

從 2014 到 2016 年投稿至此期刊的 784 篇稿件中,只有 434 篇送外審,外審後被拒的有 155 篇。作者對這 155 篇的拒稿意見進行編碼分析。

拒稿原因分成九大類,由高至低為:

  • 方法:85.8%
  • 定義案例:70.3%
  • 討論/結論:64.5%
  • 統計問題:53.5%
  • 背景/目的:51.0%
  • 一般:37.4%
  • 結果:34.2%
  • 倫理:21.3%
  • 寫作:20.0%

每篇文章拒稿原因的中位數是 5 個。也就是說,大多數被拒的論文,不是踩了一個雷,而是同時踩了五個。

作者進一步從中提煉出六個最關鍵的拒稿原因,以下逐一說明,並補充我在教育類期刊投稿與評審的實際觀察。

論文送審後被拒?六大拒稿原因一覽

拒稿原因一:方法與研究設計的缺陷

方法上、研究設計上的缺陷(flaws in methodology and study design),74.8% 的拒稿論文都有這個問題,是六大原因裡排名最高的。

在教育領域,寬容度或許比醫學略高——評審者知道教育研究很難做隨機對照實驗,限制多是常態。但這不代表設計上的根本缺陷可以被接受。

最致命的情況是:研究問題根本無法被現有的方法或設計回答。用錯誤的設計去解決研究問題,修改的可能性極低,通常直接拒絕。

這種問題的常見形式包括:比較的兩組在系統性上就不對等、用橫斷面資料下縱向因果的結論、或是研究情境根本不支持研究者想宣稱的推論範圍。

拒稿原因二:方法描述不清

60% 的拒稿論文有方法描述不清(poor reporting of methodology)的問題。

這個原因有時比設計缺陷更令人惋惜——研究本身或許做得不錯,但因為沒有說清楚,審稿人根本無法判斷。方法描述不清的意思是:讀完方法段,還是不知道研究是怎麼做的。常見情形:

  • 沒說清楚研究工具是如何選定或改編的
  • 問卷如何施測、回收率如何,完全略過
  • 缺失資料(missing data)的處理方式沒有交代
  • 若有多個評分者(inter-rater),一致性如何確認沒有說明

在教育研究裡,常見的問題是:引用他人開發的量表,卻沒有交代在本研究情境下的效度與信度驗證;或只寫「用 SPSS 進行迴歸分析」,但整個分析流程語焉不詳。

方法描述不清屬於可修正的問題,但若審稿人對研究流程已失去信心,修改後被接受的機率也會大打折扣。

拒稿原因三:統計分析問題

53.5% 的拒稿論文有統計分析問題(poor statistical analysis)。最常見的情形:

  • 用錯分析方法:資料違反常態假設,卻直接用參數檢定
  • 沒報告效果量(effect size):只有 p 值,沒有實質意義的評估
  • SEM 的修改索引濫用:大量調整誤差共變結構(modification indices)讓模型配適,卻沒有理論依據

最後這一點值得特別說明。在審稿時,我看過不少論文在 SEM 裡做大規模誤差項調整,讓 fit index 看起來很漂亮,但一問為什麼這樣修,沒有理論說明。這不是「讓模型反映資料」,而是「讓資料服從模型」,是統計上的硬傷。

另一個教育研究裡常見的問題,是樣本量不足以支撐統計考驗力(statistical power),卻沒有做事先的 power analysis,也沒有在限制中說明。

拒稿原因四:過度解讀結論

64.5% 的拒稿論文在結論上有問題——或是過度解讀,或是討論段不夠充分。這是九大類裡排名第三高的。

⚠️ 最常見的過度解讀:用相關(correlation)資料下因果(causality)的結論。「A 和 B 有顯著相關」和「A 導致 B」是截然不同的陳述。但很多論文在討論段會不自覺地滑向因果語言,例如「本研究結果顯示 AI 工具有效提升學習成效」——但研究設計根本不支持因果推論。

另一個常見問題是過度推論研究對象。樣本是某所大學的大學生,結論卻說「所有學習者在面對……時都會……」。研究情境和樣本特性在教育研究中影響極大,把結論放大超過資料所能支撐的範圍,審稿人一眼就看得出來。

✅ 誠實討論限制,反而會增加可信度。審稿人不會因為你說「本研究僅限於某情境,推論需謹慎」就扣分;他們會因為你假裝限制不存在而扣分。

拒稿原因五:協變量或結果的問題

41.3% 的拒稿論文在協變量(covariates)或結果變數(outcomes)的定義上有問題。簡單說,就兩種情況:

1. 測量工具測不到理論上要測的東西:研究者聲稱在測「自主學習能力」,但量表實際上在測的是「自我效能感」——兩個概念有重疊,但不相同。測量效度有問題,整篇的建構效度都會受質疑。

2. 分析時沒有控制應該控制的變數:研究 AI 介入對學習成效的影響,卻沒有控制學生的先備知識或學習動機,結論自然站不穩。審稿人不是在挑剔,而是在問:你確定你測到的差異是介入造成的,不是其它因素?

拒稿原因六:控制組或實驗組的問題

同樣有 41.3% 的拒稿論文在控制組或實驗組的設計上出了問題。這類問題往往在研究設計階段就埋下了,研究完成後很難補救。

最典型的情況:實驗組和控制組的學生來自不同學校、不同教師,甚至不同年級,但結果差異全被歸因於介入方案本身。這種系統性差異(systematic difference)如果沒有在設計階段透過隨機分派或配對來排除,事後很難靠統計手段完全處理。

另一種常見問題是比較的基準點根本不對等。例如把 AI 生成的作文反饋與完全沒有反饋的情況比較——差異不只是「有 AI vs 沒有 AI」,也包含了「有反饋 vs 沒有反饋」,研究結論自然無法只歸功於 AI 本身。

⚠️ 這個問題屬於致命性問題(fatal flaw):一旦研究執行完畢,無法在修改階段補救。唯一的解法是重新設計研究。

投稿前的自我檢查清單

這六大拒稿原因裡,有三個屬於「致命性問題」(設計缺陷、控制組問題、協變量問題)——研究做完後無法修補;另外三個在理論上可以透過修改改善,但能否真正挽回審稿人的信心,就不一定了。

  • ✅ 研究問題是否在動筆前就明確定義?
  • ✅ 設計方法是否能真的回答研究問題?
  • ✅ 測量工具是否與理論構念一致?
  • ✅ 是否控制了關鍵的干擾變數?
  • ✅ 結論是否超出資料所能支撐的範圍?
  • ✅ 方法段是否清楚到讓人能重複這個研究?

參考文獻

Hesterman, C. M., Szperka, C. L., & Turner, D. P. (2018). Reasons for manuscript rejection after peer review from the journal Headache. Headache: The Journal of Head and Face Pain, 58(8), 1220–1229. https://doi.org/10.1111/head.13343

Leave a Comment

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Scroll to Top