Author name: researcher20

缺失值怎麼處理?從 MCAR、MAR 到多重插補,一篇說清楚

學生交來初稿,我翻到方法段,看到一句話:「本研究刪除含有遺漏值的樣本,最終有效樣本為 N = 218。」

我問:「原始問卷收了多少份?」

他說:「251 份。」

我說:「你刪掉了 33 個人,占將近 13%。你有沒有想過,這 33 個人為什麼沒有填完?」

他沉默了一下。這個問題,很多學生沒有想過。

缺失值不是「髒資料」,是資訊

缺失值三種機制(MCAR/MAR/MNAR)與建議處理方式

缺失值(missing data)在量化研究裡幾乎無可避免。問卷有人跳題、有人漏填、有人中途離開;追蹤研究有人失聯。問題不是「資料有缺失就不好」,而是:這些缺失是怎麼產生的?

Rubin(1976)把缺失值的機制分成三類,這個分類直接決定你應該用什麼方法處理:

  1. MCAR(Missing Completely At Random,完全隨機缺失)
    缺失與任何變項的值完全無關。例如:問卷印刷有個版本漏印了一題,哪些人拿到這份問卷是隨機的。
    這是最理想的情況,但現實中很少見。
  2. MAR(Missing At Random,隨機缺失)
    缺失與其他已觀察到的變項有關,但與遺漏的數值本身無關。例如:女性比男性更容易在薪資題跳過,但控制性別後,缺失就不再系統性地和薪資高低有關。
    這是最常見的假設,多重插補和 FIML 都以 MAR 為前提。
  3. MNAR(Missing Not At Random,非隨機缺失)
    缺失和遺漏的數值本身有關。例如:憂鬱分數越高的人越可能跳過憂鬱相關題項。
    這是最棘手的情況,標準統計方法無法完全解決,需要特殊模型或明確說明限制。

Listwise Deletion 的問題

Listwise deletion(刪除含有缺失值的整筆資料)是最常用的做法,SPSS 的預設值也是這個。它只在 MCAR 的情況下不會造成偏誤——因為只有在缺失完全隨機時,刪掉這些人才不會讓留下來的樣本變得「特別」。

如果缺失是 MAR 或 MNAR,listwise deletion 會:

  • 造成樣本偏誤:留下來的樣本不再能代表原始母群
  • 損失統計力:樣本數減少,估計誤差增大
  • 低估標準誤:某些情況下讓結果看起來比實際更顯著

⚠️ 容易犯錯的地方:學生在方法段只寫「刪除含有遺漏值的樣本」,但沒有說明缺失率、沒有檢驗缺失機制、也沒有討論這個做法對結論可能的影響。審稿人看到這裡,會直接問:你怎麼知道缺失是 MCAR?

現代處理方式:MI 和 FIML

當前方法學文獻推薦的兩種主流做法是多重插補(Multiple Imputation, MI)完整資訊最大概似法(Full Information Maximum Likelihood, FIML)。兩者都在 MAR 假設下比 listwise deletion 表現更好。

多重插補(MI)

核心邏輯:不是用一個值去填補缺失,而是建立多個完整資料集(常見做法是 20 次以上,缺失比例較高時可增加插補次數),每次填補都反映填補的不確定性,最後合併分析結果。

操作工具:SPSS(Analyze → Multiple Imputation)、R mice 套件、Stata mi impute

適合情況:缺失值分散在多個變項;想用不同軟體分開做插補和分析。

完整資訊最大概似法(FIML)

在 SEM 或 CFA 模型中,FIML 讓模型在估計時直接使用每個受試者提供的所有有效資訊,不需要預先填補缺失值。FIML 通常適用於以模型為基礎的分析(如 CFA、SEM、路徑分析),不是所有統計程序都能直接套用。

操作工具:AMOS(預設支援)、R lavaan(missing = "fiml")、Mplus(DATA: LISTWISE = OFF)。

適合情況:跑 CFA 或 SEM,缺失值主要在觀察變項上。

⚠️ 容易犯錯的地方(一):學生以為 FIML「自動處理了缺失值所以不用報告」。其實 FIML 也需要在方法段說明:使用 FIML 估計,假設缺失機制為 MAR。

⚠️ 容易犯錯的地方(二):用 MI 時,插補模型包含的變項不夠完整。MI 的插補品質取決於插補模型有多少有效預測變項——把所有分析相關變項都納入插補模型,結果才可靠。

怎麼檢驗缺失機制?

在方法段說明缺失值處理之前,應該先報告你如何判斷缺失機制。

Little’s MCAR test:SPSS 有內建(Analyze → Missing Value Analysis → Little’s MCAR test)。若 p > .05,表示沒有足夠證據拒絕 MCAR 假設,常被視為與 MCAR 相容——但這不等於「確認是 MCAR」,統計檢驗只能提供線索,機制判斷仍需結合理論與資料情境。

輔助變項分析:建立「是否缺失」的虛擬變項,與其他變項做 t-test 或卡方檢定。如果缺失組和完整組在某些變項上有顯著差異,就有理由懷疑不是 MCAR。

⚠️ 容易犯錯的地方:MNAR 無法用標準統計方法驗證(因為你沒有缺失的數值)。遇到可能是 MNAR 的情況,誠實在討論段說明是更合適的做法,而不是假裝問題不存在。

如何在論文裡報告?

缺失值的報告應包含:

  • 缺失率:整體缺失率(如:缺失佔全部資料格的 X%);各關鍵變項的缺失情況
  • 缺失機制:如何判斷(Little’s MCAR test 結果,或輔助分析結論)
  • 處理方式:用了哪種方法(MI / FIML / listwise)以及選擇理由
  • MI 的細節(若使用):插補次數、插補模型包含哪些變項、軟體

範例寫法:「本研究資料缺失率為 4.3%,各變項缺失率均低於 10%。Little’s MCAR test 結果不顯著(χ² = 12.3, df = 14, p = .58),初步支持缺失隨機假設。採用多重插補法(R mice 套件,M = 20 次),插補模型包含所有分析變項。」

缺失率多高就不能用?

沒有絕對的門檻。常見的粗略參考是:

  • 5% 以下:通常影響不大,listwise 或 MI 均可,但應說明。
  • 5%–20%:建議用 MI 或 FIML,並報告缺失機制檢驗。
  • 20% 以上:需要非常謹慎,MI 仍可嘗試,但解釋要保守,且需討論對結論的潛在影響。

這些只是經驗參考,不是硬性標準。更重要的判斷仍是:缺失是否系統性地影響估計結果? 也需要交代缺失集中在哪些變項——是 outcome 缺失多?還是某個背景變項?是否集中在特定群體? 5% 的 MNAR 可能比 15% 的 MCAR 更嚴重。

如果有問題,歡迎留言。

更新記錄:2026-03 首次發布。

缺失值怎麼處理?從 MCAR、MAR 到多重插補,一篇說清楚 Read More »

測量不變性(Measurement Invariance):跨組比較前必做的檢定

學生拿著跨組比較的結果來找我,說:「老師,我比較了男生和女生的 SEM 路徑係數,發現差異很大。」

我問了一個問題:「你有沒有先確認這個量表在男生和女生身上測的是同一個東西?」

他愣了一下。

這就是測量不變性(Measurement Invariance)要解決的問題——在跨組比較之前,你必須先驗證你的測量工具在不同群體裡的意義是否相同。如果沒有做這個檢驗,你的跨組比較在方法上是站不住腳的。

什麼是測量不變性?

假設你用一個動機量表同時測量男生和女生,然後比較兩組的動機分數差異。這個比較有一個前提:這個量表在男生和女生身上「測的是同一個東西」,而且測的方式相同。

如果量表裡的某道題,男生理解的方式和女生理解的方式不同,那你比較出來的「差異」,到底是真實的群體差異,還是量表本身的測量偏誤?你分不清楚。

測量不變性(Measurement Invariance),又稱測量等同性,就是用統計方式驗證:這個量表的因素結構、因素負荷量、截距,在不同群體之間是否相等。只有通過這個驗證,你的跨組比較才有意義。

測量不變性的四個層次

測量不變性四層次:Configural / Metric / Scalar / Strict
測量不變性四層次——哪個層次才夠用?(需依序通過每一層)

測量不變性的驗證分四個層次,由寬鬆到嚴格逐步限制,且每一層都建立在前一層成立之上

  1. 形態不變性(Configural Invariance)
    驗證:兩組的因素結構相同——哪些題目屬於哪個因素,模式一致。
    這是最基本的要求,也是後續所有層次的基礎。
    使用時機:確認兩組對量表的基本解讀架構相同,作為後續比較的前提。
  2. 測量不變性(Metric Invariance)
    在 Configural 基礎上,限制兩組的因素負荷量相等。
    意義:題目和潛在因素之間的關係強度在兩組相同。
    使用時機:要比較兩組的相關係數或迴歸路徑係數。
    ⚠️ 達到 Metric 可以比較變項之間的關係,但尚不宜直接比較群體平均數
  3. 截距不變性(Scalar Invariance)
    在 Metric 基礎上,進一步限制兩組的題項截距相等。
    意義:相同的潛在因素分數,對應的觀察值在兩組相同。
    使用時機:要比較兩組的潛在平均數差異——這是最常見的跨組比較目標。
  4. 嚴格不變性(Strict Invariance)
    在 Scalar 基礎上,進一步限制殘差變異量相等。
    意義:測量誤差在兩組也相同。
    社會科學研究通常不要求這個層次——達到 Scalar 即可支持多數跨組比較。

如何進行測量不變性檢驗?

測量不變性的驗證用多群組 CFA(Multi-group CFA)來進行,逐步加入約束條件並比較模型配適度。

步驟一:Configural Model(基準模型)
讓兩組各自自由估計所有參數,只限制因素結構相同,作為配適度的基準。

步驟二:Metric Model(限制負荷量相等)
限制兩組因素負荷量相等,比較與 Configural 的配適度變化。

步驟三:Scalar Model(限制截距相等)
進一步限制截距相等,再次比較配適度變化。

判斷標準(ΔCFI / ΔRMSEA 為主,Δχ² 為輔):

  • 常用判準:ΔCFI ≤ .010,且 ΔRMSEA ≤ .015
  • 不建議只依賴 Δχ²——Δχ² 對樣本數敏感,大樣本時幾乎必然顯著,容易誤判。

工具:AMOS(多群組分析)、R semTools 套件(measurementInvariance())、Mplus(MODEL = CONFIGURAL METRIC SCALAR)。

容易犯錯的地方

一、跨組比較前完全沒有做這個檢驗

最常見的問題。很多論文的方法段描述了 SEM 配適度,然後直接跳到「男女比較結果」,完全沒有提測量不變性。現在審稿人愈來愈熟悉這個議題,很容易被抓。

我在審稿時看到這種情況,都會要求作者補做不變性檢驗,或者說明為什麼可以假設不變性成立。

二、只用 Δχ² 判斷

Δχ² 的問題是,樣本大(N > 300)時,任何微小差異都會顯著,讓你以為不變性不成立。

⚠️ 學生常見的錯誤:看到 Δχ² 顯著就說「測量不變性不成立」然後放棄比較。其實根據 ΔCFI 可能完全符合不變性標準。現代標準是 ΔCFI 和 ΔRMSEA 為主,Δχ² 報告但不作唯一依據。

三、部分不變性(Partial Invariance)的處理不對

如果 Metric 成立,但 Scalar 不完全成立(只有部分截距相等),叫做部分截距不變性(Partial Scalar Invariance)

這種情況下仍然可以做有限度的跨組比較,但需要:

  • 確認哪些題項的截距不等(用 MI 找出),並說明原因
  • 以不變的題項作為錨點(anchor)
  • 在限制段說明部分不變性對結論的影響

⚠️ 學生常見的錯誤:發現兩個截距不等就放棄所有跨組比較。部分不變性不代表什麼都不能比,只是比較範圍和解釋要更謹慎。

四、不知道怎麼報告

測量不變性的報告要用表格呈現四個模型的配適度比較,包含:每個層次的 CFI、RMSEA、SRMR、ΔCFI、ΔRMSEA,以及哪個層次成立的結論。

不變性不成立怎麼辦?

如果連 Metric Invariance 都不成立,代表這個量表在兩個群體測的是不同的東西:

  • 先找出哪些題項的負荷量不等(MI 定位),看看是否有文化或語言差異
  • 考慮量表是否需要修改,或分組建立不同測量模型
  • 在論文裡誠實說明:量表在兩個群體有不同的心理計量特性,跨組比較有限制

這不是失敗。很多跨文化研究正是靠測量不變性檢驗,發現了量表在不同群體之間的心理計量差異,進而深化對構念的理解。

如果有問題,歡迎留言。

更新記錄:2026-03 首次發布。

測量不變性(Measurement Invariance):跨組比較前必做的檢定 Read More »

Bootstrap 中介效果:用 PROCESS macro 跑比 Baron & Kenny 更準

我指導過不少論文,有一個問題學生最常問:「老師,我用 Baron & Kenny 四步驟做中介分析,夠嗎?」

我的回答通常是:「在教育、心理、管理等領域,bootstrap 間接效果檢驗已經非常普遍,很多期刊和審稿人會期待看到。如果你還只用四步驟,很可能被要求補做。」

這篇從為什麼要改、怎麼跑、怎麼報告,一步一步說清楚。

先釐清一個學生最常有的誤解:中介分析不是在問「X 對 Y 還有沒有影響」,而是在問「X 是否透過 M 影響 Y」。 這個方向搞清楚,後面的邏輯才會通。

Baron & Kenny 四步驟,問題出在哪?

Baron & Kenny(1986)的四步驟中介檢驗,被引用超過 40,000 次,是教科書裡最常見的方法:

  1. X → Y 顯著(總效果 c path)
  2. X → M 顯著(a path)
  3. M → Y 顯著(b path,控制 X)
  4. 加入 M 後,X → Y 的效果減小或不顯著(中介成立)

這個方法的根本限制是:它用逐步顯著性來推論中介,而不是直接測試間接效果(indirect effect = a × b)的大小。

問題在於:a 顯著、b 顯著,不代表 a × b 顯著。反過來,a 或 b 個別不顯著,但 a × b 可能仍然顯著。這不是邏輯問題,是統計問題。

Sobel test 試圖直接測試 a × b,但它假設間接效果的抽樣分佈是常態的。而現實中,間接效果的分配往往是偏斜的(skewed),因此 Sobel test 在小樣本或中等樣本下容易過於保守、統計力不足,導致本來存在的間接效果被漏掉(Type II error)。

⚠️ 容易犯錯的地方:很多學生看到「X → Y 不顯著」就直接放棄做中介分析。但現代中介分析的觀點是:total effect 不顯著,仍然可能存在顯著的間接效果。X 可能透過 M 正向影響 Y,同時又有另一條路徑直接負向影響 Y,兩者抵消讓總效果看起來不顯著,但中介機制確實存在。

Bootstrap 的邏輯是什麼?

Bootstrap 不依賴間接效果分配是常態的假設,而是直接從你的資料出發,用重複抽樣建立信賴區間。邏輯如下:

  1. 從原始樣本中,重複有放回地隨機抽樣(通常 5000 次)
  2. 每一次都計算間接效果 a × b
  3. 把 5000 個 a × b 的值排序,取第 2.5 百分位和第 97.5 百分位,作為 95% 信賴區間(BootCI)
  4. 如果 95% BootCI 不包含 0 → 間接效果顯著

相較於 Sobel test,bootstrap 不依賴間接效果常態分配假設,更適合處理偏斜的間接效果分配,通常也有較佳的統計力。方法學文獻普遍建議以 bootstrap 信賴區間作為間接效果的主要檢驗方式,許多期刊也明確期待看到這種做法。

⚠️ 一個細節:PROCESS macro 提供兩種 bootstrap CI:percentile CI(直接取百分位)和 bias-corrected and accelerated CI(BCa,修正偏誤)。一般情況下 percentile CI 已經夠用,但如果間接效果分配明顯偏斜,BCa 更準確。PROCESS 預設是 percentile,若要改成 BCa 可在選項中設定。在論文裡報告時,說明你用的是哪種。

用 PROCESS macro 跑 Bootstrap 中介

Hayes 的 PROCESS macro 是目前最廣泛使用的工具,免費,支援 SPSS 和 SAS。

安裝:processmacro.org

Bootstrap 中介效果:用 PROCESS macro 跑比 Baron & Kenny 更準 Read More »

CFA 實作入門:驗證性因素分析步驟與常見錯誤

學生拿著 EFA 的結果來找我,說:「老師,我因素分析跑完了,接下來要跑 CFA 嗎?」

我問:「你為什麼要跑 CFA?」

他愣了一下:「就是…驗證一下?」

這個回答讓我知道,他還沒弄清楚 CFA 是什麼。這也是我想寫這篇的原因——CFA 的概念不難,但實作起來每個步驟都有人反覆在同樣的地方摔倒。

先講一個核心提醒:CFA 不是在證明你的量表一定正確,而是在檢驗你的理論模型是否站得住。 學生最常錯的,不是不會跑,而是把統計決策和理論論證分開了——審稿人最常抓的,也正是這個斷裂。

CFA 是什麼?跟 EFA 有什麼不同?

探索性因素分析(EFA)是在「不確定結構」的情況下使用的——你不確定有幾個因素、哪些題目應該歸在一起,所以讓資料自己告訴你。

驗證性因素分析(CFA)完全相反。你已經有一個明確的理論模型,然後用資料去驗證這個結構跟實際資料的配適程度。

CFA 的前提是:你有理論依據。 最常見的誤用是先跑 EFA 找出因素結構,再用同一份資料跑 CFA「驗證」——你用資料找出一個結構,再用同一份資料確認它,這叫過度擬合,不叫驗證。我看過不少論文這樣做,審稿意見也常常在這裡被抓到。

CFA 實作五步驟

驗證性因素分析 CFA 實作流程
CFA 實作流程與常見錯誤提醒

步驟一:建立理論模型

在正式跑分析之前,先把測量模型畫在紙上。你需要清楚指定:幾個潛在因素、每個因素對應哪些題項、因素之間是否允許相關、有沒有 cross-loading。

這個步驟很多學生跳過,直接打開 AMOS 開始畫。但跳過這步的學生,在後面遇到問題的時候,通常不知道問題出在模型設定還是資料本身。先把模型畫在紙上,思路會清楚很多。

在畫模型之前,我會要求學生逐題問自己:「這一題為什麼只能屬於這個因素,不屬於別的?」 這個問題問得清楚,後面很多麻煩就不會出現。

容易犯錯的地方:

  • 每個因素的題項數不夠。 我常看到學生把一個因素只放兩題,說「文獻原版就是這樣」。問題是兩個題項的因素在統計上無法識別(just-identified),連配適度指標都算不出來。最少要三題,建議四題以上。如果原始量表某個分量表真的只有兩題,需要在方法段說明並討論限制。
  • 跨文化量表直接套用原版因素結構。 學生拿英文量表翻成中文,就直接假設結構不變。翻譯後的題項語意可能已經不同,嚴格來說應該先用新的資料跑 EFA 確認結構,或至少在論文裡說明這個限制。
  • 構念邊界不清。 審稿人最常抓的是:某些題項文字看起來同時可屬於兩個因素,前面不先處理,後面 MI 和 cross-loading 會一直爆。

步驟二:設定模型規格

在 AMOS 裡,你在圖形介面畫橢圓(潛在因素)和方框(題項),用箭頭連起來。在 R lavaan 裡,用 =~ 語法定義:

f1 =~ q1 + q2 + q3 + q4
f2 =~ q5 + q6 + q7 + q8
f3 =~ q9 + q10 + q11 + q12

模型畫完還有一件必須做的事:固定因子尺度。 潛在因素本身沒有測量單位,需要人為固定一個尺度,模型才能估計。兩種做法:

  • 固定一個負荷量為 1(marker variable): AMOS 和 lavaan 預設。每個因素的第一個題項路徑固定為 1。
  • 固定潛在因素的變異量為 1: 讓所有負荷量都自由估計,適合要比較不同題項貢獻時。lavaan 語法:std.lv

CFA 實作入門:驗證性因素分析步驟與常見錯誤 Read More »

我拒了三篇稿:從審稿人的角度看,論文在哪裡斷掉的

我大概每年會審二十到三十篇論文。

大部分的時候,審稿是一件讓人又期待又沉重的事——期待是因為可以看到還沒發表的研究,沉重是因為你知道你的一份意見,可能影響一個人好幾個月的工作。

有時候,看完一篇稿子,我心裡第一個反應不是「這篇可以」或「這篇不行」,而是:「這篇如果早一年找人好好看過設計,現在就不用走到這一步。」

下面是三個真實的審稿故事。名字和細節已做模糊處理,但問題是真實存在的。

案例一:資料收集完了,才發現設計根本站不住腳

這篇研究想回答一個有意思的問題:AI 寫作工具是否提升了大學生的批判性思考?

設計是這樣的:一組學生用 AI 輔助寫作,另一組不用,學期末比較兩組的批判性思考評分。

問題不在問題本身,而在「誰決定哪個學生進哪組」這件事。

兩組是自選的——喜歡用 AI 的學生自然選了實驗組,習慣自己寫的選了控制組。這不是隨機分配,這是自我選擇偏誤(self-selection bias)——兩組學生在實驗開始之前,就已經不是同一群人了。

我在意見裡寫:「批判性思考的提升,可能來自本來就對科技更開放、學習動機更強的學生特質,而不是 AI 工具本身的效果。在目前的設計下,這兩個解釋無法被區分。」

作者回信說:「我們理解限制,但資料已經收完了,沒有辦法重做。」

我知道。這正是問題所在。

⚠️ 這類問題的本質:研究設計的缺陷,不是寫作問題,是在資料收集前就應該解決的問題。論文寫得再好,設計站不住,審稿人沒有辦法推薦接受。

案例二:測量的東西,跟理論說的不是同一件事

這篇的研究問題很清楚:探討教師的 AI 整合信念如何影響課堂實踐。

理論框架引用了 TAM(科技接受模型),並把「感知有用性」和「感知易用性」當作核心構念。

但問卷的題目是這樣的:「我認為 AI 工具可以節省備課時間」——這是一道行為意圖題,不是信念題。

整份問卷讀完,我發現:作者測量的是教師對 AI 的使用行為與意圖,但理論框架說的是信念結構。 這不是微小的落差,這是構念效度(construct validity)的根本問題。

更麻煩的是,討論部分的每一個結論,都是基於「信念影響實踐」這個前提展開的——但資料根本沒有測到信念。

我建議作者要嘛重新收資料,要嘛徹底修改理論框架,對齊現有的測量工具。兩條路都不短。

💡 實務提醒:在寫問卷之前,把每一道題放在理論構念旁邊比對——這道題測的,真的是那個構念嗎?是行為意圖、態度、信念、還是頻率?混用,是方法論最常見的問題之一。

案例三:資料說了 A,結論卻說了 B+C+D

這篇的資料其實相當紮實。研究對象清楚,測量工具有效度支撐,統計也跑對了。

在這種情況下,我通常會帶著期待往討論部分看。

然後我看到這樣一段:「本研究證明,AI 寫作支援能有效提升學習者的 L2 寫作能力,建議政策制定者在課程設計中全面推廣 AI 寫作工具。」

研究對象:某大學一個班,22 名學生,八週介入。

22 個人、一所學校、一種語言、八週——不是「全面推廣」的依據。

這不是謙虛的問題。這是研究結論必須待在資料能支撐的邊界內。「本研究在特定情境下的初步結果顯示……」和「建議全面推廣」,是兩個截然不同的表述,對應的是截然不同的研究規模與設計。

我的意見是:結論段必須重寫,所有超出樣本範圍的推論都必須加上明確的限制條件。

作者修改後再投,第二版好多了。這是三個案例裡唯一一篇後來過了的。

論文三個斷點:研究設計、測量效度、結論邊界

三個故事,一個共同點

回頭看這三篇,問題的本質其實不難歸納:

  • 案例一:研究設計的問題——研究開始之前就應該解決
  • 案例二:測量效度的問題——理論與工具必須對齊
  • 案例三:結論邊界的問題——資料說什麼,結論就說什麼

前兩個,資料收完之後無法補救。第三個可以,但需要真的願意縮小結論。

📌 如果你想看更系統性的拒稿原因分析(有數據支撐),可以參考這篇文章,整理了 155 篇過了初審卻在外審被拒的論文的六大原因:外審後還是被拒:審稿人最常看到的 6 個問題

給正在準備投稿的你

我不是要嚇你。我自己的稿件也被拒過,不只一次。

但有一件事我越來越確定:讓論文被拒的問題,幾乎都不是在寫作階段才出現的。 它們大多在研究設計、測量工具選擇、或分析邏輯那個時候就已經埋下了。

投稿之前,找一個你信任的人,用審稿人的眼光把你的方法部分從頭讀一遍。不是看格式,是看邏輯。

這件事花的時間,遠比等三個月外審結果再重做要少。

如果有問題,歡迎留言。

這篇文章改寫自 Threads 系列貼文,你可以在這裡看到原版討論串:審稿人視角:三篇拒稿背後的真實原因

更新記錄:2026-03 新建,改寫自 Threads 系列「審稿人視角:三篇拒稿背後的真實原因」。…

我拒了三篇稿:從審稿人的角度看,論文在哪裡斷掉的 Read More »

Scroll to Top