Generative Artificial Intelligence 在科學研究中的普及及其相關的 Institutional Risks
導言
將 Large Language Models ( LLMs ) 整合至學術工作流程中,導致感知上的運作效率與維護科學誠信之間產生系統性緊張關係。
正文
目前的學術環境在採用 Generative AI ( genAI ) 方面呈現顯著分歧。定量數據顯示使用率呈上升趨勢; Elsevier 的一項調查報告指出,研究人員的使用率從去年增加至今年的 58% (原為 37% )。相反地, Nature 的調查顯示出較為謹慎的共識,絕大多數受訪者接受使用 AI 進行語言修飾,但僅有少數人將其用於生成初稿。這種二分法進一步體現在個別從業者的行為中,部分學者刻意避免使用這些工具,以確保基礎認知能力的發展,並避免與數據來源相關的倫理複雜問題。 Institutional stability 進一步受到 「 hallucinations 」 及事實錯誤的挑戰。來自 Chemistry 和 Conservation Science 領域的證據表明, genAI 經常產生毫無意義的分子結構及錯誤的引用,因此需要嚴格的人工核實,而這往往抵消了預期的效率提升。此外,這些技術產生的環境外部影響十分重大; 2025 年的預測估計全球碳足跡在 32.6 至 79.7 百萬噸 CO2 之間,並伴隨大量的用水量,部分研究人員認為這與以氣候為中心的研究目標相悖。 與這些內部爭論同時存在的是關於 AI-generated 內容檢測的衝突。對提交至 Organization Science 的手稿分析顯示,在 ChatGPT 發布後,提交量增加了 42% ,其中包含超過 70% AI-generated 文本的論文亦相應增加。同樣地,來自 arXiv 的數據顯示,Computer Science 領域中 AI-generated 的評論預印本從 2023 年的 7% 增加至 2025 年的 43% 。目前的檢測工具無法一致地分辨 AI 輔助編輯與全面生成,這為 Peer-review 過程帶來了漏洞,可能導致偽造數據滲入科學典籍。
結論
科學界在嘗試平衡研究產出的加速與維持嚴格質素控制及倫理標準的必要性之間,依然存在分歧。