<li id="omoqo"></li>
  • <noscript id="omoqo"><kbd id="omoqo"></kbd></noscript>
  • <td id="omoqo"></td>
  • <option id="omoqo"><noscript id="omoqo"></noscript></option>
  • <noscript id="omoqo"><source id="omoqo"></source></noscript>
  • 發布時間:2023-06-19 20:42 原文鏈接: 他用ChatGPT寫了16篇論文,已發表5篇

    原文地址:http://news.sciencenet.cn/htmlnews/2023/6/503160.shtm

    自ChatGPT上線以來,一些研究人員的論文產出速度變得“突飛猛進”。

    據美國《野獸日報》日前報道,美國田納西大學健康科學中心的放射科醫生Som Biswas,在4個月內使用ChatGPT寫了16篇論文,并在4個不同的期刊上發表了5篇。

    他將第一次嘗試的論文提交給了《放射學》雜志,這是北美放射學會的一份同行評審月刊。同時,他也向編輯坦言:你看到的都是AI寫的。幾天后,這篇題為《ChatGPT與醫學寫作的未來》的論文通過了同行評審,并順利發表。

      ?

    《ChatGPT與醫學寫作的未來》論文

    以ChatGPT為代表的大型語言模型(LLM)大大提升了生產效率,但它們也在科學界造成了翻天覆地的變化,許多專家擔心學術出版的可信度受到侵蝕。

    用AI在4個月內寫了16篇文章

    Biswas最新的一篇文章,是4月28日發表在《兒科放射學》雜志上的一篇評論。在這篇文章中,Biswas是唯一的作者,他在結尾處承認用ChatGPT寫了這篇文章。

    Biswas承認,他利用AI寫的論文并不限于放射學專業。事實上,他還寫了關于ChatGPT在軍事、教育、農業、社交媒體、保險、法律和微生物學中作用的論文。并且,他已經成功地將這些文章發表在不同的小眾學科期刊上,包括一篇關于計算機編程的論文發表在《美索不達米亞計算機科學雜志》,以及2封發表在《生物醫學工程年鑒》上的致編輯的信——主題關于全球變暖和公共衛生。

    Biswas說,他這樣做的動機不僅僅是為了看到自己的署名。他想成為一項新興技術的傳播者,他認為這項技術將永遠改變所有研究人員的工作方式。

    那么,期刊為何會發表這類AI創作作品?

    美國弗吉尼亞理工大學工程學教授、《生物醫學工程年鑒》的主編Stefan Duma坦言,在過去的幾個月里,他看到期刊收到的論文數量呈指數級增長——其中包括2篇來自Biswas的給編輯部的信。

    Duma解釋說,給編輯的信基本上是期刊的意見部分,其中對發表文章的寫作類型和研究深度的限制較少。這也是為什么Duma愿意發表Biswas的2篇文章。

    但是,他補充說,由于質量低下,他一直在拒絕更多由ChatGPT和其他LLM生成的文章。

    此外,上文提及的兩本期刊《兒科放射學》《美索不達米亞計算機科學雜志》,沒有回應媒體的置評請求。

    在微生物學家、科學誠信專家Elisabeth Bik看來,“至少Biswas承認他在使用ChatGPT,所以你必須給予他一些信任。”Bik說,“我已經遇到了很多其他人,他們也發表了大量令人難以置信的論文,同時也不承認ChatGPT。這些人發表得太多了。而這,實際上是不可能的。”

    Bik對在學術界使用LLM技術有兩種看法。一方面,她承認對于第一語言不是英語的研究人員來說,它可以成為一種寶貴的工具,可以用它來構建連貫的句子和段落。另一方面,她也一直在關注,很多研究人員明顯濫用聊天機器人,僅在過去幾個月里就發表了數十篇文章。

    至于濫用產生的原因,Bik認為是“引用和出版物數量這兩個衡量學術水平的指標。” 如果可以找到一種人為的方式來提高這些東西,這樣就可以輕松地贏得更好的績效指標。

    Bik還擔心對LLM的使用激增更會助長“論文工廠”泛濫。她的擔憂也是學界和出版界共同關心的議題。

    檢測“論文造假”是個挑戰

    今年5月,由以學術出版倫理為重點的非營利組織出版倫理委員會(COPE)和國際科學技術和醫學出版商協會(STM)召集了一場峰會。峰會匯集了國際研究人員,包括獨立研究誠信分析師,以及來自資助機構和出版商的代表。

    與會人員集中討論了論文造假問題。

    “隨著AI的迅速發展,論文工廠生成越來越合理的原始數據的能力將快速提升。”澳大利亞悉尼大學的分子生物學家Jennifer Byrne說。

    德國海德堡歐洲生物學會的圖像數據完整性分析師Jana Christopher說:“我見過AI剛剛生成的假顯微鏡圖像,但如何確鑿證明圖像是由AI生成的,仍然是一個挑戰。”

    自由柏林大學社會科學家和獨立研究誠信分析師Anna Abalkina懷疑,由于同行評審過程的周期長,這些AI工具在學術文獻中明顯增多的時間,可能會有所延遲。

    “這是我們第一次一群人聚在一起,共同采取行動以應對這個問題。”COPE的董事和研究誠信顧問Deborah Kahn表示,我們不能否認AI對科學研究有積極作用,但仍有必要區分使用AI編寫的合法論文和完全捏造的論文。

    峰會期間討論的一種策略是,要求作者提供帶有水印的實驗原始數據,能夠讓出版商確認這些數據是真實的。

    Christopher表示,目前提交原始數據的要求在出版商之間差異很大,所以需要制定跨出版商提交原始數據的統一標準。

    “我無法想象這會在一夜之間發生轉變,現實是許多機構沒有資源提供數據管理的基礎設施。”泰勒-弗朗西斯出版集團的出版倫理和誠信總監Sabina Alam表示,該標準需要時間來實施。

    STM正在研發論文造假檢測軟件,同時通過其誠信中心收集有關其他類似工具的資源。這些工具既用于在提交時檢測論文造假,也用于識別已經發表的假論文。

    泰勒-弗朗西斯出版集團是正在使用這些工具的出版商之一。Alam表示,越來越多論文被標記為需要進一步檢測是否存在不當行為。從2019年到2022年,她的團隊處理的倫理案例數量增加了十多倍,今年到目前為止,數量已經與2022年持平。

    參考鏈接:

    https://www.thedailybeast.com/how-this-doctor-wrote-dozens-of-science-papers-with-chatgpt

    <li id="omoqo"></li>
  • <noscript id="omoqo"><kbd id="omoqo"></kbd></noscript>
  • <td id="omoqo"></td>
  • <option id="omoqo"><noscript id="omoqo"></noscript></option>
  • <noscript id="omoqo"><source id="omoqo"></source></noscript>
  • 1v3多肉多车高校生活的玩视频