本文作者是科學評論員
像ChatGPT這樣的大型語言模型生成的內容讓人難辨真偽。許多聊天機器人基于所謂的生成式人工智能,它們被訓練成通過在互聯網上搜索相關信息,再組織成條理清晰的答案,來回答用戶的問題,從而寫出令人信服的學生論文、看似權威的法律文件和可信的新聞報道。
但是,由于可獲得的公開數據包含錯誤信息和虛假信息,一些機器生成的文本可能不準確或不符合事實。這促使人們競相開發工具來識別文本是由人類還是機器撰寫的。科學界也在努力適應這個新時代,人們就是否應該允許聊天機器人撰寫科學論文、甚至提出新的假設進行了熱烈討論。
您已閱讀15%(258字),剩余85%(1494字)包含更多重要信息,訂閱以繼續探索完整內容,并享受更多專屬服務。