微軟研究院前不久發(fā)布了一篇論文,揭示了一個反常識的現(xiàn)象:當我們和AI進行長時間多輪對話時,它們會變得越來越"糊涂",給出的答案質(zhì)量也會明顯下降。微軟研究院的這項研究,用嚴謹?shù)目茖W方法證實了這個現(xiàn)象的存在,這不是個別模型的問題,而是幾乎所有大模型的通病。研究團隊測試了包括GPT-4、Claude、Gemini在內(nèi)的15個主流AI模型,發(fā)現(xiàn)它們在多輪對話中的表現(xiàn)平均下降了39%。
該團隊介紹,該系統(tǒng)生成的論文“在我們自動審閱者的評估下,已經(jīng)超過了頂級機器學習會議的接收門檻!
4月7日,CNN消息,美國伊薩卡學院-戰(zhàn)略傳播學教授Diane Gayeski,正在使用ChatGPT批改學生的論文。
Meta此次發(fā)布的AI系統(tǒng)旨在通過對一部分論文引文審查工作實施自動化,來簡化維基百科編輯們的工作。該系統(tǒng)可以掃描一篇文章并識別文章中是否存在有可疑引文的信息片段,此外還能夠推薦相關(guān)性更高的來源,用這些來源替換有問題的引用。