一份新報告稱 Microsoft Copilot 經常向選舉問題提供虛假信息

一份新報告稱 Microsoft Copilot 經常向選舉問題提供虛假信息

12 月初,微軟宣布其 Copilot AI 聊天機器人(之前稱為 Bing Chat)已退出公共預覽階段,現已全面上市< a i=2> .當時,微軟表示「組織和使用者可以更有信心將其作為日常工作流程的一部分。」

然而,兩個非營利組織進行的追蹤人工智慧的使用如何影響人們和社會的研究發現,當被問及美國和國外即將舉行的選舉時,Copilot 經常提供虛假或不正確的資訊。

Wired 有一個關於這項研究的報導,該研究由AI Forensics 和AlgorithmWatch 進行,從8 月底到10 月初,這些小組向Copilot 詢問了有關瑞士和德國即將舉行的選舉的問題終於在10月份進行了

故事裡寫道:

在他們的研究中,研究人員得出的結論是,副駕駛給出的答案中有三分之一包含事實錯誤,並且該工具「對選民來說是不可靠的資訊來源」。在 31% 的較小記錄對話中,他們發現 Copilot 提供了不準確的答案,其中一些完全是編造的。

《連線》雜誌向 Copilot 詢問了有關即將到來的 2024 年美國大選的問題。聲明稱,當被要求提供當前美國總統共和黨候選人名單時,聊天機器人列出了一些已經退出競選的候選人。

在另一個例子中,《連線》雜誌要求 Copilot 創建一張亞利桑那州投票箱前的人的圖像。該聊天機器人回答說它無法創建這樣的圖像,但隨後它顯示了許多其他圖像,這些圖像與對 2020 年美國大選進行虛假陰謀論的文章相關。

在歐洲做初步報告的研究公司將他們的調查結果發送給了微軟,報道稱已經做出了一些改進,但《連線》雜誌仍然能夠讓Copilot 對某些相同的文本重複許多相同的虛假和不準確的資訊提示。

微軟發言人弗蘭克·肖 (Frank Shaw) 對《連線》的報導發表了評論,稱該公司正在採取行動,在 2024 年美國大選之前改進 Copilot 的答案。肖補充道:

這包括持續關注為 Copilot 用戶提供來自權威來源的選舉資訊。隨著我們不斷取得進展,我們鼓勵人們在查看結果時根據自己的最佳判斷來使用 Copilot。

人們已經擔心人們使用人工智慧應用程式和服務製造錯誤訊息和「深度虛假」內容,以影響即將到來的選舉。微軟是否能夠在未來幾個月內將此類內容排除在 Copilot 之外還有待觀察。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *