微軟Microsoft承認(rèn)必應(yīng)Bing Copilot存在嚴(yán)重“幻覺”漏洞

微軟Microsoft承認(rèn)必應(yīng)Bing Copilot存在嚴(yán)重“幻覺”漏洞

近日,研究機(jī)構(gòu) AI Forensics 對(duì)微軟必應(yīng)搜索引擎內(nèi)置的 Copilot 功能進(jìn)行了調(diào)查,結(jié)果顯示該功能在部分場(chǎng)合中存在嚴(yán)重的“幻覺”漏洞。根據(jù)報(bào)告,當(dāng)Copilot被詢問關(guān)于德國(guó)和瑞士等地的實(shí)時(shí)選舉信息及投票結(jié)果時(shí),它給出的答案有31%(1/3)是錯(cuò)誤的。

這些錯(cuò)誤包括“投票日期錯(cuò)誤”、“列出往屆候選人”、“虛構(gòu)候選人身份背景”、 “編造候選人涉嫌丑聞”等多種“幻覺”。此外,研究人員還發(fā)現(xiàn),當(dāng)Copilot輸出“幻覺”信息時(shí),它會(huì)援引許多知名媒體網(wǎng)站作為“消息來源”,此舉可能對(duì)多家新聞媒體的名譽(yù)造成損害。

微軟公司承認(rèn)了這一問題的存在,并表示“計(jì)劃解決相關(guān)‘幻覺’漏洞”。然而,在今年11月,研究人員再次進(jìn)行測(cè)試時(shí)發(fā)現(xiàn),必應(yīng) Copilot 的表現(xiàn)并未得到改善。

針對(duì)這一問題,研究人員呼吁社會(huì)大眾不要輕信必應(yīng) Copilot 回答的內(nèi)容。他們建議用戶在查看Copilot的回答時(shí),要仔細(xì)查看其援引的新聞鏈接,以確保獲取的信息是準(zhǔn)確和可靠的。

微軟公司作為全球知名的科技公司,其搜索引擎產(chǎn)品在全球范圍內(nèi)擁有廣泛的使用者。此次Copilot功能存在的“幻覺”漏洞可能會(huì)對(duì)用戶的信息獲取和使用造成影響。因此,微軟公司需要盡快解決這一問題,以保障用戶的權(quán)益和利益。

總之,此次研究機(jī)構(gòu)AI Forensics的調(diào)查結(jié)果提醒我們,在使用搜索引擎和AI助手時(shí),需要保持警惕和謹(jǐn)慎。同時(shí),對(duì)于科技公司而言,他們需要更加注重產(chǎn)品的質(zhì)量和用戶體驗(yàn),確保提供給用戶的信息是準(zhǔn)確和可靠的。

原創(chuàng)文章,作者:秋秋,如若轉(zhuǎn)載,請(qǐng)注明出處:http://2079x.cn/article/608326.html

秋秋的頭像秋秋管理團(tuán)隊(duì)

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評(píng)論