GPT-4 API重大安全漏洞曝光:FAR AI實驗室成功越獄模型

GPT-4 API重大安全漏洞曝光:FAR AI實驗室成功越獄模型

近日,一篇發(fā)表在arXiv上的論文揭示了一項驚人的發(fā)現(xiàn):GPT-4 API存在重大安全漏洞。該漏洞由FAR AI實驗室的團隊發(fā)現(xiàn),他們通過微調、函數(shù)調用和搜索增強等方式成功越獄了這一先進模型。

研究人員利用15個有害樣本和100個良性樣本進行微調,GPT-4模型便能夠生成錯誤信息、提取私人信息和插入惡意URL。這表明API功能擴展可能帶來新的安全隱患。這一發(fā)現(xiàn)對使用者和研究人員敲響了警鐘,應謹慎對待。

此外,研究人員還發(fā)現(xiàn)GPT-4 Assistants模型容易暴露函數(shù)調用的格式,并能夠被誘導執(zhí)行任意函數(shù)調用。同時,知識檢索可以通過在檢索文檔中注入指令來進行劫持。

該研究強調了對API提供的功能進行任何添加時,都可能暴露大量新的漏洞,即便是當前最領先的GPT-4也難以幸免。研究人員警示,在使用GPT-4 API時務必小心,避免輸入任何不想讓他人看到的內容。

此次發(fā)現(xiàn)的GPT-4 API安全漏洞再次提醒我們,隨著技術的不斷進步,安全問題愈發(fā)突出。在人工智能領域,如何確保模型的安全性已成為亟待解決的問題。未來,研究人員和開發(fā)人員需進一步加強技術研發(fā)和應用安全,以防止?jié)撛诘陌踩L險。

原創(chuàng)文章,作者:秋秋,如若轉載,請注明出處:http://2079x.cn/article/612489.html

秋秋的頭像秋秋管理團隊

相關推薦

發(fā)表回復

登錄后才能評論