在最近的美國總統(tǒng)選舉季節(jié)中,OpenAI的DALL-E圖像生成器引發(fā)了廣泛關注。然而,該公司明確表示,它已經(jīng)成功阻止了人們使用該工具來創(chuàng)造與政治相關的deepfakes。OpenAI在一份聲明中透露,DALL-E已經(jīng)拒絕了超過25萬份與拜登總統(tǒng)、當選總統(tǒng)特朗普、副總統(tǒng)哈里斯、當選副總統(tǒng)萬斯以及州長瓦爾茲的合影請求。
這一措施是OpenAI之前實施的一項安全策略的直接結果。為了避免其技術被用于傳播錯誤信息,OpenAI決定DALL-E將不再生成真實人物的圖像,包括政治家。這一決定不僅顯示了OpenAI對信息真實性的重視,也體現(xiàn)了其在人工智能道德和責任方面的深思熟慮。
自年初以來,OpenAI一直在為美國總統(tǒng)選舉做準備。公司制定了明確的策略,旨在防止其工具被用于誤導公眾,并確保詢問選舉事宜的用戶能夠獲取到準確的信息。OpenAI透露,在選舉日之前的一個月里,有100萬個ChatGPT回復將用戶引向了權威投票信息網(wǎng)站CanIVote.org。此外,在選舉日及其后的一天,ChatGPT還產(chǎn)生了200萬個回復,建議用戶查看美聯(lián)社、路透社等權威新聞來源以獲取選舉結果。
OpenAI強調,其聊天機器人ChatGPT在回復用戶時,即使被明確詢問,也不會表達政治偏好或推薦候選人。這一立場有助于保持ChatGPT回復的中立性和客觀性,為用戶提供一個不受政治傾向影響的交流平臺。
然而,值得注意的是,DALL-E并非唯一的人工智能圖像生成器。在社交媒體上,仍然存在許多與選舉相關的deepfakes。例如,一個經(jīng)過修改的競選視頻展示了卡瑪拉·哈里斯說出了一些她實際上并未說過的話,如“我被選中是因為我是最終的多元化雇員”。這類deepfakes的傳播可能對公眾造成誤導,影響選舉的公正性和準確性。
OpenAI在防止其技術被用于誤導公眾方面采取了積極的措施。通過拒絕生成真實人物的圖像以及引導用戶獲取準確信息,OpenAI在維護信息真實性和準確性方面發(fā)揮了重要作用。然而,隨著人工智能技術的不斷發(fā)展,如何更好地應對deepfakes等新型信息誤導手段,仍然是一個值得深入思考和探討的問題。
原創(chuàng)文章,作者:AI,如若轉載,請注明出處:http://2079x.cn/article/692343.html