📢 Gate廣場獨家活動: #PUBLIC创作大赛# 正式開啓!
參與 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),並在 Gate廣場發布你的原創內容,即有機會瓜分 4,000 枚 $PUBLIC 獎勵池!
🎨 活動時間
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 參與方式
在 Gate廣場發布與 PublicAI (PUBLIC) 或當前 Launchpool 活動相關的原創內容
內容需不少於 100 字(可爲分析、教程、創意圖文、測評等)
添加話題: #PUBLIC创作大赛#
帖子需附帶 Launchpool 參與截圖(如質押記錄、領取頁面等)
🏆 獎勵設置(總計 4,000 枚 $PUBLIC)
🥇 一等獎(1名):1,500 $PUBLIC
🥈 二等獎(3名):每人 500 $PUBLIC
🥉 三等獎(5名):每人 200 $PUBLIC
📋 評選標準
內容質量(相關性、清晰度、創意性)
互動熱度(點讚、評論)
含有 Launchpool 參與截圖的帖子將優先考慮
📄 注意事項
所有內容須爲原創,嚴禁抄襲或虛假互動
獲獎用戶需完成 Gate廣場實名認證
Gate 保留本次活動的最終解釋權
GPT模型可信度全面評估:揭示潛在漏洞與改進空間
全面評估GPT模型可信度的新研究
一項由多所頂尖大學和研究機構聯合開展的研究,對GPT等大型語言模型的可信度進行了全面評估。研究團隊開發了一個綜合評估平台,並在最新論文《DecodingTrust:全面評估GPT模型的可信度》中介紹了相關發現。
研究發現了一些此前未公開的與可信度相關的漏洞。例如,GPT模型容易被誤導產生有毒和帶有偏見的輸出,還可能泄露訓練數據和對話歷史中的隱私信息。雖然在標準基準測試中GPT-4通常比GPT-3.5更可靠,但在面對惡意設計的系統提示或用戶提示時,GPT-4反而更容易受到攻擊,這可能是因爲GPT-4更嚴格地遵循了誤導性指令。
研究團隊從8個可信度角度對GPT模型進行了全面評估,包括對抗性攻擊的魯棒性、有毒性和偏見、隱私泄露等方面。例如,在評估對文本對抗攻擊的魯棒性時,研究者構建了三種評估場景,包括標準基準測試、不同任務說明下的表現,以及面對更具挑戰性的對抗性文本時的脆弱性。
研究還發現,GPT模型在某些情況下表現出意料之外的優勢。例如,GPT-3.5和GPT-4不會被演示中添加的反事實示例誤導,甚至可能從中受益。但同時,提供反欺詐演示可能會誤導模型對反事實輸入做出錯誤預測,特別是當反事實演示靠近用戶輸入時。
在有毒性和偏見方面,GPT模型在良性環境下對多數刻板印象主題的偏差不大,但在誤導性系統提示下可能會被"誘騙"同意帶有偏見的內容。GPT-4比GPT-3.5更容易受到有針對性的誤導性系統提示影響。模型的偏見程度還與用戶提示中提到的人口羣體和刻板印象主題有關。
關於隱私泄露問題,研究發現GPT模型可能會泄露訓練數據中的敏感信息,如電子郵件地址。在某些情況下,利用補充知識可顯著提高信息提取的準確率。GPT模型還可能泄露對話歷史中注入的私人信息。總體而言,GPT-4在保護個人身分信息方面比GPT-3.5更穩健,但兩種模型在面對隱私泄露演示時都可能泄露各類個人信息。
這項研究爲GPT模型的可信度提供了全面評估,揭示了潛在的漏洞和改進空間。研究團隊希望這項工作能鼓勵更多研究者參與,共同努力創造更強大、更可信的模型。