📢 Gate广场独家活动: #PUBLIC创作大赛# 正式开启!
参与 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),并在 Gate广场发布你的原创内容,即有机会瓜分 4,000 枚 $PUBLIC 奖励池!
🎨 活动时间
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 参与方式
在 Gate广场发布与 PublicAI (PUBLIC) 或当前 Launchpool 活动相关的原创内容
内容需不少于 100 字(可为分析、教程、创意图文、测评等)
添加话题: #PUBLIC创作大赛#
帖子需附带 Launchpool 参与截图(如质押记录、领取页面等)
🏆 奖励设置(总计 4,000 枚 $PUBLIC)
🥇 一等奖(1名):1,500 $PUBLIC
🥈 二等奖(3名):每人 500 $PUBLIC
🥉 三等奖(5名):每人 200 $PUBLIC
📋 评选标准
内容质量(相关性、清晰度、创意性)
互动热度(点赞、评论)
含有 Launchpool 参与截图的帖子将优先考虑
📄 注意事项
所有内容须为原创,严禁抄袭或虚假互动
获奖用户需完成 Gate广场实名认证
Gate 保留本次活动的最终解释权
研究揭示GPT模型可信度漏洞 呼吁加强AI安全性
评估语言模型的可信度
研究人员最近发布了一个针对大型语言模型(LLMs)的综合可信度评估平台,并在论文《DecodingTrust:全面评估GPT模型的可信度》中进行了介绍。
评估结果揭示了一些之前未知的与可信度相关的漏洞。研究发现GPT模型容易产生有毒和有偏见的输出,并可能泄露训练数据和对话历史中的隐私信息。虽然在标准基准测试中GPT-4通常比GPT-3.5更值得信赖,但在面对恶意设计的提示时,GPT-4反而更容易受到攻击,可能是因为它更严格地遵循了误导性指令。
这项工作对GPT模型进行了全面的可信度评估,揭示了可信度方面的差距。评估基准可公开获取,研究团队希望鼓励其他研究人员在此基础上继续深入研究,以预防潜在的恶意利用。
评估从八个可信度角度对GPT模型进行了全面分析,包括对抗性攻击的鲁棒性、有毒性和偏见、隐私泄露等方面。例如,为评估对文本对抗攻击的鲁棒性,研究构建了三种评估场景,包括标准基准测试、不同指导性任务说明下的测试,以及更具挑战性的对抗性文本测试。
研究发现了一些有趣的结果。在对抗性演示方面,GPT模型不会被反事实示例误导,但可能被反欺诈演示误导。在有毒性和偏见方面,GPT模型在良性提示下偏差不大,但容易被误导性提示"诱骗"同意有偏见的内容,GPT-4比GPT-3.5更容易受影响。
在隐私保护方面,GPT模型可能会泄露训练数据中的敏感信息,如电子邮件地址。GPT-4在保护个人身份信息方面比GPT-3.5表现更好,但两者在特定类型信息的保护上都很稳健。然而,在某些情况下GPT-4反而比GPT-3.5更容易泄露隐私,可能是因为它更严格地遵循了误导性指令。
这项研究为大型语言模型的可信度评估提供了全面的视角,揭示了现有模型的优势和不足。研究者希望这些发现能推动更安全、更可靠的AI模型的开发。