一种聚焦于提示的大语言模型隐私评估和混淆方法
信息网络安全
页数: 13 2024-09-10
摘要: 虽然大语言模型在语义理解方面表现优异,但频繁的用户交互带来了诸多隐私风险。文章通过部分回忆攻击和模拟推理游戏对现有的大语言模型进行隐私评估,证明了常见的大语言模型仍存在两类棘手的隐私风险,即数据脱敏处理可能影响模型响应质量以及通过推理仍能获取潜在的隐私信息。为了应对这些挑战,文章提出了一种聚焦于提示的大语言模型隐私评估和混淆方法。该方法以结构化进程展开,包括初始描述分解、伪造描... (共13页)