几乎所有在线服务都在收集我们的个人数据,并可能将这些数据用于训练 LLM 。然而,模型会如何使用这些用于训练的数据则是难以确定的。如果在模型的训练中使用了诸如地理位置、健康记录、身份信息等敏感数据,那么针对模型中隐私数据的提取攻击( Data extraction attack )将会造成大量的用户隐私泄漏。「 Are Large Pre-Trained Language Models Leaking Your Personal Information? 」一文中证明,由于 LLM 对于训练数据的记忆, LLM 在对话过程中确实存在泄露个人信息的风险,且其风险随着示例数量的增加而增加。
模型泄漏信息的原因有多种。其中一些是结构性的,与构建模型的方式有关;而另一些是由于泛化能力差、对敏感数据的记忆等因素造成的。
可以考虑通过在数据的存储和传输环节引入加密算法进行处理,并加强访问控制,同时,建立有效的审计机制。