研究:大型语言模型在敏感数据被“删除”后仍然会输出相关信息

广告 X
OK欧意app

欧意最新版本

欧意最新版是全球三大交易所之一,注册即送最高6万元礼包

APP下载  官网地址

最近,来自北卡罗来纳大学教堂山分校的三位科学家发布了一项关于人工智能(AI)的预印研究,展示了从大型语言模型(LLMs)中(如OpenAI的ChatGPT和Google的Bard)删除敏感数据的困难。根据研究人员的论文,从LLMs中“删除”信息是可能的,但验证已删除信息的难度与实际删除同样困难。一旦模型训练完成,其创建者就不能够回到数据库中删除特定文件,以阻止模型生成相关结果。

标签:
上一篇2023-10-03
下一篇 2023-10-03

相关推荐