牛津大学 AI 研究员发出警告:大语言模型对科学真相构成风险

据站长之家 11 月 24 日报道,在**的一篇研究中,牛津大学互联网研究所的人工智能研究员发出了对大语言模型(LLMs)对科学真相构成威胁的警告。由 Brent Mittelstadt、Chris Russell 和 Sandra Wachter 等研究员在《自然人类行为》期刊上发表的论文中,他们指出,基于 GPT-3.5 架构等 LLMs 并非**的真实信息来源,可能产生他们所称的“幻觉”,即不真实的回应。 研究人员呼吁改变 LLMs 的使用方式,建议将其作为“零射击翻译器”以确保输出的事实准确性。研究强调,信任 LLMs 作为可靠信息来源可能导致科学真相受损。本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 support1012@126.com 举报,一经查实,本站将立刻删除。
上一篇2023-12-02
下一篇 2023-12-02

相关推荐