微信扫码
添加专属顾问
2025-01-27 03:23:21 194人关注
近期,纽约大学的研究团队发表了一项研究,揭示了大规模语言模型(LLM)在数据训练中的脆弱性。他们发现,即使是极少量的虚假信息,只需占训练数据的0.001%,就能导致整个模型出现重大错误。这一发现对于医疗领域尤其引人关注,因为错误的信息可能直接影响患者的安全。
假数据对AI的影响 AI数据安全 AI数据验证 假数据检测技术 AI模型失效原因