對抗性樣本共1篇
AI安全新戰(zhàn)場:大模型訓練數(shù)據(jù)投毒攻擊防御指南-軟盟

AI安全新戰(zhàn)場:大模型訓練數(shù)據(jù)投毒攻擊防御指南

AI安全領域正面臨一場全新“暗戰(zhàn)”——大模型訓練數(shù)據(jù)投毒攻擊。此攻擊手段隱蔽且破壞力巨大,能讓AI模型推理時“犯迷糊”,嚴重威脅系統(tǒng)安全。不過別慌,本文將深度拆解對抗性樣本生成與防御技...