T-Rex Label

对抗样本

对抗样本是为攻击视觉模型而设计的特殊样本。它们通常是通过在原始图像上添加难以察觉的扰动得到的,能导致视觉模型做出错误预测。这些样本对深度学习模型的安全性和可靠性构成重大威胁,研究对抗样本对于提高视觉模型的稳健性至关重要。