Tấn công đối nghịch là hành động tạo dữ liệu đầu vào đánh lừa để mô hình AI đưa ra dự đoán hoặc phân loại không chính xác. Trong các cuộc tấn công này, dữ liệu đầu vào có vẻ vô hại, chẳng hạn như một hình ảnh hoặc trích đoạn âm thanh bị sửa đổi, sẽ gây ra hành vi khác thường ở mô hình AI. Trong ví dụ thực tế, các nhà nghiên cứu đã chứng minh khả năng đánh lừa hệ thống nhận diện khuôn mặt bằng các điểm sửa đổi tinh vi trong hình ảnh, dẫn đến nhận dạng sai người.
Theo dõi Microsoft Security