Επιθέσεις μέσω δημιουργίας ψευδών εντυπώσεων μηχανής
Οι επιθέσεις μέσω δημιουργίας ψευδών εντυπώσεων μηχανής περιλαμβάνουν τη δημιουργία παραπλανητικών εισόδων που παραπλανούν τα μοντέλα AI, ώστε να προβούν σε εσφαλμένες προβλέψεις ή ταξινομήσεις. Σε αυτές τις επιθέσεις, οι φαινομενικά αβλαβείς είσοδοι, όπως μια τροποποιημένη εικόνα ή ένα απόσπασμα ήχου, προκαλούν απρόβλεπτη συμπεριφορά ενός μοντέλου AI. Σε ένα πραγματικό παράδειγμα, οι ερευνητές επέδειξαν πώς οι διακριτικές αλλαγές στις εικόνες θα μπορούσαν να παραπλανήσουν τα συστήματα αναγνώρισης προσώπου και να καταλήξουν σε εσφαλμένη αναγνώριση ατόμων.
Ακολουθήστε την Ασφάλεια της Microsoft