Napadi z inverzijo modela
Pri napadih z inverzijo modela napadalci uporabijo predvidevanja modela umetne inteligence za izvajanje obratnega inženirstva občutljivih informacij, ki so bile uporabljene za učenje modela. To lahko privede do razkritja zaupnih podatkov, kot so osebni podatki, ki naj ne bi bili javno dostopni. Ti napadi pomenijo veliko tveganje, zlasti pri modelih umetne inteligence, ki obdelujejo občutljive informacije.
Spremljajte Microsoftovo varnost