כיצד אנחנו משתמשים בטכנולוגיה כדי לזהות תוכן מזיק
אנחנו משתמשים בגישה מרובת שכבות כדי להגן על המשתמשים שלנו מפני תוכן מזיק והתנהגות מזיקה.
כדי לזהות ולעצור את ההפצה של קטגוריות מסוימות של תוכן תמונות לא חוקי או מזיק, אנחנו פורסים את הטכנולוגיות להתאמת קוד Hash, PhotoDNA ו-MD5, בתוכן של תמונות וסרטוני וידאו ששותף דרך השירותים לצרכנים ש-Microsoft מארחת, ובתוכן שהועלה עבור חיפושי תמונות חזותיים באינטרנט. קוד Hash הופך תמונות לסידרה של מספרים שניתן להשוות, לאחסן ולעבד בקלות. קודי ה-Hash האלה אינם הפיכים. כלומר, לא ניתן להשתמש בהם כדי ליצור מחדש את התמונות המקוריות. אנחנו מסתמכים על ההיתר שניתן בתקנת האיחוד האירופי (EU) 2021/1232 כנדרש, לשימוש בטכנולוגיות התאמת קודי Hash כדי לזהות חומר מיני פוטנציאלי של ילדים בשירותים שכפופים ל-EU Directive 2002/58/EC.
בנוסף, אנחנו משתמשים בטכנולוגיות של למידת מכונה, כמו אמצעי סיווג מבוססי טקסט, אמצעי סיווג מבוססי תמונות וטכניקות לזיהוי של פיתוי קטינים, במטרה לזהות תוכן או התנהגות ששותפו דרך שירותי צרכנים ש-Microsoft מארחת ושעשויים להיות לא חוקיים או להפר את המדיניות שלנו. לסיום, אנחנו נעזרים בדיווחים של משתמשים, גופים ממשלתיים ונאמני דיווח שמביאים לידיעתנו הפרות מדיניות פוטנציאליות. טכניקות שונות אלו מותאמות לתכונות ולשירותים שבהם הן פרוסות, כלומר ייתכן שלא נשתמש בכל הטכנולוגיות בכל השירותים, ולא באותו אופן בכל שירות.
בחלק מהשירותים שלנו אנו מפעילים גם כלים כדי לזהות ולשבש את השימוש לרעה ביכולות שיחות וידאו כדי לייצר ולשתף דימויים של ניצול מיני של ילדים (CSEAI) על-ידי משתמשים בסיכון גבוה. Microsoft משתמשת בכמה אותות כדי לזהות משתמשים בסיכון גבוה, כולל התקשורת הישירה הקודמת שלהם עם משתמשים שהושעו או נחסמו על שיתוף חומר CSEAI. אם משתמש מזוהה כמשתמש בסיכון גבוה, וכאשר אותות נוספים קיימים, בוט נפרס בשיחה החיה. הבוט משתמש בבינה מלאכותית כדי לקבוע אם שיחת וידאו חיה מכילה CSEAI, כמעט בזמן אמת. אם CSEAI מזוהה במהלך השיחה, היכולת לשדר וידאו בשיחה זו מושבתת.
אנחנו מוצאים את זה
אחרים מוצאים את זה
אתם מוצאים את זה
פריטי מדיניות
מדיניות התוכן וההתנהגות של Microsoft מסבירה מה אסור בשירותים שלנו.