של השנהCall Of Duty: Modern Warfare 3יעשה שימוש ב-ToxMod AI של Modulate כדי לעזור למתן צ'אט קולי ב-Multiplayer, כך חשפו Activision. המערכת לא תזהה עבירות בזמן אמת, והיא גם לא תוכל לבעוט אותך ממשחקים לצורך חיטוי וסנוורים. זה רק מגיש דיווחים על התנהגות רעה, כאשר צוות Activision עושה את הקריאה האחרונה לפעולות אכיפה, שעשויות לכלול סקירת הקלטות כדי להבין את ההקשר של התפרצות.
אתה יכול לכבות את הצ'אט הקולי ב-Call of Duty כדי להימנע מהקלטה, אבל לא נראה שיש דרך לבטל את הסכמתך לניהול קולי בינה מלאכותית במשחקי Call of Duty הנוכחיים/החדשים בזמן כתיבת שורות אלה. הטכנולוגיה עוברת בדיקות בטא מהיום, ה-30 באוגוסט ב-Modern Warfare 2 וב-Warzone בצפון אמריקה, כשהגרסה העולמית בשפה האנגלית תנחת לצד Modern Warfare 3 ב-10 בנובמבר.
באופן מסקרן, מווסתלְהִתְפַּאֵרש"ה-AI המתקדם של ToxMod מבין באופן אינטואיטיבי את ההבדל בין טראש טוק ידידותי להתנהגות רעילה מזיקה באמת". בהתחשב בכך שהרבה אינטליגנציות לא מלאכותיות, הלא הן בני אדם, נאבקות עם ההבחנה הזו, אני מעוניין וקצת חושש לראות את פועלן. הטכנולוגיה לא רק מקשיבה למילות מפתח שובבות, אלא "מעריכה את הטון, הגוון, הרגש וההקשר של שיחה כדי לקבוע את סוג וחומרת ההתנהגות הרעילה".
במהדורה באתר של Modulate, מנהל הטכנולוגיה הראשי של Activision, מייקל ואנס, תיאר את הכנסת Toxmod ל-COD כ"צעד קריטי קדימה ליצירה ותחזוקה של חוויה מהנה, הוגנת ומסבירת פנים לכל השחקנים." המשחק כבר עושה שימוש בסינון מבוסס טקסט לצ'אט ושמות משתמש במשחק, על גבי מערכת דיווח שחקנים.
Modulate - שנוסדה ב-2017, עם לקוחות כולל תלבושת VR Schell Games ו-Riot - ישדף אתיקהשבו הם מתייחסים לכמה מהביקורות הנפוצות יותר המופנות ל-AI, כגוןהסבירות שאלגוריתמים ומערכי נתונים "ניטרליים" יעבירו את ההטיות החברתיות של יוצריהם, וההסתמכות של דגמי שפות גדולים רבים על מידע המוגן בזכויות יוצרים או מידע שניתן ללא רשות מפורשת.
"אנו רואים את זה חיוני לא רק עבור העסק שלנו, אלא גם את האחריות שלנו, להבטיח שכל מערכות למידת המכונה שלנו מאומנות על קבוצה מייצגת ורחבה של קולות שונים התואמים לטווח גילאים, זהות מגדרית, גזע, מבנה גוף. ועוד", נכתב. "במידת האפשר, אנו משתדלים להשתמש במערכי נתונים ציבוריים גדולים שכבר נחקרו לצורך ייצוגיות, אם כי במקרים מסוימים אנו נדרשים לאסוף את נאום ההתייחסות שלנו.
"כשזה המקרה, הקפדנו לשכור מגוון רחב של שחקני קול (כאשר דיבור פעיל מספיק) או לעבוד עם צוות תיוג הנתונים המיומן שלנו כדי לזהות מערך מבחנים מגוון מספיק."
להגדיר את הטענה שמערכת Toxmod תוכננה ונבדקה "כדי להבטיח שאין לנו סיכוי גבוה יותר לסמן דמוגרפיה מסויימת כמזיקות, בהינתן אותה התנהגות. עם זאת, אנו מתחשבים מדי פעם בנתונים הדמוגרפיים של אדם כאשר אנו קובעים את חומרת הנזק. לדוגמה, אם נזהה דובר בגיל ההתבגרות בצ'אט, אנו עשויים לדרג סוגים מסוימים של עבירות בצורה חמורה יותר בשל הסיכון לילד.
"אנו גם מכירים בכך שהתנהגויות מסוימות עשויות להיות שונות מהותית בהתאם לדמוגרפיה של המשתתפים", נכתב בהמשך. "למרות שהמילה n נחשבת בדרך כלל ללשון הרע, שחקנים רבים המזדהים כשחורים או חומים החזירו אותה ומשתמשים בה באופן חיובי בתוך הקהילות שלהם. בעוד ש-Modulate אינו מזהה או מזהה את האתניות של דוברים בודדים, הוא יקשיב לשיחה. רמזים כדי לקבוע כיצד אחרים בשיחה מגיבים לשימוש במונחים כאלה."
יש גםדף פרטיותהמפרט אילו נתונים קוליים אוספת Modulate כדי למתן את הצ'אט וגם "לאמן" את ה-AI שלו, וכיצד הנתונים הללו מאוחסנים ואנונימיים. יש מחשבות על כל זה?