זה לא שאין לי אמון בטכנולוגיה, הבעיה שלי היא עם בני האדם שהוא נועד לתפוס
רעילות במשחקים היא לא כיף, ובשנה זו של אדוננו 2020, נראה שיש מגמה גוברת של שימוש בבינה מלאכותית כדי למצוא ולהתמודד עם שחקנים רעילים. אני לא מתכוון רק בצ'אט טקסט; החברות Modulate ו-FaceIt יצרו שתיהן בינה מלאכותית שיכולה כביכול לזהות רעילות בצ'אט קולי מהאופן שבו מישהו אומר משהו.
חלק ממני שמרגיש שזה רעיון טוב. יש דרך להיפטר מהם במהירות ובקלות היא נהדרת. עם זאת, שמעתי סיפור אחד יותר מדי על AI לומד להיות גזעני, אז אני תוהה אם זה הטכנולוגיה הטובה ביותר להכניס למשחקי וידאו.
בשבוע שעבר, Modulate חשף חדשכלי ניהול המופעל על ידי בינה מלאכותית בשם ToxMod. הוא משתמש במודלים של למידת מכונה כדי להבין מה שחקנים אומרים, ואיך הם אומרים את זה כדי לזהות אם מישהו מגעיל בצ'אט קולי. הרעיון הוא שאם מישהו אומר קללות, ה-AI האלה יכולים לדעת אם זו קללה מרושעת או קללה בעלת כוונות טובות (תחשוב "פאק!" לעומת "פאק כן!").
באופן דומה, FaceIt הודיעה לאחרונה שמערכת הניהול של AI נגד רעילות, Minerva, יכולה כעת גם לצ'אט קולי במשטרה. הם מפעילים פלטפורמה לטורנירים וליגות של צד שלישי במשחקים כוללCS:GO,ליגת הרוקטודוטה 2, ולטענת Minerva's כבר זיהתה יותר מ-1.9 מיליון הודעות רעילות ואסרה עליהן יותר מ-100,000 שחקנים. החדשות גדולותהיא ש-Minerva מסוגלת כעת לנתח שיחות מלאות בין שחקנים ולזהות צ'אט קולי רעיל פוטנציאלי, כמו גם התנהגויות וצלילים מעצבנים שחוזרים על עצמם. אין ספק שזו טכנולוגיה מרשימה, אבל אני לא יכול שלא לתהות עד כמה זה יעבוד אילו סוגי בינה מלאכותית היו נפוצים יותר.
כדי להקדים את זה, אני חושב שהסקפטיות שלי היא בעיקר בגלל בני אדם. עם הטכנולוגיה של ToxMod, אם שחקנים יודעים שבינה מלאכותית מקשיבה לטון הקול שלהם, הם יכולים פשוט לומר דברים איומים בצורה יפה. אם השארנו הכל למערכות של ניהול אוטומטי כמו זה, יש הרבה אנשים חכמים אך איומים שעדיין יכולים להיראות כשחקנים מנומסים ולא להיתפס.
אם למידת המכונה של בינה מלאכותית היא דינמית, אז זה למידה ישירות בעבודה מבני אדם שיכולים להיות, בוא נהיה כנים, מאוד מניפולטיביים. אבל אם זה לומד מנתונים שמוזנים לו על ידי אדם, אז זה יכול באותה קלות לספוג את ההטיות שלהם.
זה לא אומר שאני חושב שכל AI ולמידת מכונה מטופשת או משהו, אבל זה קצת כמו ללמד חייזר (או פעוט) איך בני אדם אמורים לפעול. ישנן לא מעט דוגמאות של AI לומד התנהגויות מוזרות וישר. אחד המפורסמים שבהם היה טיי,הצ'אטבוט של מיקרוסופט שלמד להיות גזעני בטוויטר(מאנשים שמספימים את זה עם דברים גזעניים). מדובר במקרה חמור יותרתוכנה אמריקאית המיועדת לביצוע הערכות סיכונים על אסירים, שעשה טעויות כשתייג אנשים שחורים כעבריינים חוזרים בסבירות גבוהה בשיעור כפול מזה שעשה לאנשים לבנים (שזה למד מנתונים שנמסרו לו). משחקי וידאו הם, כמובן, הרבה פחות רציניים מזה - אבל ברוח דומה, אני מרגיש שיש אפשרות איזשהו משחק AI יכול ללמד את עצמו (או למעשה, ללמד אותו) שהמבטאים או דיאלקטים מסוימים נשמעים יותר מרושעים מאחרים. אני לא אומר שכל ה-AI המגניבים האלה יגמרו גזענים - אבל! מבחינה היסטורית, אנחנו לא מעולים בלמד אותם לא להיות.
אני משחק חבורה של משחקים שבהם יש הרבה אנשים ווקאליים להוטים להשמיע את הדעות המגעילות שלהם. אני לא מתעסק בצ'אט קולי כמוOverwatchאוֹמעריכים. חוויתי את כל ההערות הסקסיסטיות המטומטמות, והן אפילו לא מתקדמות אותי במיוחד (למיני האנשים שאומרים שיש לחרא הזה כמו, שתי בדיחות), פשוט נמאס לי מזה. עם זאת, מה שלמדתי מזה הוא שאם אנשים רוצים להיות מטומטמים בשבילך ולא יכולים לעשות את זה עם הקול שלהם, הם ימצאו דרך. אבל, הרג קבוצתי, זריקת גפרורים, הישארות ב-AFK - יש אנשים פשוט נחושים מכדי לגרום למשחקי וידאו להיות מבאסים.
AI הוא טכנולוגיה מגניבה, ואם זה עובד כמתוכנן, נהדר! אבל זה נראה די מתקדם כאשר מערכות דיווח וחסימה בסיסיות במשחקים רבים לא עובדות כמו שצריך מלכתחילה. בעיניי, שחקנים שקוראים לשחקנים אחרים נראית הדרך הטובה ביותר להתמודד עם התנהגות רעילה, אבל זה צריך לעבוד היטב יד ביד עם מערכות אוטומטיות כדי לבטל את המגעילים לתמיד. בניית מערכות דיווח חזקות יותר כדי שנוכל לעשות אפילו טוב יותר, זו תהיה הדרך שלי. לרוע המזל, אני חושב שהרבה בני אדם הם חכמים מדי ומרושעים מכדי להיתפס על ידי בינה מלאכותית בלבד.