Riot Games ו-Ubisoft משתפים פעולה בפרויקט מחקר בינה מלאכותית - תוך שימוש ביומני צ'אט של שחקנים כנתוני אימון

Ubisoft ו-Riot משתפות פעולה בפרויקט מחקר נגד רעילות, שיתמקד באיסוף יומני צ'אט בתוך המשחק כנתוני אימון עבור אלגוריתמי AI. שתי החברות אמורות לפרסם את ממצאיהן מהנתונים הללו בקיץ הבא, ובשלב זה יוחלט על צעדים עתידיים.

כשדיברו איתי באמצעות שיחת זום, וסלי קר, מנהל המחקר הטכנולוגי ב- Riot, ואיב ז'אקייר, מנכ"ל Ubisoft La Forge, שיתפו שניהם את המטרות ותקוותיהם ארוכות הטווח לגבי הפרויקט. הם מברכים אותו כראשון מסוגו כשיתוף פעולה מחקרי פתוח בתחום הבינה המלאכותית בין שתי חברות משחקים, הם מקווים שהלמדות שפורסמו בשנה הבאה יהיו הצעד הראשון בשימוש היעיל של התעשייה ב-AI ככלי להפחתת הרעילות.

מסיבה כלשהי, שחקני אודייר תמיד היו רעילים מאוד כששיחקתי הרבה בליגה. אני תוהה אם זה עדיין נכון לאחר העיבוד המחודש שלו?

לדברי ז'אקייר, לפרויקט שלוש מטרות עיקריות. ראשית, ליצור רשת ערכת נתונים משותפת, מלאה בנתוני נגן אנונימיים לחלוטין. השני, ליצור אלגוריתם AI שיכול לנטרל את הנתונים האלה. לבסוף, שהשותפות הזו תשמש כ"אב טיפוס" ליוזמות עתידיות בתעשייה נגד רעילות, עידוד תחרות וצעדים נוספים בתחום.

הגיוני ש-Riot ו-Ubisoft יהיו שתי חברות שמושקעות בפתרון הבעיה הזו, אם נחשבים לכותרים הפופולריים שלה מרובי משתתפים. Rainbow Six: Siege מתלכלך ממש מהר ברגע ששיתוף הפעולה בצוות חוטף מכה, והתאומים הבעייתיים של Riotליגת האגדותומעריכיםספוגים בריח רעיל.

גם קר וגם ג'אקייר הדגישו לאורך הראיון כי אנונימיות השחקנים, ושמירה על חוקי האזורים ו-GDPR, היו בראש סדר העדיפויות שלהם. כשנשאל אם נתוני שחקנים חולקו בין חברות, קר הדגיש שפרטי חשבון League of Legends שלך לא יישלחו לחברות אחרות ללא הסכמת שחקן. במקום זאת, יומני הצ'אט ייפסלו ממידע מזהה לפני שאלגוריתמים כלשהם יכלו לברר ולחדד בו.

הבעיה המיידית ביותר שעולה לך בראש כשאתה שומע על AI המעכב רעילות היא ההתמדה של שחקנים, נחושים ליידע אותך עד כמה אתה זבל. המצאת מילים חדשות, לקסיקון טראש טוק משתנה כל הזמן בתוך קהילות מקוונות. איך AI יכול להגיב לזה? החוכמה, לפי ז'אקייר, היא לא להסתמך על המילון ועל מקורות נתונים סטטיים. לפיכך הערך בשימוש ביומני צ'אט נוכחיים של שחקן, המשקפים את מטא הרעילות הנוכחית.

ואז יש חשש נוסף של תקלות, במיוחד במדיום שבו התלוצצות ידידותית בין חברים, חברים אקראיים לקבוצה ואפילו שחקני אויב יכולים להיות חלק מהחוויה. אם אני משחק בליין העליון בליגת האגדות, ואני כותב "ניצן CS נחמד" ליריב 0/3 המסלול שלי, זה רק קצת התלוננות, נכון? אם הם עושים לי את אותו הדבר, זה ממריץ. זה גורם לי לרצות לנצח יותר, ומשפר את החוויה. כיצד בינה מלאכותית יכולה לקבוע את ההבדל בין רעילות מזיקה אמיתית לבין התלהמות?

"זה מאוד קשה", קובע ז'קר. "הבנת ההקשר של דיון היא אחד החלקים הקשים ביותר. לדוגמה, אם שחקן מאיים על שחקן אחר. ב-Rainbow Six, אם שחקן אומר 'היי, אני אוציא אותך', זה עשוי להיות חלק מהפנטזיה. בעוד שבהקשרים אחרים עשויה להיות לזה משמעות שונה מאוד". קר עקבה אחרי זה עם כמה מהיתרונות שיש למשחקי וידאו בהקשר זה, הודות לגורמים אחרים.

לדבריו, התחשבות מול מי אתה עומד בתור היא דוגמה לגורם שיכול לסייע לבינה מלאכותית בקביעת רעילות אמיתית מצלעות מהנות. בתיאוריה, אתה לא תיפגע ממשוטטים אם תקרא לחבר הכי טוב שלך לכל החיים בלובי של הליגה.

באשר לעתיד, כל העיניים נשואות לתוצאות שפורסמו בשנה הבאה. לעת עתה, הוא מתמקד רק ביומני צ'אט, אבל עם Riot Games בוחנת ניטור הודעות קוליות ב-Valorant, קר סירב להוריד את זה מהשולחן כתחום מחקר עתידי אם שיתוף הפעולה יימשך גם אחרי 2023. לעת עתה, זה מתווה. צעד ראשון במסע ארוך נראה ששתי החברות מסורות לנסיעות. למרות שגם קר וגם ג'אקייר מקווים שפרויקט המחקר יפיק ממצאים חשובים ויעניק השראה לחברות אחרות לעקוב אחר התוכנית, הם לא מאמינים שבינה מלאכותית היא הכל ולסיים את כל התמתנות הרעילות.

"AI הוא כלי, אבל זה לא כדור כסף. ישנן דרכים רבות להבטיח את בטיחות השחקנים, ולכן הרעיון הוא להבין טוב יותר כיצד ניתן להשתמש בכלי הזה בצורה הטובה ביותר להתמודדות עם תוכן מזיק".

בסופו של דבר, המחקר הזה הוא רק מרכיב אחד במאמץ רחב יותר, אבל במוחותיהם של ז'אקייר וגם של קר אחד שיש לקוות שיתגלה כקריטי בעתיד. רק הזמן יגיד אם הם צודקים, האם הם יכולים לעמוד בהבטחתם שפרטיות השחקנים תישמר, והאם AI באמת הוא הגבול הבא במאבק נגד רעילות.