استودیو Omeda در بازی سه نفره چند نفره آنلاین عرصه نبرد خود با مشکل مواجه شد سلف، اسبق، جد. و بنابراین از راهاندازی به مدیریت چت مبتنی بر هوش مصنوعی روی آورد GGWP برای مهار رفتار سمی
و کار کرد. استودیو Omeda و GGWP در حال به اشتراک گذاشتن نتایج قانعکنندهای از تأثیر ابزار تعدیل چت مبتنی بر هوش مصنوعی GGWP در مبارزه با رفتار سمی در جامعه بازیها هستند.
این تأثیر عمیق بوده است و کاهش قابل توجهی در پیامهای چت توهینآمیز و تکرار تخلفات را نشان میدهد. به گفته این شرکتها، در صنعتی که با چالش رفتار بازیکنان سمی دست و پنجه نرم میکند، رویکرد Omeda Studios نشاندهنده گامی اساسی در جهت ایجاد یک محیط بازی جامعتر و محترمانهتر است.
فونگ میگوید: «آنچه جالب است این است که بچههای Predecessor در ارتباط با جامعه خود بسیار شفاف هستند. “ما تعدادی مشتری داریم که نمی خواهند جامعه آنها بداند چه کسی به آنها کمک می کند. آنها می خواهند همه چیز در پشت صحنه باشد. واقعاً جالب و با طراوت بود.”
چگونه شروع شد

دنیس فونگ، مدیر عامل GGWP، در مصاحبه ای با GamesBeat گفت که تیم Predecessor به طور مستقل یک پست وبلاگی نوشت و نتایجی را که فیلتر هوش مصنوعی GGWP در جامعه داشت به اشتراک گذاشت. دو شرکت در مورد نتایج صحبت کردند و به یک مطالعه موردی رسیدند.
رابی سینگ، مدیرعامل استودیو Omeda، در مصاحبه ای با GamesBeat گفت که همه چیز پس از تصاحب Predecessor توسط این شرکت شروع شد، بازی ای که توسط طرفدارانی ساخته شد که پس از تصمیم Epic Games برای تعطیل کردن Paragon MOBA، بازی را به دست گرفتند. استودیو Omeda ساخته شد محصول و در دسامبر ۲۰۲۲ عرضه شد.
سینگ گفت: “زمانی که Predecessor را در دسترسی اولیه راه اندازی کردیم، افزایش تعداد بازیکنان و فروش فراتر از حد انتظار ما بود.” “موفقیت پیش بینی نشده عدم وجود ابزارهایی را که ما برای کاهش سمیتی که همه می دانیم در بسیاری از بازی های آنلاین بسیار رایج است، مورد نیاز بود، برجسته کرد.”
سینگ با سرمایهگذاری تماس گرفت که تیم را با فونگ در GGWP مرتبط کرد. آنها راه حل GGWP را ادغام کردند و شاهد پیشرفت های قابل توجهی در بازی، تعاملات اجتماعی – همه چیز فوق العاده مثبت بود. این در به دوش گرفتن بار تعدیل تجربه درون بازی بسیار مفید بوده است و به ما این امکان را میدهد که این تعهد را نسبت به جامعه خود برای ایجاد یک تجربه واقعاً مثبت بازیکن حفظ کنیم.”
اصول تعدیل رفتار بد

Jon Sredl، مدیر ارشد تولید زنده و عملیات بازی در Omeda Studios، در مصاحبه ای گفت که اعتدال اغلب به چند روش انجام می شود. اولین مورد واکنشی است که در آن منتظر میشوید تا بازیکنان چیزهای بدی بگویند و سپس منتظر بمانید تا بازیکنان دیگر آنها را گزارش کنند. سپس منتظر می مانید تا یک انسان آنچه گفته شده را مرور کند و تصمیم بگیرد که آیا آن چیز بدی است که باید بعد از آن مجازات شود. این مانع از وقوع هیچ چیز در لحظه نمی شود. بازیکن متخلف اغلب حتی یک اعلان از اشتباه گفته شده دریافت نمی کند.
سردل گفت: “شما ابزاری برای راهنمایی بازیکنان ندارید تا بفهمند چه چیزی قابل قبول است و چه چیزی قابل قبول نیست یا استانداردهای شما چیست.”
روش دیگر تعدیل، فیلترهای کلمه ساده است. شما می گویید بازیکنان مجاز به گفتن این کلمه نیستند. سردل گفت که این شرکت هرگونه تلاشی برای گفتن این کلمه را با یک لیست طولانی بزرگ از توهینها، سخنان نفرتانگیز و دیگر چیزهای گروه سانسور خواهد کرد.
این کار به این دلیل کار میکند که همه چیز را در لحظه متوقف میکند. اما از آنجایی که یک فیلتر ثابت است، یا باید خودتان دائماً آن را بهروزرسانی کنید، یا منتظر هستید تا بازیکنان بفهمند چه چیزی واقعاً سانسور نمیشود و راههای آن سردل گفت که آنها می توانند اعداد را جایگزین حروف کنند. “ما به دنبال ابزاری کم سربار بودیم که بتواند ارزش زیادی را از نظر صرفه جویی در زمان بازبینی انسانی به ما بدهد و بتواند در لحظه جلوی این کار را بگیرد و از تشدید اوضاع جلوگیری کند.”
این تیم شروع به کار با ابزار مبتنی بر هوش مصنوعی برای تعدیل چت متنی کرد. نیاز به تغییر و تنظیم بر اساس استانداردهای خود بازی داشت.
او میگوید: «نکته مهم یک ابزار این است که یک شبکه عصبی است. “شما می توانید آن را در مورد آنچه که ما به آن اهمیت می دهیم آموزش دهید. این به ما امکان می دهد تا به طور مداوم پیشرفت کنیم و مواردی را پیدا کنیم که در آنها ممکن است کمی خشن رفتار کنیم، یا اینکه مدل در مورد چیزهایی که به آنها اهمیت نمی دادیم کمی خشن رفتار کنیم. اما چیزهای دیگری وجود دارد که ما بیشتر به آنها اهمیت می دهیم که مدل در ابتدا اجازه داده بود. و سپس با تیم کار می کنیم. آنها تنظیماتی را در مدل انجام می دهند. ، همانطور که ما در حال شکل دادن مدل به سمت ترکیبی از آنچه جامعه ما انتظار دارد و استانداردهایی که ما به آنها نگاه می کنیم، هستیم.”
مدیریت شهرت

Sredl گفت که ویژگی اضافی GGWP در مدیریت شهرت نیز ارزشمند است. این می تواند تخلفات را توسط حساب خاصی که ردیابی کرده است، ردیابی کند. اگر این بازیکن به نقض استانداردهای جامعه ادامه دهد، می تواند به تدریج مجازات هایی را ارائه دهد و بر اساس امتیاز شهرت نتیجه گیری کند – بدون نیاز به اعتدال انسانی.
سردل: “برای بازیکنانی که سابقه بسیار مثبت یا حداقل خنثی دارند، ما میتوانیم نرمتر رفتار کنیم، که به ما امکان میدهد واکنش سریعتری نسبت به بازیکنانی که فکر میکنیم ریسک بالاتری دارند یا منفیکننده هستند، داشته باشیم.” گفت . حالا اگر کسی حرف زشتی، صرف نظر از امتیاز شهرتش بگوید، ما آن را تعطیل میکنیم. و به کسی پاس رایگان نمیدهیم زیرا در گذشته مثبت بوده است. اما این بخش بزرگی از اجازه دادن به ما است. بسته به آنچه که تاریخچه آنها نشان داده است، در مورد میزان سختگیری ما با بازیکنان بسیار انعطاف پذیرتر باشیم.”
تغییر پارادایم در پرداختن به سمیت

رفتار سمی در بازی های آنلاین صرفاً یک ناراحتی نیست. بر اساس گزارشی که توسط لیگ ضد افترا. آزار و اذیت، که اغلب بر اساس فاکتورهای هویتی گروههای خاصی را هدف قرار میدهد، تهدیدی اساسی برای حفظ و رضایت بازیکنان است. حجم زیاد پیامهای روزانه، تعدیل دستی را غیرعملی میسازد. چیزی باید انجام شود.
بهطور سنتی، بازیها بهعنوان یک درمان به سمت اخراج تمایل داشتند، اما تحقیقات نشان میدهد که تنها حدود ۵ درصد از بازیکنان به طور مداوم رفتار مخرب از خود نشان میدهند. با درک این موضوع، استودیو Omeda پارادایم جدیدی را پذیرفت که بر آموزش برای جلوگیری از رفتار سمی تمرکز دارد.
ابزار تعدیل چت Omeda Studios از یک رویکرد جامع سه جانبه استفاده می کند:
فیلترینگ زنده: کلمات و توهین های توهین آمیز در زمان واقعی فیلتر می شوند و به عنوان خط اولیه دفاع در برابر پیام های توهین آمیز عمل می کنند.
مدل های تشخیص پیشرفته: مدلهای زبان سفارشی، انواع مختلفی از پیامهای سمی، از جمله نفرت هویت، تهدید، و توهین کلامی را در عرض چند ثانیه علامتگذاری میکنند.
تحریم های مبتنی بر رفتار: تجزیه و تحلیل الگوهای تاریخی بازیکنان و رفتار جلسات فعلی امکان تحریمهای متناسب را فراهم میکند، از قطعکردن جلسات برای لحظات داغ تا طولانیتر، مجازاتهای سختتر برای متخلفان تکراری.
نتیجه: کاهش ملموس در سمیت

استودیو Omeda از ژانویه ۲۰۲۲ از GGWP برای جمعآوری دادهها و آموزش مدل استفاده میکند. آنها فرآیند تحریم خودکار را در ژوئن ۲۰۲۳ روشن کردند و از آن زمان تاکنون چت را پاکسازی میکند.
سردل گفت: «این فضای مکالمه به طور چشمگیری سالمتر از آن چیزی است که من با سایر MOBA ها عادت کردهام. “بازیکنان متوجه می شوند که سمیت کمتری نسبت به بازی های دیگر وجود دارد و احتمال اینکه شروع به صحبت کنند بیشتر است.”
از زمان ادغام ابزار تعدیل، Predecessor شاهد کاهش قابل توجهی در پیامهای چت توهینآمیز با کاهش ۳۵٫۶ درصدی در هر جلسه بازی بوده است.
بازیکنانی که به طور فعال چت می کنند ۵۶٫۳ درصد کمتر پیام های توهین آمیز ارسال کرده اند. کاهش های خاص شامل کاهش ۵۸ درصدی حوادث مرتبط با هویت، کاهش ۵۵٫۸ درصدی در حوادث مرتبط با خشونت و کاهش ۵۸٫۶ درصدی در حوادث آزار و اذیت است.
فونگ گفت که میزان تکرار جرم به میزان قابل توجهی کاهش یافته است. این فقط سمیت را کاهش نمی دهد. از تکرار آن جلوگیری می کند. جورج نگ، یکی از بنیانگذاران GGWP، در مصاحبه ای گفت که این نرخ ها از ۵۵٪ تا ۷۵٪ از نظر توقف عود متفاوت است. بازیکنان پس از اخطار احتمالاً تخلف دیگری نخواهند داشت.
هشدارهای ساده، مانند بیصدا کردن جلسه، که برای کاهش تنشهای گاه و بیگاه طراحی شدهاند، در جلوگیری از رفتار نادرست در آینده در اکثر بازیکنان مؤثر بوده است. در واقع، حدود ۶۵ درصد از بازیکنانی که چنین هشدارهایی را دریافت کردهاند، از تخلفات جدیتر چت خودداری کرده و از رفتار سمی مداوم که تحریمهای شدیدتر را تضمین میکند، اجتناب کردهاند.
بازیکنانی که به طور مداوم سمیت نشان میدادند و در نتیجه به تحریمهای شدیدتری میرسیدند، اغلب با تحریمهای اضافی مواجه میشدند. تحمیل این تحریمهای مکرر بر بازیکنانی که الگوهای رفتار بد درازمدت بیشتری دارند، در جلوگیری از قربانی شدن دیگران به سمیت آنها مؤثر بوده است.
Sredl گفت که این شرکت از نظر ساعات خدمات مشتری که بر روی برخورد با افراد سمی متمرکز شده است، در هزینه های زیادی صرفه جویی کرده است.
او گفت: «ابزاری مانند این با مخاطب به معنای واقعی کلمه مقیاس میشود و شما صرفهجویی زیادی در مقیاس خواهید داشت. “شما همچنین ناملموس بازیکنان شادتری را دارید که برمی گردند. یکی از ساده ترین راه ها برای اینکه کسی از یک بازی کاملاً جدید بیرون بیاید این است که وارد شود و یک جامعه واقعاً خصمانه را ببیند.”
پیچیدگی های اعتدال

این بدان معنا نیست که آسان است. مواردی در برخی کشورها وجود دارد که استانداردها متفاوت است زیرا می توانید در مکان هایی مانند استرالیا از زبان رنگارنگ تری استفاده کنید. و مدل می تواند نتیجه گیری کند. اگر دو نفر در دیسکورد شوخی کنند، احتمال اینکه با هم دوست باشند زیاد است. اما اگر از چت متنی استفاده میکنند، احتمال کمتری وجود دارد که در ارتباط باشند و بنابراین ممکن است کاملا غریبه باشند.
Sredl گفت، در مواردی که یک انسان تصمیم می گیرد هوش مصنوعی اشتباه کرده است، می تواند آن را اصلاح کند و به GGWP بگوید، که می تواند مدل را تغییر داده و آن را بهتر کند.
او گفت: “بیشتر جامعه از وجود این امر به طرز خارق العاده ای خوشحال هستند.” “این کار بسیار برای ما انجام داده است که بازیکنانی را که قرار است به طرز وحشتناکی سمی باشند، حذف کنیم و آنها را از منظر چت از اکوسیستم ما حذف کنیم.
نتیجه گیری: راه حل های فعال برای یک محیط بازی مثبت

سردل گفت هنوز فرصتی برای مداخله دستی توسط انسان وجود دارد.
Stredl گفت: “اما از آنجایی که این یک سیستم مبتنی بر مدل است، به صورت خطی با پایه بازیکن ما مقیاس می شود.”
تا کنون، این شرکت مجبور به استخدام بخش بزرگی از افراد خدمات مشتری نبوده است. و می تواند منابع خود را روی ساخت بازی متمرکز کند.
نتایج استودیو Omeda بر اثربخشی تعدیل پیشگیرانه در کاهش سمیت تاکید دارد. ابزار GGWP نه تنها چت توهین آمیز را در زمان واقعی مسدود می کند، بلکه به عنوان یک بازدارنده قوی عمل می کند و بازیکنان را وادار می کند تا قبل از ارسال پیام های توهین آمیز تجدید نظر کنند.
این تعهد به ایجاد یک محیط بازی جامعتر و محترمانهتر، استاندارد جدیدی را برای این صنعت ایجاد میکند و نشان میدهد که وقتی توسعهدهندگان رفاه بازیکنان را در اولویت قرار میدهند، چه چیزی ممکن است.
همانطور که جامعه بازی همچنان در حال تکامل است، رویکرد Omeda Studios و GGWP می تواند به عنوان طرحی برای ایجاد فضاهای آنلاین امن تر و لذت بخش تر برای بازیکنان در سراسر جهان باشد.
این شرکت اکنون خود را برای نسخه بتای بسته پلی استیشن خود در اواخر سال جاری آماده می کند. و خوب است که همزمان با یک مشکل سمی بزرگ مقابله نمی کند.
عقیده GamesBeat وقتی صنعت بازی را پوشش می دهد “جایی که اشتیاق با تجارت روبرو می شود.” این یعنی چی؟ ما می خواهیم به شما بگوییم که اخبار چقدر برای شما اهمیت دارد — نه فقط به عنوان یک تصمیم گیرنده در یک استودیوی بازی، بلکه به عنوان یک طرفدار بازی. چه مقالات ما را بخوانید، چه به پادکستهای ما گوش دهید یا ویدیوهای ما را تماشا کنید، GamesBeat به شما کمک میکند تا در مورد صنعت بیاموزید و از تعامل با آن لذت ببرید. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/games/how-ggwp-helped-omeda-studios-curb-toxicity-in-predecessor-case-study/