بر اساس گزارش‌ها، ویژگی کلیپ‌های توییچ باعث شده است که کودک آزاری در این پلتفرم تثبیت شود

یک تحقیق گزارش از جانب بلومبرگ تصویری نگران‌کننده از مشکلات Twitch در تعدیل پلتفرم پخش زنده ارائه می‌کند – به ویژه ویژگی Clips آن، که به کاربران اجازه می‌دهد ویدیوهای کوتاه را حفظ کنند. این رسانه گزارش می دهد که پس از تجزیه و تحلیل حدود ۱۱۰۰ کلیپ، حداقل ۸۳ کلیپ را با محتوای جنسی شامل کودکان پیدا کرد. توییچ ویدیوها را پس از هشدار حذف کرد و سخنگوی شرکت در ایمیلی به Engadget نوشت که از آن زمان “سرمایه گذاری هنگفتی روی ابزارهای اجرایی و اقدامات پیشگیرانه انجام داده است و به این کار ادامه خواهد داد.”

بلومبرگ یک حادثه را برجسته کرد که نمونه ای از مشکل ماهیت دائمی کلیپس در پلتفرم گذرا بود. این داستان ناراحت کننده پسر ۱۲ ساله ای را روایت می کند که بهار گذشته به توییچ رفت تا “یک ساندویچ بخورد و بوق فرانسوی خود را بنوازد.” او خیلی زود شروع به درخواست از بینندگان کرد، که (در انعکاس غم انگیز رفتار آنلاین) به نوعی منجر به پایین کشیدن شلوار پسر توسط پسر شد.

این رسانه این حادثه را “در یک لحظه” به پایان رسیده است. با این حال، عملکرد ضبط کلیپس به یک بیننده – که ظاهراً بیش از صد حساب متعلق به کودکان را دنبال می کرد – اجازه داد تا آن را حفظ کند. ظاهراً این منجر به بیش از ۱۳۰ بازدید از کلیپ ۲۰ ثانیه ای قبل از اینکه Twitch مطلع شود و آن را حذف کند، شده است.

کلیپ های در سال ۲۰۱۶ راه اندازی شد به عنوان راهی برای حفظ لحظات زودگذر بر روی سکو. این ویژگی ۲۵ ثانیه قبل (و پنج ثانیه بعد از) ضربه زدن روی دکمه ضبط ضبط می کند. این یک عارضه جانبی ناخوشایند دارد که به شکارچیان اجازه می دهد یک لحظه دردسرساز را نجات دهند و آن را در جای دیگری توزیع کنند.

توییچ برنامه ریزی کرده است که امسال کلیپ ها را به عنوان بخشی از استراتژی تولید محتوای بیشتر شبیه TikTok در این پلتفرم گسترش دهد. این شرکت قصد دارد یک فید کشف (همچنین مشابه TikTok) راه اندازی کند که در آن کاربران می توانند ویدیوهای کوتاه خود را پست کنند.

بلومبرگگزارش ‘s به نقل از مرکز کانادایی حمایت از کودکان، که ۸۳ ویدیوی سوء استفاده‌کننده را بررسی کرد و به این نتیجه رسید که ۳۴ کاربر جوان را نشان می‌دهند که اندام تناسلی خود را در دوربین نشان می‌دهند. گفته می‌شود که اکثر آنها پسران بین ۵ تا ۱۲ سال بودند. ۴۹ کلیپ دیگر شامل محتوای جنسی بود که در آن کودکان زیر سن قانونی “در معرض دید اعضای بدن قرار می‌گرفتند یا تحت تلاش‌های نظافت قرار می‌گرفتند.”

این سازمان گفت که ۳۴ «فحش‌آمیزترین» ویدیو ۲۷۰۰ بار دیده شده است. بقیه ۷۳۰۰ بازدید داشتند.

پاسخ توییچ

یکی از سخنگویان توییچ به Engadget نوشت: «آسیب به جوانان، در هر نقطه آنلاین، غیرقابل قبول است و ما این موضوع را بسیار جدی می‌گیریم. در پاسخ به هشدار در مورد مواد سوء استفاده جنسی از کودکان (CSAM)، این شرکت می‌گوید که مدل‌های جدیدی را برای شناسایی رفتارهای بالقوه آراستگی ایجاد کرده است و ابزارهای موجود خود را برای شناسایی مؤثرتر و حذف کاربران ممنوعه در تلاش برای ایجاد حساب‌های جدید (از جمله مسائل مربوط به ایمنی جوانان).

توییچ اضافه می‌کند که اجرای جریان‌های زنده توسط تیم‌های امنیتی خود را که ریشه کلیپس است، افزایش داده است. این شرکت نوشت: «این بدان معناست که وقتی ما یک پخش زنده حاوی محتوای مضر را غیرفعال می کنیم و کانال را به حالت تعلیق در می آوریم، زیرا کلیپ ها از پخش زنده ایجاد می شوند، از ایجاد و انتشار کلیپ های مضر در منبع جلوگیری می کنیم. مهمتر از همه، ما همچنین تلاش کرده‌ایم اطمینان حاصل کنیم که وقتی کلیپ‌هایی را که دستورالعمل‌های انجمن ما را نقض می‌کنند حذف و غیرفعال می‌کنیم، آن کلیپ‌ها از طریق دامنه‌های عمومی یا سایر پیوندهای مستقیم در دسترس نباشند.»

این سخنگوی ادامه داد: «ما همچنین می‌دانیم که متأسفانه آسیب‌های آنلاین در حال تکامل هستند. ما دستورالعمل‌هایی را که تیم‌های ایمنی داخلی ما برای شناسایی برخی از آسیب‌های آنلاین در حال تکامل، مانند مواد آزار جنسی کودکان (CSAM) با قابلیت هوش مصنوعی تولید می‌کنند، بهبود بخشیم.» توییچ اضافه کرد که فهرست سازمان‌های خارجی را که با آنها کار می‌کند گسترش داده است تا (امیدواریم) محتوای مشابه را در آینده از بین ببرد.

مشکلات اعتدال توییچ

بلومبرگ گزارش می دهد که Clips یکی از کم تعدیل ترین بخش ها در توییچ بوده است. همچنین خاطرنشان می کند که شرکت ۱۵ درصد از تیم اعتماد داخلی و ایمنی خود را در آوریل ۲۰۲۳ اخراج کرد (بخشی از یک سال سخت در اخراج های فنی) و برای از بین بردن محتوای CSAM بیشتر به شرکای خارجی وابسته است.

پلتفرم متمرکز بر جریان زنده Twitch آن را به چالشی پیچیده تر از سایت های ویدیویی سنتی مانند یوتیوب یا اینستاگرام تبدیل می کند. این پلتفرم‌ها می‌توانند ویدیوهای آپلود شده را با هش‌ها مقایسه کنند – اثر انگشت دیجیتالی که می‌تواند فایل‌های مشکل‌ساز شناخته شده قبلی را که به صورت آنلاین ارسال شده است، شناسایی کند. لورن کافرن از مرکز ملی کودکان گمشده و استثمارشده ایالات متحده به بلومبرگ گفت: «فناوری هش به دنبال چیزی است که با چیزی که قبلا دیده شده است مطابقت داشته باشد. پخش زنده به این معنی است که کاملاً جدید است.

این مقاله در ابتدا در Engadget در https://www.engadget.com/twitchs-clips-feature-has-reportedly-enabled-child-abuse-to-fester-on-the-platform-201058947.html?src=rss منتشر شد.


منبع: https://www.engadget.com/twitchs-clips-feature-has-reportedly-enabled-child-abuse-to-fester-on-the-platform-201058947.html?src=rss

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *