هیئت نظارت متا نگرانی‌هایی را در مورد تعدیل خودکار سخنان مشوق نفرت ایجاد می‌کند

در حالی که تصمیم شرکت مبنی بر گذاشتن پست انکار هولوکاست در اینستاگرام را لغو کرده است، نگرانی هایی را در مورد تعدیل خودکار ایجاد کرده است. انکار هولوکاست در سیاست های متا به عنوان سخنان نفرت انگیز تلقی می شود. پست مورد بحث اسکویدوارد را از باب اسفنجی شلوار مکعبی به تصویر می‌کشید و ادعا می‌کرد که حاوی حقایق واقعی درباره هولوکاست است. با این حال، ادعاها "یا آشکارا نادرست بودند یا حقایق تاریخی نادرست ارائه شده بودند،" هیئت نظارت گفت.

کاربران این پست را شش بار پس از اولین بار در سپتامبر ۲۰۲۰ گزارش کردند، اما در چهار مورد سیستم های متا یا تشخیص دادند که محتوا قوانین را نقض نمی کند یا به طور خودکار پرونده را بسته اند. در اوایل سال ۲۰۲۰، با فراگیر شدن همه‌گیری COVID-19، متا شروع به بستن خودکار بررسی‌های محتوا کرد تا بار کاری را برای بازبین‌های انسانی کاهش دهد و پهنای باند را برای بررسی دستی گزارش‌های پرخطر آزاد کند. با این حال، دو مورد از گزارش‌های پست Squidward نیز توسط بازبین‌های انسانی غیرقابل نقض تلقی شدند.

در ماه مه گذشته، یکی از کاربران علیه تصمیم متا مبنی بر ترک محتوای توهین آمیز در اینستاگرام درخواست تجدید نظر داد. اما به گفته هیئت نظارت، این درخواست مجدداً توسط متا به دلیل سیاست‌های اتوماسیون COVID-19 به طور خودکار بسته شد. سپس کاربر به هیئت مدیره درخواست تجدید نظر کرد. .

هیئت مدیره ارزیابی محتوای انکار هولوکاست را در پلتفرم‌های متا انجام داد و دریافت که میم Squidward برای انتشار انواع مختلفی از روایت‌های یهودستیزانه استفاده شده است. اشاره می‌کند که برخی از کاربران با استفاده از املای متناوب کلمات (مانند جایگزین کردن حروف با نمادها) و استفاده از کارتون‌ها و میم‌ها، سعی می‌کنند از شناسایی فرار کنند و به انتشار محتوای انکار هولوکاست ادامه دهند.

هیئت نظارت گفت که متا از ماه مه گذشته به استفاده از سیاست‌های اتوماسیون COVID-19 خود ادامه می‌دهد، نگران است. "مدتها پس از آن که شرایط به طور منطقی آنها را توجیه کرد." همچنین به ناآرامی اشاره کرد "اثربخشی و دقت سیستم های تعدیل متا در حذف محتوای انکار هولوکاست از پلتفرم های آن." اشاره می‌کند که بازبین‌های انسانی نمی‌توانند محتوای توهین‌آمیز را به‌طور دقیق برچسب‌گذاری کنند "انکار هولوکاست" (این گونه پست ها به یک فیلتر می شوند "سخنان تنفرآمیز" سطل). هیئت مدیره همچنین می خواهد در مورد توانایی شرکت بداند "اجرای دقیق سخنان مشوق عداوت و تنفر در سطح خط مشی کلی را در اولویت قرار دهید" همانطور که بیشتر متمایل می شود .

تخته توصیه شده آن متا "اقدامات فنی را انجام دهد" اطمینان حاصل شود که به طور سیستماتیک و کافی میزان دقت آن را در اجرای محتوای انکار هولوکاست اندازه گیری می کند. این شامل جمع آوری اطلاعات دقیق تر است. هیئت مدیره همچنین از متا خواست تا به طور عمومی تأیید کند که آیا تمام سیاست‌های اتوماسیون COVID-19 را که در زمان شروع همه‌گیری ایجاد کرده بود متوقف کرده است یا خیر.

هنگامی که از او نظر خواسته شد، متا Engadget را هدایت کرد به تصمیم هیئت مدیره در سایت شفافیت آن. این شرکت موافقت می‌کند که پست توهین‌آمیز را در اینستاگرام به اشتباه منتشر کرده است و در زمانی که هیئت مدیره این پرونده را آغاز کرد، متا گفت که محتوا را حذف کرده است. متا پس از تصمیم گیری پرونده هیئت مدیره، می گوید که چنین خواهد شد "بازبینی محتوای یکسان با زمینه موازی را آغاز کنید. اگر تشخیص دهیم که ظرفیت فنی و عملیاتی لازم برای اقدام در مورد آن محتوا را نیز داریم، به سرعت این کار را انجام خواهیم داد." در نظر دارد سایر توصیه‌های هیئت مدیره را بررسی کرده و بعداً به‌روزرسانی ارائه کند.

این مقاله در ابتدا در Engadget در https://www.engadget.com/metas-oversight-board-raises-concerns-over-automated-moderation-of-hate-speech-154359848.html?src=rss منتشر شد.


منبع: https://www.engadget.com/metas-oversight-board-raises-concerns-over-automated-moderation-of-hate-speech-154359848.html?src=rss

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *