در حالی که تصمیم شرکت مبنی بر گذاشتن پست انکار هولوکاست در اینستاگرام را لغو کرده است، نگرانی هایی را در مورد تعدیل خودکار ایجاد کرده است. انکار هولوکاست در سیاست های متا به عنوان سخنان نفرت انگیز تلقی می شود. پست مورد بحث اسکویدوارد را از باب اسفنجی شلوار مکعبی به تصویر میکشید و ادعا میکرد که حاوی حقایق واقعی درباره هولوکاست است. با این حال، ادعاها "یا آشکارا نادرست بودند یا حقایق تاریخی نادرست ارائه شده بودند،" هیئت نظارت گفت.
کاربران این پست را شش بار پس از اولین بار در سپتامبر ۲۰۲۰ گزارش کردند، اما در چهار مورد سیستم های متا یا تشخیص دادند که محتوا قوانین را نقض نمی کند یا به طور خودکار پرونده را بسته اند. در اوایل سال ۲۰۲۰، با فراگیر شدن همهگیری COVID-19، متا شروع به بستن خودکار بررسیهای محتوا کرد تا بار کاری را برای بازبینهای انسانی کاهش دهد و پهنای باند را برای بررسی دستی گزارشهای پرخطر آزاد کند. با این حال، دو مورد از گزارشهای پست Squidward نیز توسط بازبینهای انسانی غیرقابل نقض تلقی شدند.
در ماه مه گذشته، یکی از کاربران علیه تصمیم متا مبنی بر ترک محتوای توهین آمیز در اینستاگرام درخواست تجدید نظر داد. اما به گفته هیئت نظارت، این درخواست مجدداً توسط متا به دلیل سیاستهای اتوماسیون COVID-19 به طور خودکار بسته شد. سپس کاربر به هیئت مدیره درخواست تجدید نظر کرد. .
هیئت مدیره ارزیابی محتوای انکار هولوکاست را در پلتفرمهای متا انجام داد و دریافت که میم Squidward برای انتشار انواع مختلفی از روایتهای یهودستیزانه استفاده شده است. اشاره میکند که برخی از کاربران با استفاده از املای متناوب کلمات (مانند جایگزین کردن حروف با نمادها) و استفاده از کارتونها و میمها، سعی میکنند از شناسایی فرار کنند و به انتشار محتوای انکار هولوکاست ادامه دهند.
هیئت نظارت گفت که متا از ماه مه گذشته به استفاده از سیاستهای اتوماسیون COVID-19 خود ادامه میدهد، نگران است. "مدتها پس از آن که شرایط به طور منطقی آنها را توجیه کرد." همچنین به ناآرامی اشاره کرد "اثربخشی و دقت سیستم های تعدیل متا در حذف محتوای انکار هولوکاست از پلتفرم های آن." اشاره میکند که بازبینهای انسانی نمیتوانند محتوای توهینآمیز را بهطور دقیق برچسبگذاری کنند "انکار هولوکاست" (این گونه پست ها به یک فیلتر می شوند "سخنان تنفرآمیز" سطل). هیئت مدیره همچنین می خواهد در مورد توانایی شرکت بداند "اجرای دقیق سخنان مشوق عداوت و تنفر در سطح خط مشی کلی را در اولویت قرار دهید" همانطور که بیشتر متمایل می شود .
تخته توصیه شده آن متا "اقدامات فنی را انجام دهد" اطمینان حاصل شود که به طور سیستماتیک و کافی میزان دقت آن را در اجرای محتوای انکار هولوکاست اندازه گیری می کند. این شامل جمع آوری اطلاعات دقیق تر است. هیئت مدیره همچنین از متا خواست تا به طور عمومی تأیید کند که آیا تمام سیاستهای اتوماسیون COVID-19 را که در زمان شروع همهگیری ایجاد کرده بود متوقف کرده است یا خیر.
هنگامی که از او نظر خواسته شد، متا Engadget را هدایت کرد به تصمیم هیئت مدیره در سایت شفافیت آن. این شرکت موافقت میکند که پست توهینآمیز را در اینستاگرام به اشتباه منتشر کرده است و در زمانی که هیئت مدیره این پرونده را آغاز کرد، متا گفت که محتوا را حذف کرده است. متا پس از تصمیم گیری پرونده هیئت مدیره، می گوید که چنین خواهد شد "بازبینی محتوای یکسان با زمینه موازی را آغاز کنید. اگر تشخیص دهیم که ظرفیت فنی و عملیاتی لازم برای اقدام در مورد آن محتوا را نیز داریم، به سرعت این کار را انجام خواهیم داد." در نظر دارد سایر توصیههای هیئت مدیره را بررسی کرده و بعداً بهروزرسانی ارائه کند.
این مقاله در ابتدا در Engadget در https://www.engadget.com/metas-oversight-board-raises-concerns-over-automated-moderation-of-hate-speech-154359848.html?src=rss منتشر شد.
منبع: https://www.engadget.com/metas-oversight-board-raises-concerns-over-automated-moderation-of-hate-speech-154359848.html?src=rss