چند روز سخت گذشت متا. ابتدا غول فناوری متهم شد هدف قرار دادن عمدی کودکان زیر ۱۳ سال برای استفاده از پلتفرم های آن. سپس به نظر می رسید رد تبلیغات محصولات مراقبت دوره بر این اساس که آنها «بالغ» و «سیاسی» بودند. اکنون با اتهاماتی مواجه است که اینستاگرامالگوریتم Reels محتوای جنسی آشکار را به حسابهایی که فقط کودکان را دنبال میکنند ارائه میکند – و همچنین تبلیغات برای مارکهای بزرگ در کنار آنها. به طور کلی، ظاهر خوبی نیست.
در گزارشی جدید از روزنامه وال استریتاین نشریه الگوریتم اینستاگرام را با ایجاد حسابهایی آزمایش کرد که فقط از «ژیمناستهای جوان، تشویقکنندهها و سایر اینفلوئنسرهای نوجوان و پیشنوجوان» پیروی میکردند – محتوایی که شامل کودکان بود و فاقد هرگونه مفهوم جنسی بود. با این حال، مجلهآزمایش نشان داد که متا TikTok متعاقباً رقیب محتوای جنسی را به حسابهای آزمایشی خود توصیه کرد، از جمله ویدیوهای تحریکآمیز بزرگسالان و «فیلم خطرناک کودکان».
را مجله علاوه بر این، دریافتند که کاربران کودک مانند آنهایی که حسابهای آزمایشی آن دنبال میشوند، اغلب توسط حسابهای متعلق به مردان بزرگسال دنبال میشوند. به نظر میرسد که دنبال کردن چنین حسابهایی باعث میشود که الگوریتم اینستاگرام «محتوای مزاحمتر» را به آن نشان دهد.
همه اینها به اندازه کافی بد هستند، اما برای متا بدتر می شوند. این گزارش همچنین نشان داد که حلقه های اینستاگرام تبلیغاتی را برای شرکت هایی مانند دیزنی، والمارتکلبه پیتزا، بامبل، گروه مسابقهو حتی مجله خودش در کنار چنین محتوای جنسی ناخواسته و الگوریتمی ارائه شده است.
در پاسخ، شرکتهای برنامه دوستیابی Bumble و Match Group هر دو تبلیغات در اینستاگرام را به حالت تعلیق درآوردهاند و مخالف قرار دادن برندهای خود در کنار محتوای نامناسب هستند.
به گفته سامانتا استتسون از متا، مجلهنتایج آزمایش “بر اساس یک تجربه تولید شده است که نشان دهنده چیزی نیست که میلیاردها نفر در سراسر جهان می بینند.” نایب رئیس شورای مشتری و روابط بازرگانی صنعت متا اظهار داشت که بیش از چهار میلیون قرقره هر ماه به دلیل نقض سیاست های آن حذف می شود. یکی از سخنگویان متا همچنین خاطرنشان کرد که مواردی از محتوایی که خطمشیهای آن را نقض میکند نسبتاً کم است.
ما نمیخواهیم این نوع محتوا در پلتفرمهایمان باشد و برندها نمیخواهند تبلیغاتشان در کنار آن ظاهر شود. ما به سرمایهگذاری تهاجمی برای متوقف کردن آن ادامه میدهیم – و هر سه ماه یکبار در مورد شیوع چنین محتوایی گزارش میکنیم، که همچنان بسیار باقی میماند. استتسون در بیانیه ای به Mashable گفت. سیستمهای ما در کاهش محتوای مضر مؤثر هستند و میلیاردها دلار در راهحلهای ایمنی، امنیت و مناسب بودن برند سرمایهگذاری کردهایم.»
اوایل امسال متا ابزار هوش مصنوعی طراحی کرد تا تعیین کند آیا محتوا با سیاستهای درآمدزایی آن مطابقت دارد یا خیر، طبقه بندی آن به دسته های مناسب و غیرفعال کردن تبلیغات اگر خارج از همه آنها باشد. این ابزار در ماه اکتبر به Reels گسترش یافت.
چند هفته سخت است که برندهایی که سعی در تبلیغ در رسانه های اجتماعی دارند. در اوایل این ماه تبلیغ کنندگان بزرگی مانند سیب و IBM از Twitter/X فرار کرد بعد از مالک ایلان ماسک از یک توطئه ضد یهود حمایت کردو گزارش Media Matters آن را پیدا کرد تبلیغات نمایش داده شده در کنار محتوای نازی.
Twitter/X همان استدلالی را مطرح کرد که متا اکنون در حال افزایش است، یعنی آزمایشهایی که منجر به نمایش محتوای نامناسب در کنار تبلیغکنندگان شد، «تولید شدهاند». با این حال، درست مانند مورد توییتر/X، موضوع کمتر به این است که چند نفر آن را دیدند یا چگونه رخ داد، و بیشتر در مورد اینکه اصلاً ممکن است اتفاق بیفتد.
حلقههای اینستاگرام نیز با مشکل توییتر/X تفاوت دارد زیرا در آزمایش Media Matters، حسابهایی را دنبال میکرد که «محتوای حاشیهای شدید» را ارسال میکردند. مجله فقط ورزشکاران جوان و اینفلوئنسرها را دنبال می کرد. به نظر می رسید محتوای جنسی ارائه شده کاملاً به دلیل استنباط هایی است که توسط الگوریتم اینستاگرام تهیه شده است.
به این ترتیب، به نظر می رسد که الگوریتم مذکور می تواند با برخی تنظیمات قابل توجه انجام دهد.
موضوعات
اینستاگرام
متا
منبع: https://mashable.com/article/instagram-reels-meta-algorithm-children-sexual-ads