یک نظرسنجی از داده های چند منظوره محور در چندین زمینه کاربردی و معماری طبقه بندی

در این بخش ، ما به دست آمده از باتری گسترده ای از آزمایشات مربوط به تکنیک های تقویت داده ها و مجموعه داده های پیش پرداخت شده مورد بحث قرار گرفته و کشف شده است. ما ابتدا به ملاحظات مربوط به تقویت فاکتور می پردازیم و به دنبال آن مجموعه های آموزشی که در طول آزمایشات به کار گرفته می شود. در مرحله بعد ، ما توضیحات مفصلی از معیارهای ارزیابی مورد استفاده در روشهای خود ارائه می دهیم و به دنبال آن تحلیلگران کمی و کیفی خروجی های تولید شده.

۴٫۵ خاکستر کمی

در خارج از آزمایشات ، ما ابتدا روشهای افزایش داده های محبوب محبوب را با StyleGan3 مقایسه می کنیم ، و سپس StyleGan3 را با سایر مدل های نوع GAN تجزیه و تحلیل و کنتراست می کنیم ، و برتری آن را برای گورستانهای تقویت داده ها تجزیه می کنیم.

ما با ارزیابی کیفیت ، وضوح و قدمت رویکردهای تقویت مقایسه با استفاده از FID و مقادیر IS شروع می کنیم. جدول ۲ FID و مقادیر IS را برای شش رویکرد افزایش داده مورد بررسی در هنگام کاربرد در مجموعه داده های ۱۲۰۰TEX ، کاتر و برزیل (BCSS) ارائه می دهد. از نمرات جدول بندی شده ، می توان تأیید کرد که برای مجموعه داده های ۱۲۰۰TEX ، رویکرد تقویت StyleGan3 به بهترین (کمترین) مقدار FID رسیده است ، در حالی که خودکارآمدی بهترین (بالا) را تحویل می دهد. برای مجموعه داده های Kather ، Augmix بهترین امتیاز FID را تولید کرد ، جایی که TrivialAugment بهترین را خوانده است. به طور مشابه ، برای مجموعه داده های BCS ، Augmix بهترین FID را بدست آورد ، در حالی که TrvialAugment به بهترین نتیجه رسیده است. با این وجود ، همانطور که Wehall می بیند ، یک یافته متکبر این است که تولید بهترین FID یا مقادیر IS لزوماً منجر به بالاترین دقت مدل نمی شود. این ممکن است اتفاق بیفتد زیرا FID و برای اندازه گیری کیفیت و تعداد تصاویر تولید شده به تصاویر اصلی متناسب است. با این حال ، آنها تأثیر نمی گذارند که چگونه مدل از این کیفیت استفاده می کند یا برای شناسایی ویژگی های متمایز تر یا افزایش تعمیم آن ، Thoreby با چنین ارتباط مستقیمی با Accillary ندارد.

اکنون حساب های مدل را برای هر مجموعه داده تجزیه و تحلیل ارزیابی می کنیم. از آنجا که معماری DensnenEnet121 به بالاترین دقت در تمام مجموعه داده ها دست یافت ، البته با رویکردهای مختلف تقویت ، ما بر روی نگه داشتن Densnenet121 ثابت انتظار در انتظار افزایش حرفبشر نتایج کمی با مقایسه شبکه های RESNET18 ، InceptionRESNETV2 و CONNNEXT-NANO بعداً ارائه می شود.

جدول ۳ خلاصه ای از دقت مدل Densnenet121 برای مجموعه داده ۱۲۰۰TEX ، جایی که حساب پایه (یعنی بدون تقویت) ۷۶٫۹۴ ٪ است. از نمرات ذکر شده ، می توان دریافت که سبک در بهترین مدل و در نتیجه ، بالاترین عملکرد عملکرد ، از ۷۶٫۹۴ ٪ به ۹۴٫۱۷ ٪ پرش می شود. در حالی که randaugment و ersing تصادفی کاهش دوره را نشان داد حرف = ۵ و ۶ ، دیگران چنین رفتاری را نشان نمی دهند. با این حال ، توجه داشته باشید که Randaugment قادر به دستیابی به دقت دوم ، ۹۳٫۰۶ ٪ بود ، نشان می دهد که ضعف فاکتور تقویت منجر به دستیابی به دقت قابل توجهی با داده های کمتری می شود. این مشاهدات همچنین در مورد روشهای دیگر صادق است ، که با گسترش مصنوعی مجموعه داده ها به عنوان استراتژی تقویت ، بهبود می یابد. در حقیقت ، در حداقل تأثیرگذار ، افزایش دقت ۱۱٫۹۵ ٪ تعجب آور بود. سرانجام ، اگرچه StyleGan3 بالاترین افزایش عملکرد (۱۷٫۲۳ ٪) را با کمترین FID (28.35) به دست آورد ، اما خودکارآمدی کمترین افزایش عملکرد (۱۱٫۹۵ ٪) را با بالاترین IS (3.43) به دست آورد.
جدول ۴ لیست از نمرات نتایج طبقه بندی تولید شده توسط مدل DensneneT121 برای مجموعه داده های کاتر ، جایی که پایه ۹۰٫۵۲ ٪ است (یعنی ، بدون تقویت). با تجزیه و تحلیل نتایج ، مشخص شد که وظیفه تقویت در بیشتر موارد گسترش داده ها باعث پیشرفت برای طبقه بندی کننده ها می شود. از نظر عملکرد مقایسه ای ، رویکرد فرسایش تصادفی با یک عامل تقویت حرف = ۳ به بالاترین دقت ۹۴٫۱۸ ٪ رسید و در نتیجه بیشترین افزایش عملکرد ۳٫۶۶ ٪ را داشت. بر خلاف مجموعه داده ۱۲۰۰TEX ، در پایگاه داده کاتر ، تصادفی بیشترین دقت را با ضریب تقویت پایین تر می کند ، در حالی که برای مجموعه داده های ۱۲۰۰TEX ، StyleGan3 با فاکتور تقویت Highte به بهترین نتیجه رسید. اگرچه پاک کردن تصادفی بهترین رویکرد بود ، دقت دوم توسط StyleGan3 با ۹۳٫۹۷ ٪ (فقط ۰٫۲۱ ٪ پایین تر از بهترین) حاصل شد ، با استفاده از یک عامل تقویت × ۲ منجر به افزایش ۳٫۴۵ ٪. علاوه بر این ، فرسایش تصادفی به بهترین FID یا بهترین ها دست پیدا نکرد.
در مرحله بعد ، نتایج حاصل از افزایش داده ها هنگامی که مدل DensNENET121 در جدول ۵ مجموعه داده های قهوه برزیل در جدول ۵ استفاده می شود ، با دقت پایه ۹۲٫۱۱ ٪ (یعنی با تقویت) استفاده می شود. مشاهده می شود که سبک که StyleGan3 به بالاترین دقت مدل ۹۵٫۱۸ ٪ با کمترین ضریب افزایش دست یافته است حرف = ۲ منجر به پیشرفت ۳٫۰۷ ٪ در سطح پایه می شود. این نکته را تقویت می کند که عوامل تقویت بزرگتر لزوماً منجر به دقت بیشتر نمی شوند ، و این نشان می دهد که یک تقویت کننده اپتیم وجود دارد. رویکرد فرسایش تصادفی به دقت دوم ، ۹۳٫۴۲ ٪ ، با یک عامل تقویت حرف = ۵ نشان دادن پیشرفت ۲٫۱۹ ٪ نسبت به پایه. علاوه بر این ، بر خلاف داده های ۱۲۰۰TEX و کاتر ، اتوآموزانها منجر به دستیابی به عملکرد این مجموعه داده نمی شوند ، در حالی که Randaugment عملکرد را با ۰٫۴۴ ٪ کاهش می دهد. در آنجا نشان می دهد که مجموعه داده های صحنه های قهوه برزیل نسبت به تغییر در رویکرد تقویت و عامل گسترش داده ها حساس تر است.

یک ویژگی مشترک موجود در کلیه مجموعه داده های مورد بررسی این است که آن سبک و سبک و سبک ارائه شده دوران تصادفی به بالاترین دقت رسیده است. StyleGan3 بهترین دقت در مجموعه داده های قهوه قهوه ۱۲۰۰TEX و برزیل را بدست آورد و دومین مورد در مجموعه داده های پزشکی کاتر. تبدیل ، به طور تصادفی بهترین دقت را در پایگاه داده کاتر و دومین مورد در مجموعه صحنه های قهوه ۱۲۰۰TEX و برزیل انجام می دهد. این شیاطین قوام داده های یادگیری عمیق ، مجموعه داده های متنوع را نشان می دهد ، و این نشان می دهد که انتخاب های امیدوار کننده برای برنامه های کاربردی در حوزه هایی که کمبود ممکن است مدل euse ce برای اهداف تنظیم دقیق در دسترس نباشد.

در درک سایر رویکردهای مبتنی بر GAN ، مانند DCGAN و SAGAN ، به دلیل معماری قوی و توانایی تأثیرگذاری بر روی مجموعه داده های کوچک ، نتایج کلی قوی را بدست آورد. به عنوان مثال ، در مجموعه داده های کاتر ، DCGAN و SAGAN به حساب های ۸۹٫۶۶ ٪ دست یافتند ( × ۴ ) و ۹۲٫۰۳ ٪ ( × ۴ ) ، مربوطه ، نشان دهنده کاهش عملکرد مدل در مقایسه با StyleGan3 است. این رفتار باعث کاهش کیفیت تصویر و کاهش قدمت در تصاویر تولید شده می شود ، همانطور که توسط ISS کم ۱٫۶۸ برای DCGAN و ۲٫۱۹ برای ساگان منعکس شده است. محدودیت های موضوع را می توان به هدایت کاشته شده در طول آموزش GANS ، که ساخت آن با نیاز به تولید تصاویر خاص کلاس ، نسبت داده می شود ، بنابراین معماری های پیچیده تری مانند StyleGan3. اجراهای مشابه در سایر مجموعه داده ها ، از جمله BCS One ، که حاوی تصاویر کوچکتر است ، مشاهده شد. در این داده ها ، DCGAN و SAGAN به دقت ۹۲٫۹۸ ٪ دست یافتند ( × ۴ ) و ۸۹٫۰۴ ٪ ( × ۴ ) ، به ترتیب. اهداف نشان می دهد که مدل های GAN مشروط ساده تر ، مانند DCGAN ، در تلاش برای تولید تصاویر با سطح بالا ، محدود کردن تعمیم مدل طبقه بندی. یافته های موضوع به StyleGan3 به عنوان مناسب ترین مدل مبتنی بر GAN برای تقویت تصویر اشاره دارد.

با توجه به روشهای TrivialAugment و Augmix ، اگرچه آنها بالاترین نتیجه را ندارند ، اما هر دو هنوز هم به طور رضایت بخش عمل می کنند و آنها را برای منافع Intest گزینه های مناسب می کنند. از طرف دیگر ، رویکردهای AutoAugment و Randaughs بالاترین تنوع را در دقت برای همه مجموعه داده ها به نمایش گذاشتند. به عنوان مثال ، AutoAugment به کمترین افزایش عملکرد در جدول ۳ دست یافت ، در حالی که در جدول ۴ تأکید می کند که Randauugment کمترین افزایش عملکرد را به همراه دارد و در یک عملکرد منفی در جدول ۵ برطرف شده است.

همچنین توجه به این نکته حائز اهمیت است که عملکرد پس از یک سطح خاص کاهش می یابد حرف برای تکنیک های تقویت داده. این رفتار را می توان به چندین عامل نسبت داد. اول ، به عنوان حرف افزایش می یابد ، تنوع معرفی شده توسط تکنیک های تقویت ممکن است به یک نقطه ساتوری برسد و منجر به عدم آشنایی معنادار در داده های آموزش شود. این می تواند در مدل رکود کاهش یابد ، جایی که داده های افزودنی افزودنی دیگر به بهبود یادگیری کمک نمی کنند. دوم ، به عنوان حرف رشد می کند ، یک پراد سازی بزرگتر از مجموعه داده های آموزشی از سمپ های افزوده نسبت به تصاویر اصلی تشکیل شده است (به عنوان مثال ، حرف = ۵ ۴ از ۵ بخش از مجموعه آموزش ها Augmen هستند. این تقاضا در داده های افزوده ممکن است باعث افزایش بیش از حد به مصنوعات یا سر و صدای معرفی شده با تقویت تکنیک ها ، انحراف از ویژگی های تصویر اصلی و تعمیم در داده های غیب ، بنابراین عملکرد واکنش شود.

برای آخرین آزمایش کمی ما ، ما در جدول ۶ ، جدول ۷ و جدول ۸ چهار نتیجه برتر برای هر مجموعه داده ، که از گسترش داده های مختلف انجام شده و رویکردهای تقویت عمیق تهیه شده است ، ارائه می دهیم. از نظر فنی تر ، تمام ترکیبات ممکن از روشهای تقویت و عوامل انبساط به طور جامع مورد آزمایش قرار گرفتند تا یک ارزیابی سازگار را انجام دهند. نتایج موضوع با چشم انداز چهار معماری شبکه عصبی کاملاً محکم مورد تجزیه و تحلیل قرار گرفت: Resnet18 [38]NET121 آن [۴۰]inceptresnetv2 [41] و convnext-nano [39]بشر از مقادیر جدول بندی شده ، بدیهی است که از دوازده بهترین نتیجه برای هر شبکه ، پنج با استفاده از StyleGan3 و پنج مورد دیگر با استفاده از پاک کردن تصادفی حاصل شد. اگرچه فرسایش تصادفی یک روش مبتنی بر یادگیری عمیق نیست ، جای تعجب دارد که بسیار اظهار نظر می کند ، و به نمرات مشابهی با StyleGan3 می رسد. هر دو روش تقویت نشان دهنده استحکام ACSOS مجموعه داده های مختلف و معماری های مختلف شبکه است. نتایج خلاصه همچنین نشان می دهد که شبکه هایی با سازگاری با عمق بیشتر به دقت بیشتری دست یافته اند (به عنوان مثال ، Densenet121 به بالاترین Accuctions Accros All All Datatets دست یافته است). علاوه بر این ، شبکه هایی با عمق کوچکتر نیز عملکرد خوبی داشتند (به عنوان مثال ، Resnet18 به نتایج سوم بهترین ، دوم و دوم بهترین نتیجه در مجموعه داده های صحنه های قهوه ۱۲۰۰TEX ، KATHTER و برزیل ، با احترام ، با احترام) رسید. علیرغم مواردی که به طور کلی مطلوب است ، ما مشاهده کردیم که Convnext-Nano در مجموعه داده های ۱۲۰۰TEX به طور رضایت بخش عمل نمی کند و به پایین ترین نتیجه در تمام مجموعه داده ها می رسد. این پیشنهاد می کند که در این حالت ، عمق شبکه ممکن است نقش قابل توجهی در اجرا داشته باشد.

۴٫۶ ارزیابی توزیع داده های افزوده

در مرحله بعد ، ما بررسی می کنیم که چگونه داده های تولید شده مصنوعی توزیع داده های آموزشی را نشان می دهد ، و میزان میزان نمونه ها و ویژگی های کلیدی را به دست می آورند.

شکل ۵ پروژه های T-SNE مجموعه های آموزش اصلی را برای مجموعه های داده های قهوه ۱۲۰۰TEX ، کاتر و برزیل ارائه می دهد. پیش بینی T-SNE [68] ابعادی بسیار اثر است. [۶۹,۷۰,۷۱,۷۲]بشر آنها امکان مقایسه بصری از مجموعه آموزش اصلی با مجموعه داده های افزوده را فراهم می کنند و نشان می دهند که چگونه Augmen ویژگی های داده های ورودی اصلی را ضبط می کند.
ما با بازرسی از نمایندگان توزیع T-SNE ترسیم شده در شکل ۶ ، که مربوط به مجموعه داده بافت برگ است ، شروع می کنیم. آشکار می شود که StyleGan3 به توزیع اصلی ظاهر می شود ، که از آن زمان مکانیسم عمومی آموزش آن است. اوضاع تصادفی همچنین باعث ایجاد شباهت قابل توجه بین خروجی های آن و توزیع ورودی می شود ، به احتمال زیاد به این دلیل که فقط بدون تغییر پیکسل های دیگر ، تصویر را پاک می کند. AutoAugment برخی از Simillaity را به داده های پیش بینی شده اصلی حفظ می کند ، اگرچه تبدیل متنوع آن منجر به انحراف جزئی می شود. از طرف دیگر ، Randaughting و Trivialaugment نقاط پراکنده تری نشان می دهند ، و تولید یک Resemblans کمتر دقیق را نشان می دهند. سرانجام ، AugMix را به تعادل با مقداری تراز با داده های ورودی تعادل می دهد ، اما همچنین در گوشه سمت راست خوشه های مصنوعی را در نظر می گیرد.
شکل ۷ تجسم T-SNE از شش رویکرد افزایش داده های یادگیری عمیق را برای مجموعه داده های پزشکی کاتر نشان می دهد. یک بار دیگر ، رویکرد مبتنی بر GAN مشروط ، StyleGan3 ، توزیع اصلی آموزش زیربنایی اصلی ، از جمله منحنی پارابولیک مانند نقاط زمینی را که در سمت راست پیش بینی طرح ریزی قرار دارد ، ضبط کرد. فرسودگی تصادفی ، در حالی که پیچیدگی از Stygan3 ، به حفظ داده های پیش بینی شده اصلی نزدیک است. با این حال ، رویکردهای تقویت کننده باقی مانده ، برای جدا کردن اثر خوشه ها تلاش می کنند و منجر به توزیع پراکنده تر در کل منطقه تجسم می شوند.
سرانجام ، در شکل ۸ ، ما توطئه های T-Seonttill را برای کلیه موارد تقویت شده اعمال شده برای ما از مجموعه داده های سوم آماده می کنیم: مجموعه سنجش از راه دور سنجش قهوه برزیل. توجه کنید که رویکردهای تقویت کننده عمیق یادگیری ، مانند Randaughting و AutoAugment ، به توزیع آموزش اساسی توجه داشتند. با این حال ، همانطور که در جدول ۵ نشان داده شده است ، رویکردهای آن در کمترین سود عملکرد ارائه شده است. تطبیق وجود دارد که توزیع اساسی عملکرد بهبود یافته را تضمین نمی کند. تبدیل ، اگرچه توزیع StyleGan3 و Eraging تصادفی نسبت به توزیع اصلی Thuth Ground تغییر یافته است ، اما آنها به دستاوردهای برجسته ای رسیدند که اندازه گیری های کمی و چند بعدی ED را به دست آوردند.


منبع: https://www.mdpi.com/2673-2688/6/2/32

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *