هوش مصنوعی | متن کامل رایگان | تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص زودهنگام بیماری های نادر: ملاحظات قانونی، اخلاقی، پزشکی قانونی و امنیت سایبری

۱٫ معرفی

استفاده از سیستم‌های هوش مصنوعی (AI) در زمینه پزشکی نگرانی‌های زیادی از جمله نگرانی‌های قانونی، اخلاقی، پزشکی قانونی و البته امنیت سایبری را به همراه دارد، زیرا آسیب‌پذیری‌های منحصربه‌فردی را ارائه می‌کنند که باید برطرف شوند. دشمنان می‌توانند از مدل‌های هوش مصنوعی از طریق مسمومیت داده‌ها، حملات متخاصم یا سرقت مدل سوء استفاده کنند که به طور بالقوه منجر به پیش‌بینی‌های نادرست، نقص در سیستم و نقض داده‌های حساس می‌شود. پیشرفت‌های کنونی بر بهبود انعطاف‌پذیری هوش مصنوعی در برابر این تهدیدات متمرکز است، مانند آموزش خصمانه برای بهبود استحکام و تکنیک‌های متفاوت حریم خصوصی برای محافظت از داده‌های آموزشی. توسعه‌های آینده احتمالاً شامل ادغام هوش مصنوعی قابل توضیح (XAI) برای افزایش شفافیت مدل و کمک به تشخیص ناهنجاری‌ها می‌شود. این امر در پزشکی و پزشکی قانونی نیز اهمیت ویژه ای دارد. علاوه بر این، توسعه رمزگذاری همومورفیک می تواند پردازش امن داده های حساس را در مدل های هوش مصنوعی بدون رمزگشایی امکان پذیر کند. امنیت سایبری و هوش مصنوعی به شکلی وابسته به تکامل خود ادامه خواهند داد و نیاز به نوآوری مستمر برای اطمینان از اجرای ایمن و مسئولانه هوش مصنوعی را افزایش خواهند داد. ظهور کلان داده ها، از جمله اسکن صورت دو بعدی و سه بعدی جمع آوری شده توسط دولت ها، فرصت های جدیدی را برای تشخیص زودهنگام بیماری های ژنتیکی نادر با استفاده از هوش مصنوعی باز کرده است. فنوتیپ به کمک هوش مصنوعی پتانسیل ارزیابی های ژنتیکی جامع و دقیق را ارائه می دهد که به طور بالقوه تحولی در مراقبت های بهداشتی ایجاد می کند. با این حال، این رویکرد نگرانی های اخلاقی و قانونی قابل توجهی را در مورد حریم خصوصی شهروندان و احتمال سوء استفاده از دولت ایجاد می کند. پیمایش در این چشم انداز پیچیده نیازمند تعادل ظریفی بین حفاظت از حریم خصوصی افراد و استفاده از قدرت تحول آفرین هوش مصنوعی برای سلامت عمومی است. این مقاله به بررسی مفهوم، روش‌های بالقوه و محدودیت‌های قانونی فنوتیپ‌سازی مبتنی بر هوش مصنوعی در اتحادیه اروپا (EU) می‌پردازد. این مقاله پیامدهای اخلاقی و قانونی استفاده از هوش مصنوعی برای شناسایی بیماری‌های ژنتیکی نادر از عکس‌های صورت را در نظر می‌گیرد و ضمن پرداختن به خطرات مرتبط، مزایای بالقوه را برجسته می‌کند. پتانسیل الگوریتم‌های هوش مصنوعی، مانند اپلیکیشن Face2Gene، برای بررسی سیستماتیک مجموعه داده‌های دولتی بزرگ از ویژگی‌های چهره در طول زمان، نویدبخش سلامت عمومی است. با این حال، این رویکرد باید با توجه به پیامدهای عمیق آن برای حریم خصوصی افراد و مرزهای اخلاقی نظارت دولت، به دقت مورد توجه قرار گیرد. این مقاله مروری جامع از فنوتیپ مبتنی بر هوش مصنوعی برای تشخیص زودهنگام بیماری‌های ژنتیکی ارائه می‌کند، و بر نیاز به یک رویکرد متعادل که از حقوق فردی محافظت می‌کند و در عین حال از قدرت تغییردهنده هوش مصنوعی برای سلامت عمومی استفاده می‌کند، تاکید می‌کند.

تعریف رسمی بیماری های نادر به منطقه بستگی دارد و بین تعاریف اتحادیه اروپا، ایالات متحده آمریکا و سازمان جهانی بهداشت متفاوت است. به طور کلی، یک بیماری نادر به عنوان وضعیتی تعریف می شود که درصد کمی از جمعیت را تحت تأثیر قرار می دهد. برآورد می شود که شیوع بیماری های نادر در جمعیت بین ۳٫۵ تا ۵٫۹ درصد از جمعیت جهان را تحت تأثیر قرار دهد. این به معنای این است که تقریباً ۳۰۰ میلیون نفر در سراسر جهان در هر زمان به بیماری های نادر مبتلا می شوند. طبق تعریف استفاده شده در اتحادیه اروپا (“EU”) [1]یک بیماری نادر بیماری است که کمتر از ۱ نفر از هر ۲۰۰۰ نفر را مبتلا می کند. بسته به تعریف، از ۵۰۰۰ تا بیش از ۱۰۰۰۰ بیماری نادر وجود دارد. [۱,۲]. آنها می توانند بر هر سیستمی در بدن تأثیر بگذارند و معمولاً مزمن هستند و کنترل آنها دشوار است. از هر چهار بیمار مبتلا، یک نفر در تشخیص صحیح مشکل دارد [۳]. طبق تعریف ایالات متحده (ایالات متحده) در قانون بیماری‌های نادر در سال ۲۰۰۲، بیماری نادر بیماری است که کمتر از ۲۰۰۰۰۰ نفر را در ایالات متحده تحت تأثیر قرار می‌دهد، که با در نظر گرفتن جمعیت ایالات متحده، تقریباً یک نفر از هر ۱۶۰۰ نفر ترجمه می‌شود. [۴,۵]. در اتحادیه اروپا که ۴۴۷ میلیون نفر جمعیت دارد، شیوع تجمعی بیماری های نادر برابر با ۲۶ تا ۴۵ میلیون مورد است. بیماری های نادر عامل مهم بیماری و مرگ هستند [۳].
به طور سنتی، تشخیص بیماری های ژنتیکی مستلزم به دست آوردن و تجزیه و تحلیل نمونه های بیولوژیکی، به ویژه کروموزومی، اسید دئوکسی ریبونوکلئیک (DNA) یا اسید ریبونوکلئیک (RNA) است. ویژگی های منحصر به فرد صورت علائم شناخته شده بسیاری از بیماری های ژنتیکی از جمله بیماری های نادر است [۶,۷,۸,۹,۱۰]. با رونق الگوریتم های هوش مصنوعی که قادر به تعیین ویژگی های فنوتیپی بیماری های ژنتیکی بر اساس عکس های صورت هستند، احتمالات جدیدی در حال ظهور است. حتی اختلالات ژنتیکی نادر را می توان با تجزیه و تحلیل تصاویر چهره افراد توسط هوش مصنوعی شناسایی کرد – که اکنون نشان داده شده است که بسیار دقیق تر از ارزیابی یک پزشک است. [۱۰,۱۱,۱۲].
تجزیه و تحلیل تصاویر چهره افراد توسط هوش مصنوعی هم نیاز به در دسترس بودن تصاویر ساده از صورت و هم یک عامل هوش مصنوعی آنلاین با قابلیت پردازش تصویر دارد. این امر با ظهور تلفن‌های همراه و برنامه‌های هوش مصنوعی مانند Face2Gene که می‌توانند بلافاصله تصاویر دوبعدی صورت را تجزیه و تحلیل کنند، امکان‌پذیر شده است، زیرا در دهه گذشته افزایش تلفن‌های همراه با قابلیت اینترنت افزایش یافته است. تعداد اشتراک های شبکه تلفن همراه گوشی های هوشمند در سراسر جهان در سال ۲۰۲۲ به ۶٫۶ میلیارد نفر رسید و پیش بینی می شود تا سال ۲۰۲۸ از ۷٫۸ میلیارد نفر فراتر رود. چین، هند و ایالات متحده کشورهایی هستند که بیشترین تعداد اشتراک شبکه تلفن همراه گوشی های هوشمند را دارند. [۱۳]. در دسترس بودن تلفن‌های هوشمند منجر به توسعه یک برنامه تلفن همراه برای تسهیل تشخیص زودهنگام بیماری‌های ژنتیکی نادر – Face2Gene، با استفاده از فنوتیپ عمیق اختصاصی DeepGestalt AI (FDNA Inc., Boston, MA, USA؛ www.face2gene.com) شد. احتمالاً Deep Gestalt اولین فناوری سلامت دیجیتالی بود که می‌توانست اختلالات ژنتیکی نادر را در افراد تنها بر اساس ویژگی‌های صورت شناسایی کند. از سال ۲۰۱۸، Face2Gene تأثیر برجسته ای در تشخیص و مدیریت بیماری های ژنتیکی داشته است [۱۴,۱۵].
در نتیجه چنین توسعه ای، حریم خصوصی داده های ژنتیکی و حفاظت از آن به دلیل افزایش حجم داده های ژنومی که جمع آوری، استفاده و به اشتراک گذاشته می شود، به موضوعی برای بحث تبدیل شده است. [۱۶]. غربالگری ژنتیکی مبتنی بر هوش مصنوعی می‌تواند از طبقه‌بندی اولیه خطر حمایت کند، تشخیص را تسریع کند و از طریق مراقبت‌های پیشگیرانه مرگ و میر و عوارض را کاهش دهد. [۱۲]. حفاظت از داده های ژنتیکی در دنیایی که فقط یک عکس از صورت می تواند اطلاعات ژنتیکی حساس را نشان دهد بسیار مهم است [۱۵].
طرح های شناسه ملی اجباری مقادیر زیادی از داده های شخصی را در یک پایگاه داده متمرکز جمع آوری می کند. پس از ۱۱ سپتامبر ۲۰۰۱، شناسایی بیومتریک به طور فزاینده ای در این پایگاه های داده گنجانده شده است. [۱۷]. در حالی که شناسه ملی در سن خاصی صادر می شود، حتی برای نوزادان برای سفرهای بین المللی گذرنامه لازم است. در نتیجه، پایگاه‌های اطلاعاتی شناسه ملی شامل عکس‌های ۲ بعدی/۳ بعدی همراه با مجموعه‌ای از داده‌های بیومتریک و شخصی است که بیشتر جمعیت کشور را پوشش می‌دهد. افزایش استفاده جهانی از شبکه‌های اجتماعی امکان حذف داده‌ها و عکس‌های شخصی را فراهم می‌کند، حتی برای بازیکنان غیر دولتی که منابع و اراده کافی دارند. [۱۸].

چنین پایگاه‌هایی ممکن است در نهایت به عنوان منابع داده برای غربالگری ژنتیکی جمعیت مورد استفاده قرار گیرند. تا آوریل ۲۰۲۴ چنین پروژه ای به طور عمومی شناخته نشده است. بنابراین، ما در مورد قابلیت غربالگری ژنتیکی در مقیاس بزرگ با استفاده از مجموعه داده های دولتی در چارچوب قانونی اتحادیه اروپا بحث می کنیم و در عین حال محدودیت ها و حفاظت از حریم خصوصی را پیشنهاد می کنیم.

هدف این مرور داستانی ترسیم و پل زدن جنبه‌های بین‌رشته‌ای حول موضوع اصلی خطرات، پتانسیل و پیامدهای استفاده از هوش مصنوعی برای غربالگری پایگاه‌های اطلاعاتی بزرگ تصویر صورت دولتی برای تشخیص زودهنگام بیماری‌های ژنتیکی نادر است. این نشان دهنده یک پیوند چند رشته ای بین فناوری های مبتنی بر هوش مصنوعی در زمینه های زیر است:

  • پزشکی، به ویژه ژنتیک؛

  • فناوری، با تمرکز بر مدل‌های پیشرفته هوش مصنوعی برای تجزیه و تحلیل چهره؛

  • قانون، با تمرکز بر قوانین حفظ حریم خصوصی (به عنوان مثال، GDPR).

  • اخلاق، به عنوان مثال، ملاحظات اخلاقی در مورد استفاده از داده های شهروندان.

  • پزشکی قانونی در شناسایی افراد مفقود و مظنون در چارچوب قانونی؛

  • امنیت سایبری در پرداختن به خطرات امنیتی ناشی از دست زدن به داده های بسیار حساس چهره و ژنتیکی.

اهداف فرعی این مقاله به شرح زیر است:

افزایش آگاهی: پتانسیل تحول آفرین هوش مصنوعی را در مراقبت های بهداشتی، به ویژه برای بیماری های نادری که تشخیص زودهنگام در آنها حیاتی است، برجسته کنید.

جرقه بحث اخلاقی: برانگیختن بحث در مورد مرزهای اخلاقی استفاده از داده های دولتی، با تأکید بر حق افراد برای حفظ حریم خصوصی در مقابل مزایای بالقوه سلامت عمومی.

اطلاع رسانی به سیاستگذاران: ارائه بینش برای کمک به سیاستگذاران برای ایجاد قوانین مسئول در مورد استفاده از هوش مصنوعی برای غربالگری ژنتیکی در قوانین حریم خصوصی موجود.

برجسته کردن خطرات امنیت سایبری: ارائه اطلاعات در مورد آسیب پذیری های خاص مرتبط با تجزیه و تحلیل ژنتیکی به کمک هوش مصنوعی و مدیریت مقادیر زیادی از داده های هوش مصنوعی، که نیاز به اقدامات امنیتی قوی را برجسته می کند.

کاوش در کاربردهای پزشکی قانونی: گفتمانی را در مورد ملاحظات بالقوه و اخلاقی استفاده از ابزارهای تحلیل چهره هوش مصنوعی در پزشکی قانونی باز کنید.

تحریک تحقیقات بیشتر: شکاف‌های موجود در دانش و فناوری فعلی را شناسایی کنید و محققان را برای رسیدگی به محدودیت‌ها، سوگیری‌ها و معضلات اخلاقی در این زمینه به چالش بکشید.

۲٫ مفهوم و روش

۲٫۱٫ مفهوم

این مرور داستانی با هدف بررسی یک مفهوم پیچیده با مفاهیم چند رشته ای است. تعریف روایت و روش شناسی در این اثر فکری، اساس یافته ها و تفاسیر است. هنگامی که در زندگی واقعی اعمال می شود، در یک موقعیت خیالی با فرصتی بی سابقه برای تشخیص یک بیماری نادر در شما یا فرزندتان در مراحل اولیه و در نتیجه جلوگیری از عوارض زودرس سلامتی و حتی مرگ از طریق مداخله درمانی اولیه، انتخاب ساده ای به نظر می رسد. با این حال، خطرات اخلاقی، حریم خصوصی و امنیت سایبری با استفاده از هوش مصنوعی – پردازش داده های بزرگ دولتی – با پیامدهای قابل توجه اورولی وجود دارد.

این بررسی روایتی روایتی را با تمرکز بر پتانسیل تحول‌آفرین تحلیل چهره هوش مصنوعی در تشخیص بیماری‌های نادر ایجاد می‌کند و در عین حال ملاحظات پیچیده حقوقی، اخلاقی، پزشکی قانونی و امنیت سایبری را برجسته می‌کند. موضوعات کلیدی طرح کلی آن به شرح زیر است:

  • پیشرفت های تکنولوژیکی که امکان تشخیص زودهنگام را فراهم می کند.

  • دیدگاه های متناقض در مورد حریم خصوصی در عصر هوش مصنوعی؛

  • پتانسیل برای پزشکی قانونی مبتنی بر هوش مصنوعی؛

  • ضرورت حفاظت از امنیت سایبری در این حوزه.

۲٫۲٫ طرح کلی

رویکرد گام به گام تحت پوشش این بررسی روایی در زیر ساختار یافته است.

۲٫۲٫۱٫ اکتساب داده ها و پیش پردازش

پایگاه های داده منبع: منشاء داده های تصویر چهره. این شامل موارد زیر است:

  • پایگاه‌های اطلاعاتی شناسه‌های ملی دولتی (حصول اطمینان از رعایت تمامی الزامات قانونی و حریم خصوصی).

  • پایگاه‌های اطلاعاتی تصاویر در دسترس عموم با مجوزها و رضایت مناسب (فقط در صورتی که مطالعه فراتر از پایگاه‌های اطلاعاتی ID باشد).

پیش پردازش داده ها: مراحل آماده سازی تصاویر برای تجزیه و تحلیل این شامل موارد زیر است:

  • عادی سازی: استاندارد کردن اندازه، وضوح و جهت تصویر.

  • تشخیص و استخراج چهره: مکان یابی و برش چهره در تصاویر.

  • ناشناس سازی و/یا نام مستعار: اجرای تکنیک های مناسب برای محافظت از هویت فردی در راستای مقررات اخلاقی و حریم خصوصی که در بخش حقوقی این مقاله بحث شده است.

۲٫۲٫۲٫ توسعه و انتخاب مدل هوش مصنوعی

  • انتخاب الگوریتم هوش مصنوعی: الگوریتم های هوش مصنوعی برای فنوتیپ چهره:

    • جنبه‌های قوت، خطرات و محدودیت‌های مدل‌های یادگیری عمیق مانند شبکه‌های عصبی کانولوشنال (CNN) در این زمینه؛

    • ملاحظات الگوریتم های تجاری موجود مانند Face2Gene با تجزیه و تحلیل خطرات و محدودیت های آنها و سازگاری های لازم.

  • مجموعه داده های آموزشی و اعتبار سنجی: طراحی مجموعه داده مورد استفاده برای آموزش سیستم هوش مصنوعی:

    • منبع تصاویر برچسب گذاری شده (تشخیص بیماری های نادر شناخته شده با عکس های مربوطه)؛

    • استراتژی های تقسیم داده ها (آموزش، اعتبارسنجی، آزمایش)؛

    • شناسایی سوگیری‌های بالقوه و روش‌های مورد استفاده برای کاهش.

  • معیارهای ارزیابی: موارد زیر برای ارزیابی اثربخشی مدل هوش مصنوعی استفاده می شود:

    • دقت، دقت، یادآوری، حساسیت و ویژگی برای شرایط ژنتیکی مختلف؛

    • استفاده از منحنی های مشخصه عملکرد گیرنده و ناحیه زیر منحنی را برای ارزیابی عملکرد کلی در نظر بگیرید.

۲٫۲٫۳٫ پیاده سازی هوش مصنوعی و تجزیه و تحلیل داده ها

۲٫۲٫۴٫ ملاحظات اخلاقی، قانونی و مقرراتی

  • رضایت آگاهانه: در نظر گرفتن یک مدل انتخاب کردن یا انصراف برای اعمال و مکانیسم‌های موجود برای محافظت از انتخاب فردی و حریم خصوصی؛

  • شفافیت: اطلاع رسانی یافته ها و پیامدهای آنها به مردم و ارائه دهندگان مراقبت های بهداشتی؛

  • رعایت مقررات: اطمینان حاصل کنید که مفهوم کاملاً با موارد زیر مطابقت دارد:

    • GDPR در زمینه اتحادیه اروپا، و همچنین سایر قوانین ملی مرتبط؛

    • مقررات دستگاه های پزشکی (اگر سیستم هوش مصنوعی به این صورت طبقه بندی شده باشد)؛

    • مقررات در حال تحول خاص برای هوش مصنوعی، مانند قانون هوش مصنوعی اتحادیه اروپا.

۲٫۲٫۵٫ کاربردهای پزشکی قانونی

  • شناسایی شخصی: پروتکل های گردش کار در مورد اینکه چگونه سیستم هوش مصنوعی می تواند در موارد زیر کمک کند:

  • فنوتیپ کردن: پتانسیل برای پیش‌بینی صفات از تصاویر مربوط به پزشکی قانونی (سن، اصل و نسب، و غیره) – اذعان به محدودیت‌ها و نیاز به اعتبارسنجی.

۲٫۲٫۶٫ محدودیت ها و مسیرهای آینده

  • محدودیت ها را بپذیرید: تعصبات مجموعه داده، خطاهای هوش مصنوعی و نیاز به تحقیقات بیشتر برای بهینه سازی دقت و رسیدگی به شرایط نادر؛

  • دستورالعمل های آینده: پیشنهاد راه هایی مانند موارد زیر:

    • گسترش مجموعه داده های تصویری برای جامعیت.

    • تحقیق در مورد تولید تصویر مصنوعی برای تقویت داده ها.

    • ادغام با توالی ژنتیکی برای دقت بالاتر.

استفاده از تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی در برنامه های پزشکی قانونی چندین معضل اخلاقی خاص را ارائه می دهد. حفظ حریم خصوصی و رضایت از نگرانی های اصلی است، زیرا افراد اغلب بدون اطلاع یا رضایت آنها مورد تجزیه و تحلیل قرار می گیرند. سوگیری در شناسایی مجرمانه می‌تواند منجر به رفتار نابرابر با گروه‌های جمعیتی مختلف شود که منجر به اتهامات یا محکومیت‌های نادرست، به ویژه جوامع اقلیت می‌شود. تضمین روند عادلانه و محاکمه عادلانه با الگوریتم‌های هوش مصنوعی غیرشفاف چالش برانگیز است، زیرا متهمان باید بتوانند شواهد علیه خود را به چالش بکشند. علاوه بر این، خطر سوء استفاده از فناوری هوش مصنوعی برای نظارت غیرمجاز یا هدف‌گیری سیاسی وجود دارد که نگرانی‌های اخلاقی و آزادی مدنی قابل توجهی را ایجاد می‌کند.

۲٫۳٫ مدل مفهومی سیستم

برای درک کامل پتانسیل تحول آفرین و پیامدهای تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص بیماری های نادر، در نظر گرفتن یک مدل سیستم جامع ضروری است. این مدل ورودی‌ها، فرآیندها و خروجی‌های مختلفی را ادغام می‌کند که با مضامین اصلی این مقاله از ملاحظات حقوقی، اخلاقی، پزشکی قانونی و امنیت سایبری هماهنگ است. با ترسیم عناصر به هم پیوسته و گردش کار، می‌توانیم نشان دهیم که چگونه فناوری هوش مصنوعی می‌تواند به طور مؤثر و مسئولانه در سناریوهای دنیای واقعی پیاده‌سازی شود، و اطمینان حاصل شود که مزایای تشخیص زودهنگام بیماری در عین حفظ حقوق فردی و یکپارچگی داده‌ها محقق می‌شود. بخش زیر این مؤلفه‌ها را به تفصیل تشریح می‌کند، و یک چارچوب روشن ارائه می‌کند که از رویکرد بین‌رشته‌ای مورد حمایت در سراسر این مقاله پشتیبانی می‌کند.

ورودی ها:

  • پایگاه داده تصاویر چهره که توسط دولت نگهداری می شود.

  • مخازن دانش در مورد بیماری های ژنتیکی و فنوتیپ های صورت مربوطه؛

  • قوانین و مقررات قابل اجرا (مانند GDPR، قانون هوش مصنوعی و غیره)؛

  • دستورالعمل های اخلاقی؛

  • استانداردها و پروتکل های امنیت سایبری

اجزای اصلی سیستم:

  • الگوریتم های هوش مصنوعی طراحی شده برای تجزیه و تحلیل تصویر چهره؛

  • فرآیندهای ناشناس سازی و نام مستعار.

  • مکانیسم های ذخیره سازی داده و کنترل دسترسی؛

  • چارچوب های تصمیم گیری (به عنوان مثال، شناسایی موارد برای ارزیابی بیشتر).

  • کانال های ارتباطی (به عنوان مثال، انتشار نتایج برای مداخلات بهداشت عمومی).

خروجی ها:

  • داده های مربوط به شیوع بیماری های ژنتیکی نادر؛

  • شناسایی افراد در معرض خطر؛

  • یافته های بالقوه برای کاربردهای پزشکی قانونی؛

  • توصیه های سیاستی برای قانونگذاران؛

  • بینش برای توسعه دهندگان در بخش های فناوری و امنیت.

شکل ۱ نمایشی بصری از عناصر کلیدی مرتبط و فرآیندهای دخیل در تجزیه و تحلیل چهره مبتنی بر هوش مصنوعی برای تشخیص زودهنگام بیماری‌های نادر را ارائه می‌کند و ملاحظات قانونی، اخلاقی و امنیتی را برجسته می‌کند.

۲٫۴٫ مدل سیستم مبتنی بر گردش کار

برای عملیاتی کردن تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص بیماری‌های نادر، ایجاد یک گردش کار دقیق که جریان داده‌ها و فرآیندهای تصمیم‌گیری را مشخص می‌کند، بسیار مهم است. این بخش مبتنی بر چارچوب مفهومی است که قبلاً مورد بحث قرار گرفت و آن را به یک مدل عملی و گام به گام ترجمه می‌کند. با انجام این کار، ما می توانیم اطمینان حاصل کنیم که هر مرحله از سیستم – از اکتساب داده تا ذخیره سازی ایمن و تولید خروجی – به استانداردهای قانونی، اخلاقی، پزشکی قانونی و امنیت سایبری که در این مقاله برجسته شده است، پایبند است. مدل گردش کار زیر یک نقشه راه روشن برای پیاده سازی راه حل های مبتنی بر هوش مصنوعی به شیوه ای ارائه می دهد که مزایای سلامت عمومی را به حداکثر می رساند و در عین حال خطرات برای حریم خصوصی و امنیت داده ها را به حداقل می رساند.

  • جمع‌آوری و پیش‌پردازش تصویر: تصاویر از پایگاه‌های اطلاعاتی امن به‌دست می‌آیند و تضمین می‌کنند که تمامی الزامات قانونی و حریم خصوصی رعایت شده است. سپس این تصاویر از نظر اندازه، وضوح و جهت گیری استاندارد می شوند تا برای تجزیه و تحلیل هوش مصنوعی آماده شوند.

  • ناشناس سازی/نام مستعار: تکنیک هایی مانند ناشناس سازی و نام مستعار برای محافظت از هویت افراد با رعایت مقررات اخلاقی و حفظ حریم خصوصی در تصاویر اعمال می شود.

  • تجزیه و تحلیل هوش مصنوعی: مدل AI تصاویر را با استفاده از الگوریتم های پیشرفته پردازش می کند تا نشانگرهای فنوتیپی بالقوه را که نشان دهنده بیماری های ژنتیکی نادر هستند شناسایی کند.

  • تفسیر داده ها و ارزیابی ریسک: نتایج تولید شده توسط مدل هوش مصنوعی با در نظر گرفتن خطرات بالقوه و پیامدهای اخلاقی به دقت ارزیابی می شود. این مرحله تضمین می کند که تجزیه و تحلیل دقیق است و هر گونه ریسک شناسایی شده به درستی مدیریت می شود.

  • تصمیم گیری:

    • شاخه مطالعه شیوع: داده‌های ناشناس برای کمک به آمارهای سطح جمعیت استفاده می‌شود و به ترسیم شیوع بیماری‌های ژنتیکی نادر بدون افشای هویت فردی کمک می‌کند.

    • شاخه ریسک فردی: با وجود پادمان‌های کافی و رضایت آگاهانه، ممکن است با افرادی که توسط تجزیه و تحلیل هوش مصنوعی به‌عنوان در معرض خطر بالقوه علامت‌گذاری شده‌اند، برای ارزیابی بیشتر یا اقدامات پیشگیرانه تماس گرفته شود.

  • ذخیره سازی امن: همه داده ها، از جمله تصاویر و نتایج تجزیه و تحلیل، با کنترل های دسترسی دقیق و اقدامات امنیتی سایبری قوی برای جلوگیری از دسترسی های غیرمجاز و نقض داده ها، به صورت ایمن ذخیره می شوند.

  • خروجی و توصیه‌ها: یافته‌های حاصل از تجزیه و تحلیل هوش مصنوعی به بینش‌ها و توصیه‌های عملی تبدیل می‌شوند. این خروجی‌ها را می‌توان برای اهداف مختلف، از جمله مداخلات بهداشت عمومی، سیاست‌گذاری، و کاربردهای پزشکی قانونی مورد استفاده قرار داد تا اطمینان حاصل شود که داده‌ها در عین حفظ حریم خصوصی و امنیت به‌طور مؤثر مورد استفاده قرار می‌گیرند.

شکل ۲ جریان داده ها و تصمیمات را از طریق سیستم نشان می دهد و مراحل حساس و حفاظتی را برجسته می کند. مدل پیشنهادی منعطف است و به‌روزرسانی‌ها و پیشرفت‌ها را بر اساس بازخورد و قوانین هوش مصنوعی در حال تحول امکان‌پذیر می‌کند.

چالش های عملی ویژه برنامه های پزشکی قانونی

پیاده‌سازی هوش مصنوعی در زمینه‌های پزشکی قانونی گردش‌های کاری توصیف‌شده شامل چندین چالش عملی است. کیفیت و یکپارچگی داده ها بسیار مهم است، زیرا تحقیقات پزشکی قانونی اغلب با داده های با کیفیت پایین یا جزئی سروکار دارند. اطمینان از اینکه سیستم‌های هوش مصنوعی می‌توانند چنین داده‌هایی را با دقت پردازش کنند و در عین حال یکپارچگی آنها را حفظ کنند، ضروری است. قابلیت همکاری با سیستم های مجری قانون موجود مستلزم استانداردسازی و سازگاری در بسترها و حوزه های قضایی مختلف است. قابل قبول بودن قانونی شواهد مشتق از هوش مصنوعی در دادگاه مستلزم نشان دادن قابلیت اطمینان و اعتبار روش های استفاده شده از هوش مصنوعی است. ارائه آموزش کافی و پشتیبانی مداوم به کارکنان مجری قانون برای استفاده موثر از ابزارهای هوش مصنوعی نیز بسیار مهم است. در نهایت، ایجاد نظارت اخلاقی قوی و مکانیسم‌های حاکمیتی برای نظارت بر سیستم‌های هوش مصنوعی و رسیدگی به هر گونه مسائل اخلاقی یا قانونی در حال ظهور برای اجرای مسئولانه در کار پزشکی قانونی ضروری است.

۲٫۵٫ روش بررسی

این مرور داستانی دانش موجود را در مورد استفاده از تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص بیماری‌های نادر، با تمرکز بر پیامدهای قانونی، پزشکی، اخلاقی، پزشکی قانونی و امنیت سایبری ترکیب می‌کند. جستجوی جامع با نمایندگی کارشناسان در این زمینه‌ها (پزشکی، قانون، پزشکی قانونی، اپیدمیولوژی، امنیت سایبری و موارد دیگر) و در پایگاه‌های اطلاعاتی مرتبط مانند PubMed، Web of Science و Google Scholar با استفاده از عبارات جستجو از جمله “تحلیل چهره هوش مصنوعی” انجام شد. “بیماری های نادر”، “پایگاه های اطلاعاتی دولتی”، “حریم خصوصی”، “اخلاق”، “پزشکی قانونی” و “امنیت سایبری”. منابع شامل مقالات پژوهشی بررسی شده، گزارش‌های سازمان‌های دولتی و غیردولتی، تحلیل‌های حقوقی و نشریات خبری بود. هیچ محدودیت تاریخی برای ثبت طبیعت به سرعت در حال تکامل این میدان اعمال نشد. یافته‌های ادبیات جمع‌آوری‌شده به صورت موضوعی برای شناسایی مفاهیم کلیدی، فرصت‌ها، چالش‌ها و زمینه‌هایی برای کاوش بیشتر در این حوزه چند رشته‌ای ترکیب شدند.

ما امکان اجرای یک غربالگری جامع جمعیت را با گزینه ای برای اتخاذ اقدامات پیشگیرانه برای تضمین حریم خصوصی شهروندان ارائه می دهیم. ما دو سناریو برای استفاده مشترک می بینیم.

گزینه اول با یک راه حل تکنولوژیکی نشان داده می شود که همه شناسایی افراد را از خروجی الگوریتم هوش مصنوعی حذف می کند، اما اطلاعات اپیدمیولوژیک در مورد شیوع بیماری های ژنتیکی خاص شناسایی شده در گروه های سنی و جنسی خاص را ارائه می دهد. این سناریو از حریم خصوصی افراد محافظت می کند و در عین حال مزایای سلامت عمومی را برای جامعه فراهم می کند.

برای مطالعه شیوع بیماری های ژنتیکی در سطح جمعیت، شناسایی فردی ضروری نیست. برای دستیابی به هدف، پایگاه داده عکس هدف بدون هیچ گونه پیوندی به داده های هویتی باید با تجزیه و تحلیل هوش مصنوعی چهره بررسی شود. با این حال، ویژگی های جغرافیایی شیوع برای ارائه اطلاعات مهم بهداشت عمومی مطلوب است. بنابراین، مناطقی با شیوع محلی بیماری های ژنتیکی خاص را می توان شناسایی کرد. حفاظت از داده های شخصی با توجه به شیوع کم اکثر بیماری های ژنتیکی یک چالش است. سطح پایینی از جزئیات داده ها برای حفظ و تضمین ناشناس بودن موارد فردی ضروری است. شیوع در سطح شهرداری یا شهرستان ممکن است به اندازه کافی ناشناس نباشد زیرا تنها یک مورد بیماری ژنتیکی ممکن است در جمعیت آن وجود داشته باشد. شیوع در سطح منطقه اداری با جمعیتی بیش از ده ها یا صدها هزار نفر ممکن است سطح کافی از ناشناس ماندن را برای اکثر بیماری های ژنتیکی فراهم کند. نامگذاری واحدهای سرزمینی برای آمار (“NUTS”) که توسط یورواستات استفاده می شود، قلمرو اتحادیه اروپا و بریتانیا را به ۹۲ منطقه در NUTS 1 (مناطق عمده اجتماعی-اقتصادی)، ۲۴۴ منطقه در NUTS 2 (مناطق اساسی برای کاربرد منطقه ای) تقسیم می کند. سیاست ها)، و ۱۱۶۵ منطقه در سطح NUTS 3 (مناطق کوچک برای تشخیص های خاص) [۱۹]. مناطق NUTS 2 شرایط فوق را برآورده می کنند.

نتیجه این سناریو داده های شیوع در سطح جمعیت بدون امکان شناسایی فرد مبتلا به یک بیماری ژنتیکی خاص است. نقشه برداری از شیوع واقعی جمعیت بیماری های ژنتیکی خاص از ارزش بالایی برخوردار است زیرا امکان ارزیابی اعتبار و دقت غربالگری معمول از تجزیه و تحلیل نمونه های بیولوژیکی را فراهم می کند.

گزینه دوم غربالگری جمعیت برای اختلالات ژنتیکی برای اتخاذ اقدامات پیشگیرانه برای افراد در معرض خطر است. در این سناریو، شناسایی در مرحله خاصی از فرآیند ضروری است.

در این سناریو، نام مستعار داده ها برای اطمینان از حریم خصوصی جمعیت غربال شده ضروری است. مقررات (EU) 2016/679 پارلمان اروپا و شورا در ۲۷ آوریل ۲۰۱۶ در مورد حمایت از اشخاص حقیقی در مورد پردازش داده های شخصی و در مورد جابجایی آزادانه این داده ها و لغو دستورالعمل ۹۵/۴۶/ EC (“GDPR”)، بر پردازش داده های شخصی در اتحادیه اروپا نظارت می کند. ماده ۴ (۵) GDPR، نام مستعار را پردازش داده های شخصی تعریف می کند به گونه ای که دیگر نمی توان داده های شخصی را به یک موضوع خاص داده بدون استفاده از اطلاعات اضافی نسبت داد، مشروط بر اینکه این اطلاعات اضافی به طور جداگانه نگهداری شود و موضوع آن باشد. اقدامات فنی و سازمانی برای اطمینان از اینکه داده های شخصی به یک شخص حقیقی شناسایی شده یا قابل شناسایی نسبت داده نمی شود. برای نام مستعار پایگاه داده هدف، هویت مرتبط با عکس باید با نوعی کد (به عنوان مثال، حروف عددی) جایگزین شود. هویت و کد اختصاص داده شده را می توان در یک پایگاه داده جداگانه با دسترسی ایمن نگهداری کرد، که امکان شناسایی افراد در معرض خطر را در صورت امکان و اقدامات پیشگیرانه فراهم می کند.

به نظر می رسد پایگاه داده طرح های شناسه ملی اجباری (“NID”) کاندیدای ایده آل برای آزمایش در سطح جمعیت باشد. با این حال، محدودیت ها و ملاحظات قانونی برای غربالگری جمعیت در این پایگاه ها وجود دارد. کمیسیون اروپا قبلاً مقررات جدیدی را برای ایجاد فضای داده‌های سلامت اروپا (“EHDS”) پیشنهاد کرده است که به محققان، نوآوران، سیاست‌گذاران و تنظیم‌کننده‌ها در سطح اتحادیه اروپا و کشورهای عضو اجازه می‌دهد به داده‌های سلامت الکترونیکی مربوطه برای ترویج تشخیص، درمان بهتر دسترسی داشته باشند. و رفاه افراد حقیقی و منجر به سیاست های بهتر و آگاهانه تر شود [۲۰].

۲٫۶٫ محدودیت ها و ملاحظات حقوقی عمومی

مفهوم ارائه شده، در حالی که در حال حاضر از نظر فنی امکان پذیر است [with available technologies and means such as Face2Gene]، بدون در نظر گرفتن قوانین قابل اجرا قابل اجرا نیست. منشور حقوق اساسی اتحادیه اروپا حفاظت از داده های شخصی را به عنوان یکی از آزادی های اساسی به رسمیت می شناسد. ماده ۸ منشور مقرر می‌دارد که داده‌های شخصی باید به طور منصفانه برای اهداف مشخص و بر اساس رضایت شخص مربوطه یا سایر مبانی مشروعی که توسط قانون تعیین شده است پردازش شوند. از منظر قانون حفظ حریم خصوصی (به عنوان مثال، GDPR)، عکس‌های چهره به عنوان داده‌های شخصی در نظر گرفته می‌شوند، زیرا به یک شخص حقیقی شناسایی شده یا قابل شناسایی مربوط می‌شوند. با در نظر گرفتن هدف نهایی مطالعه پیشنهادی – شناسایی بیماری ژنریک – عکس باید داده‌های مربوط به سلامت در نظر گرفته شود زیرا اطلاعاتی را در مورد وضعیت سلامتی نشان می‌دهد. تصاویر صورت ممکن است داده های بیومتریک نیز در نظر گرفته شوند. ماده ۴ (۱۳) GDPR داده های ژنتیکی را به عنوان داده های شخصی مربوط به ویژگی های ژنتیکی ارثی یا اکتسابی یک شخص طبیعی تعریف می کند که اطلاعات منحصر به فردی در مورد فیزیولوژی یا سلامت آن شخص طبیعی ارائه می دهد و به ویژه از تجزیه و تحلیل ناشی می شود. نمونه بیولوژیکی از شخص حقیقی مورد نظر. با این حال، بند ۳۴ GDPR خاطرنشان می کند که داده های ژنتیکی ممکن است از “تحلیل عنصر دیگری که امکان به دست آوردن اطلاعات معادل را فراهم می کند” نشات گرفته باشد. بنابراین، در چارچوب هدف مورد نظر، عکس های صورت نیز باید داده های ژنتیکی در نظر گرفته شوند.

به دلیل ماهیت حساس داده‌های مربوط به سلامت، بیومتریک و ژنتیک، پردازش داده‌ها به طور کلی تابع قوانین سخت‌گیرانه‌تری برای پردازش داده‌های شخصی است. باید اشاره کنیم که اگر داده‌های شخصی مربوط به سوژه‌های داده اتحادیه اروپا باشد، GDPR نیز دسترسی فراسرزمینی دارد.

اهمیت داده های ژنتیکی و ژنوم انسان منجر به تصویب چندین سند و معاهدات بین المللی، مانند قطعنامه های شورای اقتصادی و اجتماعی سازمان ملل متحد ۲۰۰۱/۳۹ درباره حریم خصوصی ژنتیکی و عدم تبعیض در ۲۶ ژوئیه ۲۰۰۱ و ۲۰۰۳/۲۳۲ در مورد حریم خصوصی ژنتیکی شد. و عدم تبعیض در ۲۲ ژوئیه ۲۰۰۳، اعلامیه جهانی یونسکو در مورد ژنوم انسان و حقوق بشر [۲۱]اعلامیه بین المللی داده های ژنتیکی انسان [۲۲]یا پروتکل الحاقی شورای اروپا به کنوانسیون حقوق بشر و پزشکی زیستی، در مورد آزمایش ژنتیکی برای اهداف بهداشتی (“APGT”) [23].
از منظر GDPR، پردازش داده های شخصی باید قانونی و بر اساس مبنای قانونی مناسب ماده ۶ باشد، از جمله رضایت، قراردادی که موضوع داده طرف آن است، تعهد قانونی، حفاظت از منافع حیاتی، انجام وظیفه ای که در عموم انجام می شود. منافع یا اعمال قدرت رسمی داده‌های مرتبط با سلامت، بیومتریک و ژنتیک به عنوان دسته خاصی از داده‌های شخصی مشمول ماده ۹ GDPR در نظر گرفته می‌شوند که پردازش چنین داده‌هایی را فقط تحت شرایط خاصی مجاز می‌سازد. ارزیابی ما از مناسب بودن مبنای قانونی پردازش داده ها در جدول ۱ ارائه شده است.

دسترسی به پایگاه های داده NID به شدت تنظیم شده است. چنین داده هایی تا حد امکان دقیق هستند و به طور منظم به روز می شوند. فقط کسری از داده های ذخیره شده در NID برای مطالعه شیوع مورد نیاز است. مجموعه داده های آزمون باید از اصل حداقل سازی داده های GDPR پیروی کند و فقط به اطلاعات ضروری محدود شود. حداقل مجموعه داده باید شامل موارد زیر باشد:

(آ)

عکس‌ها و مکان NUTS 2 فقط برای مطالعه شیوع.

(ب)

عکس ها و کد مستعار اختصاص داده شده برای مطالعات با گزینه ای برای شناسایی افراد در معرض خطر و تسهیل اقدامات پیشگیرانه، با یک پایگاه داده جداگانه که امکان شناسایی در صورت لزوم را فراهم می کند.

ایجاد پایگاه های اطلاعاتی مورد نیاز برای مطالعات شیوع و شناسایی افراد در معرض خطر مستلزم اصلاح قانون NID است.

جدول ۱ نشان می دهد که با رعایت شرایط خاص، انجام هر دو مطالعه غربالگری شیوع جمعیت و مطالعه خطر فردی از نظر قانونی امکان پذیر است. برای مطالعه شیوع، اتخاذ قانون مناسب مبنای قانونی کافی و مناسب برای پردازش داده های شخصی مطابق با GDPR در قالب تعهدات قانونی، منافع عمومی، اعمال اختیارات رسمی، تشخیص پزشکی یا تحقیقات علمی ایجاد می کند. مطالعه ریسک فردی مستلزم تصویب قانون مناسب است اما باید با مراحل و اقدامات اضافی همراه باشد. کمترین مشکل طرح مطالعه انتخابی است، که در آن یک آزمودنی یا نماینده قانونی او برای شرکت در مطالعه رضایت می‌دهد، اگرچه آن موضوع یا نماینده قانونی او هر زمان که بخواهد این حق را دارد که رضایت را پس بگیرد.

با این حال، داشتن یک مبنای قانونی مناسب برای مطابقت با مقررات حریم خصوصی اتحادیه اروپا کافی نخواهد بود. چنین مقرراتی احتمالاً مهمترین محدودیت قانونی برای مطالعات مورد نظر خواهد بود، اگرچه سایرین نیز باید در نظر گرفته شوند.

GDPR شامل مجموعه ای از اصول اساسی در ماده ۵ است. یکی از این اصول شفافیت است که مستلزم آن است که اطلاعات مناسب در اختیار افراد قرار گیرد تا از درک آنها از اینکه چه کسی و چرا داده های شخصی را پردازش می کند اطمینان حاصل شود. با یک کمپین اطلاعاتی مناسب، به ویژه در مطالعه انتخابی، این اصل می تواند برآورده شود. اصل دیگر «محدودیت هدف» است که مستلزم آن است که استفاده‌های ثانویه از داده‌ها در راستای هدفی باشد که این داده‌ها در ابتدا برای آن جمع‌آوری شده‌اند. در مورد مورد بحث، این ممکن است تضاد احتمالی ایجاد کند، زیرا حتی یک مطالعه جمعیتی را می‌توان با هدف اولیه ناسازگار در نظر گرفت، به دنبال الزامات آزمون سازگاری طبق ماده ۶ (۴) GDPR. از سوی دیگر، پردازش در جهت منافع عمومی یا تحقیقات علمی از معافیت های خاصی برخوردار است که ممکن است به نوبه خود مبانی قانونی مناسب را تشکیل دهد. ما اصول «حداقل‌سازی داده‌ها»، «دقت» و «صداقت و محرمانگی» را به‌عنوان مانع مهمی در نظر نمی‌گیریم، اگرچه باید در هنگام طراحی مطالعه (مطالعه) به‌دقت با جزئیات در نظر گرفته شوند.

هر مطالعه (اعم از شیوع، خطر فردی، یا هر مطالعه دیگری در محدوده این مقاله) باید مشمول ارزیابی دقیق خطرات باشد. به‌ویژه، ارزیابی تأثیر حفاظت از داده‌ها باید انجام شود، که ضرورت و تناسب پردازش را با هدف آن و حقوق سوژه‌های داده، از جمله اقدامات مربوط به امنیت و کاهش خطرات شناسایی شده، ارزیابی می‌کند.

ارزیابی خاص حتی ممکن است خطرات غیرمنتظره ای را به همراه داشته باشد، زیرا کاربرد GDPR در برخی موارد به تفاسیر افراطی رسیده است که ممکن است بر پردازش داده ها تأثیر منفی بگذارد، که تمرکز این مقاله است. رای دیوان دادگستری اتحادیه اروپا در پرونده C-184/20 OT علیه Vyriausioji tarnybinės etikos komisiya تصریح کرد که ماده ۹ GDPR بیان می کند که داده های شخصی حساس باید به طور گسترده به عنوان حتی داده هایی که می توانند به طور غیرمستقیم تمایلات جنسی را فاش کنند تفسیر شوند. یک شخص حقیقی به عنوان داده های شخصی حساس در نظر گرفته می شود. پس از این قضاوت، به نظر می‌رسد که حتی هرگونه پردازش اولیه عکس‌ها برای به دست آوردن اطلاعات غیرمستقیم مربوط به ژن‌ها یا بیماری‌های ژنتیکی باید از همان ابتدا داده‌های حساس در نظر گرفته شود.

هنوز مشخص نیست که آیا این تفسیر منجر به پردازش اطلاعات مشابه به عنوان داده های شخصی حساس می شود یا خیر. چنین تفسیر افراطی ممکن است استفاده از رسانه های اجتماعی یا حتی دوربین مدار بسته را در فضاهای عمومی غیرممکن کند و احتمالاً منجر به دسته بندی مجدد طیف گسترده ای از داده های شخصی “عادی” (مانند عکس های خانوادگی) به داده های ژنتیکی حساس می شود. برای پردازش مورد بحث در این مقاله، کافی است بگوییم که داده های زیربنایی، حتی اگر عکس های ساده باشند، از نقطه اولیه جمع آوری داده های ژنتیکی حساس تلقی می شوند.

هوش مصنوعی که هم برای مطالعه شیوع جمعیت و هم برای مطالعه خطر فردی استفاده می شود، نرم افزاری است که برای تشخیص، پیشگیری، پیش بینی یا پیش آگهی بیماری ژنتیکی طراحی و در نظر گرفته شده است. به این ترتیب، ممکن است تحت تعریف دستگاه پزشکی تحت ماده ۲ (۱) مقررات (EU) 2017/745 پارلمان اروپا و شورای ۵ آوریل ۲۰۱۷ در مورد وسایل پزشکی (MDR) قرار گیرد. در حالی که چنین نرم افزاری فقط برای اهداف تحقیقاتی استفاده می شود، گواهی MDR ممکن است ضروری نباشد. استفاده از همان نرم افزار در یک محیط بالینی یا بهداشت عمومی برای تشخیص بیماری های نادر به گواهی MDR به عنوان یک دستگاه پزشکی کلاس I یا در نهایت از کلاس IIa نیاز دارد.

باید توجه داشته باشیم که هوش مصنوعی به زودی مشمول مقررات اتحادیه اروپا خواهد شد. اولین پیشنهاد برای قانون هوش مصنوعی توسط کمیسیون اروپا در آوریل ۲۰۲۱ منتشر شد [۲۴]. شورای اتحادیه اروپا در ۶ دسامبر ۲۰۲۲ نسخه مصالحه ای از قانون پیشنهادی هوش مصنوعی (AI) را تصویب کرد. [۲۵,۲۶]. در ۹ دسامبر ۲۰۲۳، پارلمان اروپا به توافق موقت با شورا در مورد قانون هوش مصنوعی دست یافت. متن مورد توافق در ۱۳ مارس ۲۰۲۴ توسط پارلمان تصویب شد و اکنون باید به طور رسمی توسط شورا تصویب شود تا به قانون اتحادیه اروپا تبدیل شود. [۲۷]. انتظار می رود قانون هوش مصنوعی در پایان ماه مه ۲۰۲۴ لازم الاجرا شود. علاوه بر قانون هوش مصنوعی، پردازش داده های مربوط به سلامت ممکن است مشمول مقررات پیشنهادی EDHS باشد و توسط آن تسهیل شود. [۲۰].
ما عمداً محدودیت‌های قانونی و توجه را فقط به موارد ذکر شده در بالا محدود کردیم، زیرا پرداختن به جزئیات بیشتر از محدوده این مقاله خارج است. [۲۸].

۲٫۷٫ حفاظت از حریم خصوصی در طراحی مطالعه

موضوع حریم خصوصی شخصی هنگام دسترسی به پایگاه‌های اطلاعاتی شناسه ملی (NID) برای تحقیق بسیار مهم است. در حالی که رویکرد ما بر ایجاد پایگاه‌های داده مشتق‌شده برای حفظ حریم خصوصی تأکید دارد، می‌توان در نظر گرفت که حفظ حریم خصوصی به معنای محدود کردن امکان دسترسی حتی به پایگاه داده NID در وهله اول است. مقررات حفظ حریم خصوصی اغلب چنین دسترسی را محدود می کند و تولید داده های مصنوعی و تجزیه و تحلیل جامع را پیچیده می کند. در عمل، حفظ حریم خصوصی مستلزم دستورالعمل‌های قانونی و اخلاقی دقیق، تکنیک‌های پیشرفته ناشناس‌سازی و دسترسی محدود و نظارت شده به داده‌ها است. این اقدامات می تواند تجزیه و تحلیل را دشوار کند، اما برای ایجاد تعادل بین حریم خصوصی و نیازهای تحقیقاتی ضروری هستند.

مطالعات مورد نظر نباید بر روی خود داده های NID بلکه بر روی پایگاه های داده ای که به طور خاص از آن ایجاد و مشتق شده اند انجام شود. با توجه به حساسیت پایگاه های داده مطالعه، امنیت و حفظ حریم خصوصی با رویکرد طراحی باید اصل پیشرو باشد. برای به حداقل رساندن نگرانی های امنیتی، دو مجموعه داده جداگانه باید ایجاد شود – یکی برای مطالعه جمعیت و دیگری برای مطالعه ریسک فردی. هر دو مجموعه داده باید تا آنجایی که دستیابی به هدف مطالعه اجازه می دهد، بی نام یا مستعار شوند.

برای به حداقل رساندن خطر به خطر افتادن یا نشت پایگاه داده، اقدامات امنیتی مناسب باید اجرا شود. استفاده از فضای ذخیره سازی ابری یا راه حل های IT برون سپاری شده به طور قابل توجهی خطر نقض امنیت را افزایش می دهد. توجه به این نکته ضروری است که نقض یکپارچگی و محرمانه بودن داده های شخصی، به عنوان یکی از اصول اساسی پردازش داده ها، ممکن است جریمه های اداری قابل توجهی را به دنبال داشته باشد.

علاوه بر این، هرگونه انتقال داده به خارج از کشور مبدا بسیار نامطلوب خواهد بود و به دلیل الزامات بین‌المللی انتقال داده که تحت GDPR تعیین شده است، در خارج از منطقه اقتصادی اروپا نیز احتمالاً مشکل ساز خواهد بود. زیرساخت‌های فناوری اطلاعات اختصاصی که توسط کشورهای عضو اتحادیه اروپا یا آژانس‌های اختصاصی آن به‌عنوان مقامات بهداشت عمومی یا اپراتورهای ملی سلامت الکترونیک اداره می‌شوند، احتمالاً بر راه‌حل‌های تجاری موجود ترجیح داده می‌شوند. همچنین، راه‌حل اختصاصی هوش مصنوعی باید بر روی چنین زیرساخت‌های اختصاصی اجرا شود، زیرا ارسال داده‌های شخصی حساس برای پردازش از طریق اینترنت برای دارنده حق هوش مصنوعی خطر بیشتری را به همراه دارد. دیوان دادگستری اتحادیه اروپا (CJEU) به چنین خطراتی پرداخته است، به عنوان مثال، در حکم Schrems II (کمیسیون حفاظت از داده ها علیه فیس بوک ایرلند و ماکسیمیلیان شرمز، پرونده C-311/18).

قانونی که به مطالعات مورد نظر اجازه می دهد باید محیطی را برای پردازش عادلانه و شفاف مجموعه داده های آزمون ایجاد کند. برای دستیابی به بالاترین استاندارد قابل دستیابی از داده ها و امنیت سایبری، حداقل استانداردهای امنیتی و پادمان های مورد نیاز باید بخش جدایی ناپذیر چنین قوانینی باشند.

۲٫۸٫ جنبه های امنیت سایبری و استراتژی های خاص برای کاهش خطرات

جنبه امنیت سایبری اجرای تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص بیماری‌های نادر و کاربردهای پزشکی قانونی به دلیل ماهیت حساس داده‌های درگیر حیاتی است. حفاظت از تصاویر چهره و اطلاعات ژنتیکی در برابر دسترسی غیرمجاز و نقض داده ها بسیار مهم است. استراتژی‌های خاص برای کاهش این خطرات شامل اجرای روش‌های رمزگذاری قوی برای ذخیره و انتقال داده‌ها و اطمینان از اینکه داده‌های حساس هم در حالت استراحت و هم در حین انتقال رمزگذاری می‌شوند.

یک استراتژی خاص استفاده از رمزگذاری همومورفیک است که امکان پردازش و تجزیه و تحلیل داده ها را بدون نیاز به رمزگشایی فراهم می کند. این تکنیک تضمین می‌کند که اطلاعات حساس حتی در حین محاسبه، ایمن باقی می‌مانند و خطر مواجهه را به میزان قابل توجهی کاهش می‌دهد.

علاوه بر این، استفاده از احراز هویت چند عاملی (MFA) برای دسترسی به پایگاه های داده می تواند یک لایه امنیتی اضافی اضافه کند و خطر دسترسی غیرمجاز را کاهش دهد. ممیزی های امنیت سایبری منظم و ارزیابی آسیب پذیری ها باید برای شناسایی و رفع شکاف های امنیتی احتمالی انجام شود. سیستم های پیشرفته تشخیص تهدید، مانند سیستم های تشخیص نفوذ (IDS) و سیستم های پیشگیری از نفوذ (IPS)، می توانند به شناسایی و کاهش حملات سایبری احتمالی در زمان واقعی کمک کنند.

پیاده‌سازی تکنیک‌های حفظ حریم خصوصی می‌تواند از داده‌های فردی با افزودن نویز به مجموعه داده محافظت کند و استخراج اطلاعات شخصی را دشوارتر کند. اطمینان از کنترل های دسترسی دقیق به طوری که فقط پرسنل مجاز به داده های حساس دسترسی داشته باشند ضروری است. آموزش و آموزش کارکنان در مورد بهترین شیوه های امنیت سایبری می تواند موقعیت امنیتی سازمان را بیشتر تقویت کند.

ادغام این استراتژی ها، به ویژه استفاده از رمزگذاری همومورفیک، می تواند به طور قابل توجهی خطرات مربوط به مدیریت داده های حساس در برنامه های کاربردی مبتنی بر هوش مصنوعی را کاهش دهد و از محرمانه بودن، یکپارچگی و در دسترس بودن داده ها اطمینان حاصل کند.

۳٫ بحث

پیشرفت های فعلی در هوش مصنوعی همه زمینه های مرتبط از جمله آموزش پزشکی را متحول کرده است [۲۹]در مقایسه با تغییرات پارادایم تاریخی و تاثیر قابل توجهی بر کاربردهای مختلف پزشکی قانونی، از جمله شناسایی بقایای انسانی [۳۰]. دستگاه های تلفن همراه همه جا حاضر می توانند چهره های سه بعدی را با دقت بیشتر تشخیص دهند [۳۱]. کاربردهای مختلف پزشکی قانونی را می توان به طور قابل توجهی با کاربردهای هوش مصنوعی، از تجزیه و تحلیل مورفومتریک، بهبود بخشید [۳۲] یا تحلیل‌ها و پیش‌بینی‌های رفتاری هوش مصنوعی در پیشگیری از رفتار خشونت‌آمیز یا قتل‌آمیز [۳۳] به تخمین سن در خردسالان [۳۴].
مطالعات ارتباط ژنومی (GWAS) ارتباط بین تنوع طبیعی صورت و میلیون‌ها پلی‌مورفیسم تک نوکلئوتیدی (SNP) را بررسی کرده‌اند. بیش از ۵۰ جایگاه مرتبط با ویژگی های صورت قبلاً شناسایی شده است [۳۵].
فناوری‌های هوش مصنوعی توصیف‌شده می‌تواند غربالگری خودکار جمعیت را برای ویژگی‌ها یا اختلالات ژنتیکی خاص بدون نیاز به دریافت نمونه‌های بیولوژیکی از دولت‌ها یا حتی شرکت‌های خصوصی تسهیل کند. مهم‌ترین مانعی که مانع از این (سوء) استفاده از هوش مصنوعی می‌شود، قانون حفظ حریم خصوصی است، مانند مقررات عمومی حفاظت از داده‌های اتحادیه اروپا (GDPR) [36,37]. از منظر GDPR، رضایت، تعهد قانونی و منافع عمومی ممکن است گزینه‌های مناسبی برای انتخاب یک مبنای قانونی مناسب در نظر گرفته شوند. بنابراین، تصویب قانونی که به غربالگری جمعیت مبتنی بر هوش مصنوعی صورت برای برخی ویژگی‌های سلامتی/ژنتیکی اجازه می‌دهد قابل تصور باشد.
غربالگری ژنتیکی جمعیت مبتنی بر صورت با استفاده از هوش مصنوعی ممکن است در ابتدا به عنوان یک پروژه تحقیقاتی علمی آزمایش شده باشد. این اجازه می دهد تا از استثنای تحقیقاتی بر اساس ماده ۸۹ (۲) GDPR بهره مند شوند، که به اتحادیه اروپا یا یک کشور عضو اجازه می دهد از حقوق موضوع داده های ذکر شده در مواد ۱۵ (حق دسترسی)، ۱۶ (حق اصلاح)، ۱۸ عدول کنند. (حق محدودیت پردازش)، و ۲۱ (حق اعتراض). بند ۱۵۶ دامنه وسیع تری از انحرافات از جمله الزامات اطلاعاتی، پاک کردن، حق فراموشی و قابلیت حمل داده را ارائه می دهد. [۲۲].
برنامه های کاربردی هوش مصنوعی موجود در ژنتیک، فرصت های جدیدی را باز می کند. غربالگری جمعیت با استفاده از تشخیص هوش مصنوعی چهره ویژگی های ژنتیکی و سلامتی، ابزاری ارزان و موثر برای شناسایی افراد در معرض خطر با پیشگیری هدفمند یا ارائه مراقبت های بهداشتی بعدی برای صرفه جویی در منابع محدود سیستم مراقبت های بهداشتی خواهد بود. مجری قانون و سازمان‌های اطلاعاتی، در برخی موارد، از قوانین حفاظت از حریم خصوصی مستثنی هستند و ممکن است تقریباً به هر نوع داده‌های شخصی به نفع امنیت ملی دسترسی، پردازش و ترکیب کنند. بنابراین، دیستوپی دنیای اورول در سال ۱۹۸۴ می‌تواند روش‌های نظارتی پیشرفته را که در قرن بیست و یکم به آسانی در دسترس هستند، به‌طور قابل‌توجهی دست کم بگیرد. [۳۸,۳۹,۴۰].
بدون شک، برنامه های کاربردی هوش مصنوعی در ژنتیک می تواند خطرات شدیدی را برای حفظ حریم خصوصی و ناشناس بودن ایجاد کند. کاربردهای ژنتیکی با پشتیبانی هوش مصنوعی می تواند برای تبعیض اقلیت ها بر اساس نژاد، قومیت یا ویژگی های سلامتی مورد استفاده قرار گیرد. پیامدهای اخلاقی کاربردهای ژنتیکی مبتنی بر هوش مصنوعی هنوز تا حدی درک شده است و باید به دقت مورد تجزیه و تحلیل قرار گیرد تا امکان تنظیم قانونی مؤثر فراهم شود. هر مطالعه ای از این دست باید بر اساس اصول اخلاقی خودمختاری، خیرخواهی، عدم سوء استفاده و عدالت اداره شود. [۴۱].

از ملاحظات پزشکی قانونی، استفاده بالقوه فنوتیپ مبتنی بر هوش مصنوعی برای اجرای قانون را نمی توان اغراق کرد. این می‌تواند پرونده‌های افراد گمشده را متحول کند و به بازرسان کمک کند بقایای ناشناس یا عکس‌های افراد گمشده را با اسکن‌های صورت موجود در پایگاه‌های اطلاعاتی موجود مطابقت دهند. علاوه بر این، تشخیص چهره می‌تواند به شناسایی مظنونان از فیلم‌های نظارتی کمک کند، سرنخ‌های ارزشمندی را ارائه می‌کند و به طور بالقوه حتی امکان شناسایی بر اساس نشانگرهای ژنتیکی استخراج‌شده از طریق هوش مصنوعی را فراهم می‌کند. با این حال، ملاحظات اخلاقی در این حوزه بسیار مهم است. پرسش‌های مربوط به رضایت، دقت در شناسایی مظنون و احتمال سوگیری‌هایی که می‌تواند منجر به محکومیت‌های نادرست شود، باید با دقت بررسی شود تا از اجرای مسئولانه چنین فناوری‌های قدرتمندی اطمینان حاصل شود.

غربالگری در سطح جمعیت برای اختلالات ژنتیکی بدون نیاز به نمونه های بیولوژیکی با فناوری های موجود مانند Face2Gene امکان پذیر است. [۱۴,۱۵]. این نتیجه گیری هم برای مطالعات اپیدمیولوژیک و هم برای مطالعات خطر فردی اعمال می شود. توسعه و استفاده از چنین فناوری های پیشرفته ای با محدودیت های قانونی قابل توجهی مواجه است، به ویژه در چشم انداز اتحادیه اروپا که به شدت تنظیم شده است. AI برای مطالعات پیشنهادی ممکن است، در کاربردهای خاص، نیاز به گواهینامه به عنوان یک دستگاه پزشکی داشته باشد و در نهایت نیز مشمول مقررات قانون هوش مصنوعی، مصوب ۱۳ مارس ۲۰۲۴ توسط پارلمان اروپا خواهد بود. قانون هوش مصنوعی محیط کنترل‌شده‌ای را برای جعبه‌های ایمنی نظارتی هوش مصنوعی فراهم می‌کند که توسعه، آزمایش و اعتبارسنجی سیستم‌های هوش مصنوعی نوآورانه را برای مدت محدودی قبل از عرضه در بازار یا به خدمت گرفتن بر اساس یک برنامه خاص تسهیل می‌کند (ماده ۵۷ AI). عمل کنید). شایان ذکر است که ماده ۵۹ قانون هوش مصنوعی پردازش داده های شخصی را که به طور قانونی برای اهداف دیگر در sandbox برای توسعه و آزمایش برخی از سیستم های هوش مصنوعی نوآورانه از جمله در زمینه ایمنی عمومی و بهداشت عمومی از جمله پیشگیری، کنترل و درمان بیماری [۲۴,۴۲].

قانون حفظ حریم خصوصی اتحادیه اروپا موانع مهم دیگری (یا پادمان‌ها، بسته به دیدگاه) را معرفی می‌کند، اما با پیش‌نویسی مناسب قوانین خاص، چنین مطالعاتی در نهایت می‌تواند انجام شود.

هوش مصنوعی به کار رفته در مجموعه داده های بزرگ مشتق شده از پایگاه های داده NID ممکن است داده های اپیدمیولوژیک بی سابقه ای در مورد بیماری های ژنتیکی و توسعه آنها در طول زمان ایجاد کند. مقایسه داده‌های به‌دست‌آمده از منابع حاضر و داده‌هایی که ممکن است با مطالعات پیشنهادی به‌دست آیند، ممکن است منجر به کشف مغایرت‌ها شود. در چنین مواردی ممکن است تجزیه و تحلیل بیشتری انجام شود. با داده های NID در مورد خویشاوندی، بیماری های ژنتیکی ممکن است در طول نسل ها ردیابی شوند، که می تواند اطلاعات ارزشمندی از نقطه نظر بهداشت عمومی به ارمغان بیاورد.

با این حال، الگوریتم هوش مصنوعی فقط به اندازه مجموعه داده های آموزشی آن خوب است – و این خطر وجود دارد، به خصوص در مواردی که اختلالات نادر فقط بر تعداد کمی از افراد تأثیر می گذارد. موارد متعددی وجود دارد که ترکیب مجموعه داده های نامتعادل به طور ناخواسته هوش مصنوعی سوگیری ایجاد می کند [۳۰]. یک مطالعه در سال ۲۰۲۱ در مورد عملکرد دو مدل پیش‌بینی مرگ ناشی از خودکشی پس از ملاقات‌های سلامت روان، خطر خودکشی را برای بازدید از بیماران سفیدپوست، اسپانیایی تبار و آسیایی به‌طور دقیق پیش‌بینی کرد، اما عملکرد برای بازدید از بیماران و بیماران بومی سیاه‌پوست و هندی آمریکایی/آلاسکا ضعیف بود. بدون نژاد/قومیت گزارش شده است [۴۳,۴۴]. مجموعه داده‌های آموزشی که عمدتاً چهره‌های قفقازی را شامل می‌شود، همچنان یک نگرانی است. یک مطالعه در سال ۲۰۱۷ بر روی کودکان دارای ناتوانی ذهنی نشان داد که در حالی که میزان تشخیص Face2Gene برای نشانگان داون ۸۰٪ در میان کودکان سفید پوست بلژیکی بود، این میزان برای کودکان سیاه پوست کنگو فقط ۳۷٪ بود. [۴۵]. دقت این برنامه اندکی بهبود یافته است زیرا متخصصان پزشکی بیشتری عکس های بیمار را در برنامه آپلود می کنند. در حال حاضر بیش از ۲۰۰۰۰۰ تصویر در پایگاه داده FDNA وجود دارد [۱۴].

صرف امکان انجام مطالعات لزوماً به این معنا نیست که چنین مطالعاتی بدون بحث بیشتر اجرا شوند. در حالی که موارد استفاده بالقوه مفید قابل توجهی را ارائه کردیم، در نظر گرفتن جنبه های اخلاقی در آینده ضروری خواهد بود. یکی از این معضلات اخلاقی این است که آیا فردی که ناخواسته ناقل برخی از اختلالات ژنتیکی است می‌خواهد اطلاعاتی در مورد وضعیت ناقل خود کسب کند یا خیر. به نظر می‌رسد با ارائه اطلاعات اولیه مناسب و رضایت آگاهانه که به درستی به دست آمده است، چنین معضلی به راحتی قابل حل است. اما ممکن است چندین استدلال بر خلاف آن وجود داشته باشد.

قدرت تحول هوش مصنوعی فراتر از بیماری های ژنتیکی است. انتشار اخیر در علوم قانونی توسط براون ۲۰۲۳ [۴۶] کاربردهای هوش مصنوعی در سایر حوزه های پزشکی قانونی را برجسته کرد. در این مقاله، هوش مصنوعی به عنوان راه حلی برای مناقشات ماری جوانا از جمله پزشکی قانونی سوء استفاده در نظر گرفته شده است. این مقاله به طور مشابه جنبه‌های چالش‌های قانونی و اخلاقی را مورد بحث قرار می‌دهد (به عنوان مثال، نگرانی‌ها در مورد دقت، تعصب بر تعقیب و نیاز به استانداردهای دقیق). ما با نیاز به دستورالعمل‌ها و مقررات اخلاقی قوی که بر کاربردهای خلاقانه هوش مصنوعی در سراسر چشم‌انداز پزشکی قانونی حاکم است، موافقیم. نویسندگان این ایده‌ها را در پیش‌چاپ اولیه‌شان مورد بحث قرار داده‌اند – توسط Kováč و همکاران. (۲۰۲۳) – فنوتیپ کردن بیماری های ژنتیکی از طریق هوش مصنوعی استفاده از مجموعه داده های بزرگ عکس های صورت ذخیره شده توسط دولت: مفهوم، مسائل قانونی و چالش ها در اتحادیه اروپا [۴۷].

در حالی که برنامه Face2Gene یک پیشرفت قابل توجه در تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص زودهنگام بیماری‌های نادر است، اما محدودیت‌های متعددی نیز دارد. از نظر قانونی، استفاده از برنامه مستلزم پیمایش مقررات پیچیده در مورد حفظ حریم خصوصی داده‌های بیمار و رضایت آن، به‌ویژه در حوزه‌های قضایی مختلف است. از نظر اخلاقی، نگرانی‌هایی در مورد سوگیری‌های بالقوه در الگوریتم‌های هوش مصنوعی وجود دارد که می‌تواند منجر به تشخیص اشتباه یا دسترسی نابرابر به تشخیص دقیق برای جمعیت‌های مختلف شود. از نظر قانونی، ادغام برنامه در عمل بالینی باید استانداردهای دقیقی را تضمین کند تا از سوء استفاده یا اتکای بیش از حد به هوش مصنوعی بدون نظارت کافی انسانی جلوگیری شود. در نهایت، از منظر امنیت سایبری، حفاظت از داده‌های بهداشتی حساس استفاده شده و تولید شده توسط برنامه برای جلوگیری از دسترسی غیرمجاز و نقض داده‌ها که می‌تواند محرمانگی و اعتماد بیمار را به خطر بیندازد، بسیار مهم است. ملاحظات مشابهی در مورد هر عامل هوش مصنوعی به سرعت در حال تکامل که در مراحل دیگر مفهوم ارائه شده از جمله ناشناس سازی داده ها استفاده می شود، اعمال می شود. برای غنی سازی بحث در مورد مسائل اخلاقی و حقوقی پیرامون تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص بیماری های نادر، دو مثال زیر را می توان در نظر گرفت. می توان از آنها برای نشان دادن بهتر مفاهیم و چالش های کاربردی استفاده از تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص بیماری های نادر در مناظر مختلف قانونی و اخلاقی استفاده کرد:


منبع: https://www.mdpi.com/2673-2688/5/3/49

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *