۱٫ معرفی
استفاده از سیستمهای هوش مصنوعی (AI) در زمینه پزشکی نگرانیهای زیادی از جمله نگرانیهای قانونی، اخلاقی، پزشکی قانونی و البته امنیت سایبری را به همراه دارد، زیرا آسیبپذیریهای منحصربهفردی را ارائه میکنند که باید برطرف شوند. دشمنان میتوانند از مدلهای هوش مصنوعی از طریق مسمومیت دادهها، حملات متخاصم یا سرقت مدل سوء استفاده کنند که به طور بالقوه منجر به پیشبینیهای نادرست، نقص در سیستم و نقض دادههای حساس میشود. پیشرفتهای کنونی بر بهبود انعطافپذیری هوش مصنوعی در برابر این تهدیدات متمرکز است، مانند آموزش خصمانه برای بهبود استحکام و تکنیکهای متفاوت حریم خصوصی برای محافظت از دادههای آموزشی. توسعههای آینده احتمالاً شامل ادغام هوش مصنوعی قابل توضیح (XAI) برای افزایش شفافیت مدل و کمک به تشخیص ناهنجاریها میشود. این امر در پزشکی و پزشکی قانونی نیز اهمیت ویژه ای دارد. علاوه بر این، توسعه رمزگذاری همومورفیک می تواند پردازش امن داده های حساس را در مدل های هوش مصنوعی بدون رمزگشایی امکان پذیر کند. امنیت سایبری و هوش مصنوعی به شکلی وابسته به تکامل خود ادامه خواهند داد و نیاز به نوآوری مستمر برای اطمینان از اجرای ایمن و مسئولانه هوش مصنوعی را افزایش خواهند داد. ظهور کلان داده ها، از جمله اسکن صورت دو بعدی و سه بعدی جمع آوری شده توسط دولت ها، فرصت های جدیدی را برای تشخیص زودهنگام بیماری های ژنتیکی نادر با استفاده از هوش مصنوعی باز کرده است. فنوتیپ به کمک هوش مصنوعی پتانسیل ارزیابی های ژنتیکی جامع و دقیق را ارائه می دهد که به طور بالقوه تحولی در مراقبت های بهداشتی ایجاد می کند. با این حال، این رویکرد نگرانی های اخلاقی و قانونی قابل توجهی را در مورد حریم خصوصی شهروندان و احتمال سوء استفاده از دولت ایجاد می کند. پیمایش در این چشم انداز پیچیده نیازمند تعادل ظریفی بین حفاظت از حریم خصوصی افراد و استفاده از قدرت تحول آفرین هوش مصنوعی برای سلامت عمومی است. این مقاله به بررسی مفهوم، روشهای بالقوه و محدودیتهای قانونی فنوتیپسازی مبتنی بر هوش مصنوعی در اتحادیه اروپا (EU) میپردازد. این مقاله پیامدهای اخلاقی و قانونی استفاده از هوش مصنوعی برای شناسایی بیماریهای ژنتیکی نادر از عکسهای صورت را در نظر میگیرد و ضمن پرداختن به خطرات مرتبط، مزایای بالقوه را برجسته میکند. پتانسیل الگوریتمهای هوش مصنوعی، مانند اپلیکیشن Face2Gene، برای بررسی سیستماتیک مجموعه دادههای دولتی بزرگ از ویژگیهای چهره در طول زمان، نویدبخش سلامت عمومی است. با این حال، این رویکرد باید با توجه به پیامدهای عمیق آن برای حریم خصوصی افراد و مرزهای اخلاقی نظارت دولت، به دقت مورد توجه قرار گیرد. این مقاله مروری جامع از فنوتیپ مبتنی بر هوش مصنوعی برای تشخیص زودهنگام بیماریهای ژنتیکی ارائه میکند، و بر نیاز به یک رویکرد متعادل که از حقوق فردی محافظت میکند و در عین حال از قدرت تغییردهنده هوش مصنوعی برای سلامت عمومی استفاده میکند، تاکید میکند.
چنین پایگاههایی ممکن است در نهایت به عنوان منابع داده برای غربالگری ژنتیکی جمعیت مورد استفاده قرار گیرند. تا آوریل ۲۰۲۴ چنین پروژه ای به طور عمومی شناخته نشده است. بنابراین، ما در مورد قابلیت غربالگری ژنتیکی در مقیاس بزرگ با استفاده از مجموعه داده های دولتی در چارچوب قانونی اتحادیه اروپا بحث می کنیم و در عین حال محدودیت ها و حفاظت از حریم خصوصی را پیشنهاد می کنیم.
هدف این مرور داستانی ترسیم و پل زدن جنبههای بینرشتهای حول موضوع اصلی خطرات، پتانسیل و پیامدهای استفاده از هوش مصنوعی برای غربالگری پایگاههای اطلاعاتی بزرگ تصویر صورت دولتی برای تشخیص زودهنگام بیماریهای ژنتیکی نادر است. این نشان دهنده یک پیوند چند رشته ای بین فناوری های مبتنی بر هوش مصنوعی در زمینه های زیر است:
-
پزشکی، به ویژه ژنتیک؛
-
فناوری، با تمرکز بر مدلهای پیشرفته هوش مصنوعی برای تجزیه و تحلیل چهره؛
-
قانون، با تمرکز بر قوانین حفظ حریم خصوصی (به عنوان مثال، GDPR).
-
اخلاق، به عنوان مثال، ملاحظات اخلاقی در مورد استفاده از داده های شهروندان.
-
پزشکی قانونی در شناسایی افراد مفقود و مظنون در چارچوب قانونی؛
-
امنیت سایبری در پرداختن به خطرات امنیتی ناشی از دست زدن به داده های بسیار حساس چهره و ژنتیکی.
اهداف فرعی این مقاله به شرح زیر است:
- –
-
افزایش آگاهی: پتانسیل تحول آفرین هوش مصنوعی را در مراقبت های بهداشتی، به ویژه برای بیماری های نادری که تشخیص زودهنگام در آنها حیاتی است، برجسته کنید.
- –
-
جرقه بحث اخلاقی: برانگیختن بحث در مورد مرزهای اخلاقی استفاده از داده های دولتی، با تأکید بر حق افراد برای حفظ حریم خصوصی در مقابل مزایای بالقوه سلامت عمومی.
- –
-
اطلاع رسانی به سیاستگذاران: ارائه بینش برای کمک به سیاستگذاران برای ایجاد قوانین مسئول در مورد استفاده از هوش مصنوعی برای غربالگری ژنتیکی در قوانین حریم خصوصی موجود.
- –
-
برجسته کردن خطرات امنیت سایبری: ارائه اطلاعات در مورد آسیب پذیری های خاص مرتبط با تجزیه و تحلیل ژنتیکی به کمک هوش مصنوعی و مدیریت مقادیر زیادی از داده های هوش مصنوعی، که نیاز به اقدامات امنیتی قوی را برجسته می کند.
- –
-
کاوش در کاربردهای پزشکی قانونی: گفتمانی را در مورد ملاحظات بالقوه و اخلاقی استفاده از ابزارهای تحلیل چهره هوش مصنوعی در پزشکی قانونی باز کنید.
- –
-
تحریک تحقیقات بیشتر: شکافهای موجود در دانش و فناوری فعلی را شناسایی کنید و محققان را برای رسیدگی به محدودیتها، سوگیریها و معضلات اخلاقی در این زمینه به چالش بکشید.
۲٫ مفهوم و روش
۲٫۱٫ مفهوم
این مرور داستانی با هدف بررسی یک مفهوم پیچیده با مفاهیم چند رشته ای است. تعریف روایت و روش شناسی در این اثر فکری، اساس یافته ها و تفاسیر است. هنگامی که در زندگی واقعی اعمال می شود، در یک موقعیت خیالی با فرصتی بی سابقه برای تشخیص یک بیماری نادر در شما یا فرزندتان در مراحل اولیه و در نتیجه جلوگیری از عوارض زودرس سلامتی و حتی مرگ از طریق مداخله درمانی اولیه، انتخاب ساده ای به نظر می رسد. با این حال، خطرات اخلاقی، حریم خصوصی و امنیت سایبری با استفاده از هوش مصنوعی – پردازش داده های بزرگ دولتی – با پیامدهای قابل توجه اورولی وجود دارد.
این بررسی روایتی روایتی را با تمرکز بر پتانسیل تحولآفرین تحلیل چهره هوش مصنوعی در تشخیص بیماریهای نادر ایجاد میکند و در عین حال ملاحظات پیچیده حقوقی، اخلاقی، پزشکی قانونی و امنیت سایبری را برجسته میکند. موضوعات کلیدی طرح کلی آن به شرح زیر است:
-
پیشرفت های تکنولوژیکی که امکان تشخیص زودهنگام را فراهم می کند.
-
دیدگاه های متناقض در مورد حریم خصوصی در عصر هوش مصنوعی؛
-
پتانسیل برای پزشکی قانونی مبتنی بر هوش مصنوعی؛
-
ضرورت حفاظت از امنیت سایبری در این حوزه.
۲٫۲٫ طرح کلی
رویکرد گام به گام تحت پوشش این بررسی روایی در زیر ساختار یافته است.
۲٫۲٫۱٫ اکتساب داده ها و پیش پردازش
پایگاه های داده منبع: منشاء داده های تصویر چهره. این شامل موارد زیر است:
-
پایگاههای اطلاعاتی شناسههای ملی دولتی (حصول اطمینان از رعایت تمامی الزامات قانونی و حریم خصوصی).
-
پایگاههای اطلاعاتی تصاویر در دسترس عموم با مجوزها و رضایت مناسب (فقط در صورتی که مطالعه فراتر از پایگاههای اطلاعاتی ID باشد).
پیش پردازش داده ها: مراحل آماده سازی تصاویر برای تجزیه و تحلیل این شامل موارد زیر است:
-
عادی سازی: استاندارد کردن اندازه، وضوح و جهت تصویر.
-
تشخیص و استخراج چهره: مکان یابی و برش چهره در تصاویر.
-
ناشناس سازی و/یا نام مستعار: اجرای تکنیک های مناسب برای محافظت از هویت فردی در راستای مقررات اخلاقی و حریم خصوصی که در بخش حقوقی این مقاله بحث شده است.
۲٫۲٫۲٫ توسعه و انتخاب مدل هوش مصنوعی
-
انتخاب الگوریتم هوش مصنوعی: الگوریتم های هوش مصنوعی برای فنوتیپ چهره:
-
جنبههای قوت، خطرات و محدودیتهای مدلهای یادگیری عمیق مانند شبکههای عصبی کانولوشنال (CNN) در این زمینه؛
-
ملاحظات الگوریتم های تجاری موجود مانند Face2Gene با تجزیه و تحلیل خطرات و محدودیت های آنها و سازگاری های لازم.
-
-
مجموعه داده های آموزشی و اعتبار سنجی: طراحی مجموعه داده مورد استفاده برای آموزش سیستم هوش مصنوعی:
-
منبع تصاویر برچسب گذاری شده (تشخیص بیماری های نادر شناخته شده با عکس های مربوطه)؛
-
استراتژی های تقسیم داده ها (آموزش، اعتبارسنجی، آزمایش)؛
-
شناسایی سوگیریهای بالقوه و روشهای مورد استفاده برای کاهش.
-
-
معیارهای ارزیابی: موارد زیر برای ارزیابی اثربخشی مدل هوش مصنوعی استفاده می شود:
-
دقت، دقت، یادآوری، حساسیت و ویژگی برای شرایط ژنتیکی مختلف؛
-
استفاده از منحنی های مشخصه عملکرد گیرنده و ناحیه زیر منحنی را برای ارزیابی عملکرد کلی در نظر بگیرید.
-
۲٫۲٫۳٫ پیاده سازی هوش مصنوعی و تجزیه و تحلیل داده ها
۲٫۲٫۴٫ ملاحظات اخلاقی، قانونی و مقرراتی
-
رضایت آگاهانه: در نظر گرفتن یک مدل انتخاب کردن یا انصراف برای اعمال و مکانیسمهای موجود برای محافظت از انتخاب فردی و حریم خصوصی؛
-
شفافیت: اطلاع رسانی یافته ها و پیامدهای آنها به مردم و ارائه دهندگان مراقبت های بهداشتی؛
-
رعایت مقررات: اطمینان حاصل کنید که مفهوم کاملاً با موارد زیر مطابقت دارد:
-
GDPR در زمینه اتحادیه اروپا، و همچنین سایر قوانین ملی مرتبط؛
-
مقررات دستگاه های پزشکی (اگر سیستم هوش مصنوعی به این صورت طبقه بندی شده باشد)؛
-
مقررات در حال تحول خاص برای هوش مصنوعی، مانند قانون هوش مصنوعی اتحادیه اروپا.
-
۲٫۲٫۵٫ کاربردهای پزشکی قانونی
-
شناسایی شخصی: پروتکل های گردش کار در مورد اینکه چگونه سیستم هوش مصنوعی می تواند در موارد زیر کمک کند:
-
فنوتیپ کردن: پتانسیل برای پیشبینی صفات از تصاویر مربوط به پزشکی قانونی (سن، اصل و نسب، و غیره) – اذعان به محدودیتها و نیاز به اعتبارسنجی.
۲٫۲٫۶٫ محدودیت ها و مسیرهای آینده
-
محدودیت ها را بپذیرید: تعصبات مجموعه داده، خطاهای هوش مصنوعی و نیاز به تحقیقات بیشتر برای بهینه سازی دقت و رسیدگی به شرایط نادر؛
-
دستورالعمل های آینده: پیشنهاد راه هایی مانند موارد زیر:
-
گسترش مجموعه داده های تصویری برای جامعیت.
-
تحقیق در مورد تولید تصویر مصنوعی برای تقویت داده ها.
-
ادغام با توالی ژنتیکی برای دقت بالاتر.
-
استفاده از تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی در برنامه های پزشکی قانونی چندین معضل اخلاقی خاص را ارائه می دهد. حفظ حریم خصوصی و رضایت از نگرانی های اصلی است، زیرا افراد اغلب بدون اطلاع یا رضایت آنها مورد تجزیه و تحلیل قرار می گیرند. سوگیری در شناسایی مجرمانه میتواند منجر به رفتار نابرابر با گروههای جمعیتی مختلف شود که منجر به اتهامات یا محکومیتهای نادرست، به ویژه جوامع اقلیت میشود. تضمین روند عادلانه و محاکمه عادلانه با الگوریتمهای هوش مصنوعی غیرشفاف چالش برانگیز است، زیرا متهمان باید بتوانند شواهد علیه خود را به چالش بکشند. علاوه بر این، خطر سوء استفاده از فناوری هوش مصنوعی برای نظارت غیرمجاز یا هدفگیری سیاسی وجود دارد که نگرانیهای اخلاقی و آزادی مدنی قابل توجهی را ایجاد میکند.
۲٫۳٫ مدل مفهومی سیستم
برای درک کامل پتانسیل تحول آفرین و پیامدهای تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص بیماری های نادر، در نظر گرفتن یک مدل سیستم جامع ضروری است. این مدل ورودیها، فرآیندها و خروجیهای مختلفی را ادغام میکند که با مضامین اصلی این مقاله از ملاحظات حقوقی، اخلاقی، پزشکی قانونی و امنیت سایبری هماهنگ است. با ترسیم عناصر به هم پیوسته و گردش کار، میتوانیم نشان دهیم که چگونه فناوری هوش مصنوعی میتواند به طور مؤثر و مسئولانه در سناریوهای دنیای واقعی پیادهسازی شود، و اطمینان حاصل شود که مزایای تشخیص زودهنگام بیماری در عین حفظ حقوق فردی و یکپارچگی دادهها محقق میشود. بخش زیر این مؤلفهها را به تفصیل تشریح میکند، و یک چارچوب روشن ارائه میکند که از رویکرد بینرشتهای مورد حمایت در سراسر این مقاله پشتیبانی میکند.
ورودی ها:
-
پایگاه داده تصاویر چهره که توسط دولت نگهداری می شود.
-
مخازن دانش در مورد بیماری های ژنتیکی و فنوتیپ های صورت مربوطه؛
-
قوانین و مقررات قابل اجرا (مانند GDPR، قانون هوش مصنوعی و غیره)؛
-
دستورالعمل های اخلاقی؛
-
استانداردها و پروتکل های امنیت سایبری
اجزای اصلی سیستم:
-
الگوریتم های هوش مصنوعی طراحی شده برای تجزیه و تحلیل تصویر چهره؛
-
فرآیندهای ناشناس سازی و نام مستعار.
-
مکانیسم های ذخیره سازی داده و کنترل دسترسی؛
-
چارچوب های تصمیم گیری (به عنوان مثال، شناسایی موارد برای ارزیابی بیشتر).
-
کانال های ارتباطی (به عنوان مثال، انتشار نتایج برای مداخلات بهداشت عمومی).
خروجی ها:
-
داده های مربوط به شیوع بیماری های ژنتیکی نادر؛
-
شناسایی افراد در معرض خطر؛
-
یافته های بالقوه برای کاربردهای پزشکی قانونی؛
-
توصیه های سیاستی برای قانونگذاران؛
-
بینش برای توسعه دهندگان در بخش های فناوری و امنیت.
۲٫۴٫ مدل سیستم مبتنی بر گردش کار
برای عملیاتی کردن تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص بیماریهای نادر، ایجاد یک گردش کار دقیق که جریان دادهها و فرآیندهای تصمیمگیری را مشخص میکند، بسیار مهم است. این بخش مبتنی بر چارچوب مفهومی است که قبلاً مورد بحث قرار گرفت و آن را به یک مدل عملی و گام به گام ترجمه میکند. با انجام این کار، ما می توانیم اطمینان حاصل کنیم که هر مرحله از سیستم – از اکتساب داده تا ذخیره سازی ایمن و تولید خروجی – به استانداردهای قانونی، اخلاقی، پزشکی قانونی و امنیت سایبری که در این مقاله برجسته شده است، پایبند است. مدل گردش کار زیر یک نقشه راه روشن برای پیاده سازی راه حل های مبتنی بر هوش مصنوعی به شیوه ای ارائه می دهد که مزایای سلامت عمومی را به حداکثر می رساند و در عین حال خطرات برای حریم خصوصی و امنیت داده ها را به حداقل می رساند.
-
جمعآوری و پیشپردازش تصویر: تصاویر از پایگاههای اطلاعاتی امن بهدست میآیند و تضمین میکنند که تمامی الزامات قانونی و حریم خصوصی رعایت شده است. سپس این تصاویر از نظر اندازه، وضوح و جهت گیری استاندارد می شوند تا برای تجزیه و تحلیل هوش مصنوعی آماده شوند.
-
ناشناس سازی/نام مستعار: تکنیک هایی مانند ناشناس سازی و نام مستعار برای محافظت از هویت افراد با رعایت مقررات اخلاقی و حفظ حریم خصوصی در تصاویر اعمال می شود.
-
تجزیه و تحلیل هوش مصنوعی: مدل AI تصاویر را با استفاده از الگوریتم های پیشرفته پردازش می کند تا نشانگرهای فنوتیپی بالقوه را که نشان دهنده بیماری های ژنتیکی نادر هستند شناسایی کند.
-
تفسیر داده ها و ارزیابی ریسک: نتایج تولید شده توسط مدل هوش مصنوعی با در نظر گرفتن خطرات بالقوه و پیامدهای اخلاقی به دقت ارزیابی می شود. این مرحله تضمین می کند که تجزیه و تحلیل دقیق است و هر گونه ریسک شناسایی شده به درستی مدیریت می شود.
-
تصمیم گیری:
-
شاخه مطالعه شیوع: دادههای ناشناس برای کمک به آمارهای سطح جمعیت استفاده میشود و به ترسیم شیوع بیماریهای ژنتیکی نادر بدون افشای هویت فردی کمک میکند.
-
شاخه ریسک فردی: با وجود پادمانهای کافی و رضایت آگاهانه، ممکن است با افرادی که توسط تجزیه و تحلیل هوش مصنوعی بهعنوان در معرض خطر بالقوه علامتگذاری شدهاند، برای ارزیابی بیشتر یا اقدامات پیشگیرانه تماس گرفته شود.
-
-
ذخیره سازی امن: همه داده ها، از جمله تصاویر و نتایج تجزیه و تحلیل، با کنترل های دسترسی دقیق و اقدامات امنیتی سایبری قوی برای جلوگیری از دسترسی های غیرمجاز و نقض داده ها، به صورت ایمن ذخیره می شوند.
-
خروجی و توصیهها: یافتههای حاصل از تجزیه و تحلیل هوش مصنوعی به بینشها و توصیههای عملی تبدیل میشوند. این خروجیها را میتوان برای اهداف مختلف، از جمله مداخلات بهداشت عمومی، سیاستگذاری، و کاربردهای پزشکی قانونی مورد استفاده قرار داد تا اطمینان حاصل شود که دادهها در عین حفظ حریم خصوصی و امنیت بهطور مؤثر مورد استفاده قرار میگیرند.
چالش های عملی ویژه برنامه های پزشکی قانونی
پیادهسازی هوش مصنوعی در زمینههای پزشکی قانونی گردشهای کاری توصیفشده شامل چندین چالش عملی است. کیفیت و یکپارچگی داده ها بسیار مهم است، زیرا تحقیقات پزشکی قانونی اغلب با داده های با کیفیت پایین یا جزئی سروکار دارند. اطمینان از اینکه سیستمهای هوش مصنوعی میتوانند چنین دادههایی را با دقت پردازش کنند و در عین حال یکپارچگی آنها را حفظ کنند، ضروری است. قابلیت همکاری با سیستم های مجری قانون موجود مستلزم استانداردسازی و سازگاری در بسترها و حوزه های قضایی مختلف است. قابل قبول بودن قانونی شواهد مشتق از هوش مصنوعی در دادگاه مستلزم نشان دادن قابلیت اطمینان و اعتبار روش های استفاده شده از هوش مصنوعی است. ارائه آموزش کافی و پشتیبانی مداوم به کارکنان مجری قانون برای استفاده موثر از ابزارهای هوش مصنوعی نیز بسیار مهم است. در نهایت، ایجاد نظارت اخلاقی قوی و مکانیسمهای حاکمیتی برای نظارت بر سیستمهای هوش مصنوعی و رسیدگی به هر گونه مسائل اخلاقی یا قانونی در حال ظهور برای اجرای مسئولانه در کار پزشکی قانونی ضروری است.
۲٫۵٫ روش بررسی
این مرور داستانی دانش موجود را در مورد استفاده از تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص بیماریهای نادر، با تمرکز بر پیامدهای قانونی، پزشکی، اخلاقی، پزشکی قانونی و امنیت سایبری ترکیب میکند. جستجوی جامع با نمایندگی کارشناسان در این زمینهها (پزشکی، قانون، پزشکی قانونی، اپیدمیولوژی، امنیت سایبری و موارد دیگر) و در پایگاههای اطلاعاتی مرتبط مانند PubMed، Web of Science و Google Scholar با استفاده از عبارات جستجو از جمله “تحلیل چهره هوش مصنوعی” انجام شد. “بیماری های نادر”، “پایگاه های اطلاعاتی دولتی”، “حریم خصوصی”، “اخلاق”، “پزشکی قانونی” و “امنیت سایبری”. منابع شامل مقالات پژوهشی بررسی شده، گزارشهای سازمانهای دولتی و غیردولتی، تحلیلهای حقوقی و نشریات خبری بود. هیچ محدودیت تاریخی برای ثبت طبیعت به سرعت در حال تکامل این میدان اعمال نشد. یافتههای ادبیات جمعآوریشده به صورت موضوعی برای شناسایی مفاهیم کلیدی، فرصتها، چالشها و زمینههایی برای کاوش بیشتر در این حوزه چند رشتهای ترکیب شدند.
ما امکان اجرای یک غربالگری جامع جمعیت را با گزینه ای برای اتخاذ اقدامات پیشگیرانه برای تضمین حریم خصوصی شهروندان ارائه می دهیم. ما دو سناریو برای استفاده مشترک می بینیم.
گزینه اول با یک راه حل تکنولوژیکی نشان داده می شود که همه شناسایی افراد را از خروجی الگوریتم هوش مصنوعی حذف می کند، اما اطلاعات اپیدمیولوژیک در مورد شیوع بیماری های ژنتیکی خاص شناسایی شده در گروه های سنی و جنسی خاص را ارائه می دهد. این سناریو از حریم خصوصی افراد محافظت می کند و در عین حال مزایای سلامت عمومی را برای جامعه فراهم می کند.
نتیجه این سناریو داده های شیوع در سطح جمعیت بدون امکان شناسایی فرد مبتلا به یک بیماری ژنتیکی خاص است. نقشه برداری از شیوع واقعی جمعیت بیماری های ژنتیکی خاص از ارزش بالایی برخوردار است زیرا امکان ارزیابی اعتبار و دقت غربالگری معمول از تجزیه و تحلیل نمونه های بیولوژیکی را فراهم می کند.
گزینه دوم غربالگری جمعیت برای اختلالات ژنتیکی برای اتخاذ اقدامات پیشگیرانه برای افراد در معرض خطر است. در این سناریو، شناسایی در مرحله خاصی از فرآیند ضروری است.
در این سناریو، نام مستعار داده ها برای اطمینان از حریم خصوصی جمعیت غربال شده ضروری است. مقررات (EU) 2016/679 پارلمان اروپا و شورا در ۲۷ آوریل ۲۰۱۶ در مورد حمایت از اشخاص حقیقی در مورد پردازش داده های شخصی و در مورد جابجایی آزادانه این داده ها و لغو دستورالعمل ۹۵/۴۶/ EC (“GDPR”)، بر پردازش داده های شخصی در اتحادیه اروپا نظارت می کند. ماده ۴ (۵) GDPR، نام مستعار را پردازش داده های شخصی تعریف می کند به گونه ای که دیگر نمی توان داده های شخصی را به یک موضوع خاص داده بدون استفاده از اطلاعات اضافی نسبت داد، مشروط بر اینکه این اطلاعات اضافی به طور جداگانه نگهداری شود و موضوع آن باشد. اقدامات فنی و سازمانی برای اطمینان از اینکه داده های شخصی به یک شخص حقیقی شناسایی شده یا قابل شناسایی نسبت داده نمی شود. برای نام مستعار پایگاه داده هدف، هویت مرتبط با عکس باید با نوعی کد (به عنوان مثال، حروف عددی) جایگزین شود. هویت و کد اختصاص داده شده را می توان در یک پایگاه داده جداگانه با دسترسی ایمن نگهداری کرد، که امکان شناسایی افراد در معرض خطر را در صورت امکان و اقدامات پیشگیرانه فراهم می کند.
۲٫۶٫ محدودیت ها و ملاحظات حقوقی عمومی
مفهوم ارائه شده، در حالی که در حال حاضر از نظر فنی امکان پذیر است [with available technologies and means such as Face2Gene]، بدون در نظر گرفتن قوانین قابل اجرا قابل اجرا نیست. منشور حقوق اساسی اتحادیه اروپا حفاظت از داده های شخصی را به عنوان یکی از آزادی های اساسی به رسمیت می شناسد. ماده ۸ منشور مقرر میدارد که دادههای شخصی باید به طور منصفانه برای اهداف مشخص و بر اساس رضایت شخص مربوطه یا سایر مبانی مشروعی که توسط قانون تعیین شده است پردازش شوند. از منظر قانون حفظ حریم خصوصی (به عنوان مثال، GDPR)، عکسهای چهره به عنوان دادههای شخصی در نظر گرفته میشوند، زیرا به یک شخص حقیقی شناسایی شده یا قابل شناسایی مربوط میشوند. با در نظر گرفتن هدف نهایی مطالعه پیشنهادی – شناسایی بیماری ژنریک – عکس باید دادههای مربوط به سلامت در نظر گرفته شود زیرا اطلاعاتی را در مورد وضعیت سلامتی نشان میدهد. تصاویر صورت ممکن است داده های بیومتریک نیز در نظر گرفته شوند. ماده ۴ (۱۳) GDPR داده های ژنتیکی را به عنوان داده های شخصی مربوط به ویژگی های ژنتیکی ارثی یا اکتسابی یک شخص طبیعی تعریف می کند که اطلاعات منحصر به فردی در مورد فیزیولوژی یا سلامت آن شخص طبیعی ارائه می دهد و به ویژه از تجزیه و تحلیل ناشی می شود. نمونه بیولوژیکی از شخص حقیقی مورد نظر. با این حال، بند ۳۴ GDPR خاطرنشان می کند که داده های ژنتیکی ممکن است از “تحلیل عنصر دیگری که امکان به دست آوردن اطلاعات معادل را فراهم می کند” نشات گرفته باشد. بنابراین، در چارچوب هدف مورد نظر، عکس های صورت نیز باید داده های ژنتیکی در نظر گرفته شوند.
به دلیل ماهیت حساس دادههای مربوط به سلامت، بیومتریک و ژنتیک، پردازش دادهها به طور کلی تابع قوانین سختگیرانهتری برای پردازش دادههای شخصی است. باید اشاره کنیم که اگر دادههای شخصی مربوط به سوژههای داده اتحادیه اروپا باشد، GDPR نیز دسترسی فراسرزمینی دارد.
دسترسی به پایگاه های داده NID به شدت تنظیم شده است. چنین داده هایی تا حد امکان دقیق هستند و به طور منظم به روز می شوند. فقط کسری از داده های ذخیره شده در NID برای مطالعه شیوع مورد نیاز است. مجموعه داده های آزمون باید از اصل حداقل سازی داده های GDPR پیروی کند و فقط به اطلاعات ضروری محدود شود. حداقل مجموعه داده باید شامل موارد زیر باشد:
- (آ)
-
عکسها و مکان NUTS 2 فقط برای مطالعه شیوع.
- (ب)
-
عکس ها و کد مستعار اختصاص داده شده برای مطالعات با گزینه ای برای شناسایی افراد در معرض خطر و تسهیل اقدامات پیشگیرانه، با یک پایگاه داده جداگانه که امکان شناسایی در صورت لزوم را فراهم می کند.
ایجاد پایگاه های اطلاعاتی مورد نیاز برای مطالعات شیوع و شناسایی افراد در معرض خطر مستلزم اصلاح قانون NID است.
با این حال، داشتن یک مبنای قانونی مناسب برای مطابقت با مقررات حریم خصوصی اتحادیه اروپا کافی نخواهد بود. چنین مقرراتی احتمالاً مهمترین محدودیت قانونی برای مطالعات مورد نظر خواهد بود، اگرچه سایرین نیز باید در نظر گرفته شوند.
GDPR شامل مجموعه ای از اصول اساسی در ماده ۵ است. یکی از این اصول شفافیت است که مستلزم آن است که اطلاعات مناسب در اختیار افراد قرار گیرد تا از درک آنها از اینکه چه کسی و چرا داده های شخصی را پردازش می کند اطمینان حاصل شود. با یک کمپین اطلاعاتی مناسب، به ویژه در مطالعه انتخابی، این اصل می تواند برآورده شود. اصل دیگر «محدودیت هدف» است که مستلزم آن است که استفادههای ثانویه از دادهها در راستای هدفی باشد که این دادهها در ابتدا برای آن جمعآوری شدهاند. در مورد مورد بحث، این ممکن است تضاد احتمالی ایجاد کند، زیرا حتی یک مطالعه جمعیتی را میتوان با هدف اولیه ناسازگار در نظر گرفت، به دنبال الزامات آزمون سازگاری طبق ماده ۶ (۴) GDPR. از سوی دیگر، پردازش در جهت منافع عمومی یا تحقیقات علمی از معافیت های خاصی برخوردار است که ممکن است به نوبه خود مبانی قانونی مناسب را تشکیل دهد. ما اصول «حداقلسازی دادهها»، «دقت» و «صداقت و محرمانگی» را بهعنوان مانع مهمی در نظر نمیگیریم، اگرچه باید در هنگام طراحی مطالعه (مطالعه) بهدقت با جزئیات در نظر گرفته شوند.
هر مطالعه (اعم از شیوع، خطر فردی، یا هر مطالعه دیگری در محدوده این مقاله) باید مشمول ارزیابی دقیق خطرات باشد. بهویژه، ارزیابی تأثیر حفاظت از دادهها باید انجام شود، که ضرورت و تناسب پردازش را با هدف آن و حقوق سوژههای داده، از جمله اقدامات مربوط به امنیت و کاهش خطرات شناسایی شده، ارزیابی میکند.
ارزیابی خاص حتی ممکن است خطرات غیرمنتظره ای را به همراه داشته باشد، زیرا کاربرد GDPR در برخی موارد به تفاسیر افراطی رسیده است که ممکن است بر پردازش داده ها تأثیر منفی بگذارد، که تمرکز این مقاله است. رای دیوان دادگستری اتحادیه اروپا در پرونده C-184/20 OT علیه Vyriausioji tarnybinės etikos komisiya تصریح کرد که ماده ۹ GDPR بیان می کند که داده های شخصی حساس باید به طور گسترده به عنوان حتی داده هایی که می توانند به طور غیرمستقیم تمایلات جنسی را فاش کنند تفسیر شوند. یک شخص حقیقی به عنوان داده های شخصی حساس در نظر گرفته می شود. پس از این قضاوت، به نظر میرسد که حتی هرگونه پردازش اولیه عکسها برای به دست آوردن اطلاعات غیرمستقیم مربوط به ژنها یا بیماریهای ژنتیکی باید از همان ابتدا دادههای حساس در نظر گرفته شود.
هنوز مشخص نیست که آیا این تفسیر منجر به پردازش اطلاعات مشابه به عنوان داده های شخصی حساس می شود یا خیر. چنین تفسیر افراطی ممکن است استفاده از رسانه های اجتماعی یا حتی دوربین مدار بسته را در فضاهای عمومی غیرممکن کند و احتمالاً منجر به دسته بندی مجدد طیف گسترده ای از داده های شخصی “عادی” (مانند عکس های خانوادگی) به داده های ژنتیکی حساس می شود. برای پردازش مورد بحث در این مقاله، کافی است بگوییم که داده های زیربنایی، حتی اگر عکس های ساده باشند، از نقطه اولیه جمع آوری داده های ژنتیکی حساس تلقی می شوند.
هوش مصنوعی که هم برای مطالعه شیوع جمعیت و هم برای مطالعه خطر فردی استفاده می شود، نرم افزاری است که برای تشخیص، پیشگیری، پیش بینی یا پیش آگهی بیماری ژنتیکی طراحی و در نظر گرفته شده است. به این ترتیب، ممکن است تحت تعریف دستگاه پزشکی تحت ماده ۲ (۱) مقررات (EU) 2017/745 پارلمان اروپا و شورای ۵ آوریل ۲۰۱۷ در مورد وسایل پزشکی (MDR) قرار گیرد. در حالی که چنین نرم افزاری فقط برای اهداف تحقیقاتی استفاده می شود، گواهی MDR ممکن است ضروری نباشد. استفاده از همان نرم افزار در یک محیط بالینی یا بهداشت عمومی برای تشخیص بیماری های نادر به گواهی MDR به عنوان یک دستگاه پزشکی کلاس I یا در نهایت از کلاس IIa نیاز دارد.
۲٫۷٫ حفاظت از حریم خصوصی در طراحی مطالعه
موضوع حریم خصوصی شخصی هنگام دسترسی به پایگاههای اطلاعاتی شناسه ملی (NID) برای تحقیق بسیار مهم است. در حالی که رویکرد ما بر ایجاد پایگاههای داده مشتقشده برای حفظ حریم خصوصی تأکید دارد، میتوان در نظر گرفت که حفظ حریم خصوصی به معنای محدود کردن امکان دسترسی حتی به پایگاه داده NID در وهله اول است. مقررات حفظ حریم خصوصی اغلب چنین دسترسی را محدود می کند و تولید داده های مصنوعی و تجزیه و تحلیل جامع را پیچیده می کند. در عمل، حفظ حریم خصوصی مستلزم دستورالعملهای قانونی و اخلاقی دقیق، تکنیکهای پیشرفته ناشناسسازی و دسترسی محدود و نظارت شده به دادهها است. این اقدامات می تواند تجزیه و تحلیل را دشوار کند، اما برای ایجاد تعادل بین حریم خصوصی و نیازهای تحقیقاتی ضروری هستند.
مطالعات مورد نظر نباید بر روی خود داده های NID بلکه بر روی پایگاه های داده ای که به طور خاص از آن ایجاد و مشتق شده اند انجام شود. با توجه به حساسیت پایگاه های داده مطالعه، امنیت و حفظ حریم خصوصی با رویکرد طراحی باید اصل پیشرو باشد. برای به حداقل رساندن نگرانی های امنیتی، دو مجموعه داده جداگانه باید ایجاد شود – یکی برای مطالعه جمعیت و دیگری برای مطالعه ریسک فردی. هر دو مجموعه داده باید تا آنجایی که دستیابی به هدف مطالعه اجازه می دهد، بی نام یا مستعار شوند.
برای به حداقل رساندن خطر به خطر افتادن یا نشت پایگاه داده، اقدامات امنیتی مناسب باید اجرا شود. استفاده از فضای ذخیره سازی ابری یا راه حل های IT برون سپاری شده به طور قابل توجهی خطر نقض امنیت را افزایش می دهد. توجه به این نکته ضروری است که نقض یکپارچگی و محرمانه بودن داده های شخصی، به عنوان یکی از اصول اساسی پردازش داده ها، ممکن است جریمه های اداری قابل توجهی را به دنبال داشته باشد.
علاوه بر این، هرگونه انتقال داده به خارج از کشور مبدا بسیار نامطلوب خواهد بود و به دلیل الزامات بینالمللی انتقال داده که تحت GDPR تعیین شده است، در خارج از منطقه اقتصادی اروپا نیز احتمالاً مشکل ساز خواهد بود. زیرساختهای فناوری اطلاعات اختصاصی که توسط کشورهای عضو اتحادیه اروپا یا آژانسهای اختصاصی آن بهعنوان مقامات بهداشت عمومی یا اپراتورهای ملی سلامت الکترونیک اداره میشوند، احتمالاً بر راهحلهای تجاری موجود ترجیح داده میشوند. همچنین، راهحل اختصاصی هوش مصنوعی باید بر روی چنین زیرساختهای اختصاصی اجرا شود، زیرا ارسال دادههای شخصی حساس برای پردازش از طریق اینترنت برای دارنده حق هوش مصنوعی خطر بیشتری را به همراه دارد. دیوان دادگستری اتحادیه اروپا (CJEU) به چنین خطراتی پرداخته است، به عنوان مثال، در حکم Schrems II (کمیسیون حفاظت از داده ها علیه فیس بوک ایرلند و ماکسیمیلیان شرمز، پرونده C-311/18).
قانونی که به مطالعات مورد نظر اجازه می دهد باید محیطی را برای پردازش عادلانه و شفاف مجموعه داده های آزمون ایجاد کند. برای دستیابی به بالاترین استاندارد قابل دستیابی از داده ها و امنیت سایبری، حداقل استانداردهای امنیتی و پادمان های مورد نیاز باید بخش جدایی ناپذیر چنین قوانینی باشند.
۲٫۸٫ جنبه های امنیت سایبری و استراتژی های خاص برای کاهش خطرات
جنبه امنیت سایبری اجرای تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص بیماریهای نادر و کاربردهای پزشکی قانونی به دلیل ماهیت حساس دادههای درگیر حیاتی است. حفاظت از تصاویر چهره و اطلاعات ژنتیکی در برابر دسترسی غیرمجاز و نقض داده ها بسیار مهم است. استراتژیهای خاص برای کاهش این خطرات شامل اجرای روشهای رمزگذاری قوی برای ذخیره و انتقال دادهها و اطمینان از اینکه دادههای حساس هم در حالت استراحت و هم در حین انتقال رمزگذاری میشوند.
یک استراتژی خاص استفاده از رمزگذاری همومورفیک است که امکان پردازش و تجزیه و تحلیل داده ها را بدون نیاز به رمزگشایی فراهم می کند. این تکنیک تضمین میکند که اطلاعات حساس حتی در حین محاسبه، ایمن باقی میمانند و خطر مواجهه را به میزان قابل توجهی کاهش میدهد.
علاوه بر این، استفاده از احراز هویت چند عاملی (MFA) برای دسترسی به پایگاه های داده می تواند یک لایه امنیتی اضافی اضافه کند و خطر دسترسی غیرمجاز را کاهش دهد. ممیزی های امنیت سایبری منظم و ارزیابی آسیب پذیری ها باید برای شناسایی و رفع شکاف های امنیتی احتمالی انجام شود. سیستم های پیشرفته تشخیص تهدید، مانند سیستم های تشخیص نفوذ (IDS) و سیستم های پیشگیری از نفوذ (IPS)، می توانند به شناسایی و کاهش حملات سایبری احتمالی در زمان واقعی کمک کنند.
پیادهسازی تکنیکهای حفظ حریم خصوصی میتواند از دادههای فردی با افزودن نویز به مجموعه داده محافظت کند و استخراج اطلاعات شخصی را دشوارتر کند. اطمینان از کنترل های دسترسی دقیق به طوری که فقط پرسنل مجاز به داده های حساس دسترسی داشته باشند ضروری است. آموزش و آموزش کارکنان در مورد بهترین شیوه های امنیت سایبری می تواند موقعیت امنیتی سازمان را بیشتر تقویت کند.
ادغام این استراتژی ها، به ویژه استفاده از رمزگذاری همومورفیک، می تواند به طور قابل توجهی خطرات مربوط به مدیریت داده های حساس در برنامه های کاربردی مبتنی بر هوش مصنوعی را کاهش دهد و از محرمانه بودن، یکپارچگی و در دسترس بودن داده ها اطمینان حاصل کند.
۳٫ بحث
از ملاحظات پزشکی قانونی، استفاده بالقوه فنوتیپ مبتنی بر هوش مصنوعی برای اجرای قانون را نمی توان اغراق کرد. این میتواند پروندههای افراد گمشده را متحول کند و به بازرسان کمک کند بقایای ناشناس یا عکسهای افراد گمشده را با اسکنهای صورت موجود در پایگاههای اطلاعاتی موجود مطابقت دهند. علاوه بر این، تشخیص چهره میتواند به شناسایی مظنونان از فیلمهای نظارتی کمک کند، سرنخهای ارزشمندی را ارائه میکند و به طور بالقوه حتی امکان شناسایی بر اساس نشانگرهای ژنتیکی استخراجشده از طریق هوش مصنوعی را فراهم میکند. با این حال، ملاحظات اخلاقی در این حوزه بسیار مهم است. پرسشهای مربوط به رضایت، دقت در شناسایی مظنون و احتمال سوگیریهایی که میتواند منجر به محکومیتهای نادرست شود، باید با دقت بررسی شود تا از اجرای مسئولانه چنین فناوریهای قدرتمندی اطمینان حاصل شود.
قانون حفظ حریم خصوصی اتحادیه اروپا موانع مهم دیگری (یا پادمانها، بسته به دیدگاه) را معرفی میکند، اما با پیشنویسی مناسب قوانین خاص، چنین مطالعاتی در نهایت میتواند انجام شود.
هوش مصنوعی به کار رفته در مجموعه داده های بزرگ مشتق شده از پایگاه های داده NID ممکن است داده های اپیدمیولوژیک بی سابقه ای در مورد بیماری های ژنتیکی و توسعه آنها در طول زمان ایجاد کند. مقایسه دادههای بهدستآمده از منابع حاضر و دادههایی که ممکن است با مطالعات پیشنهادی بهدست آیند، ممکن است منجر به کشف مغایرتها شود. در چنین مواردی ممکن است تجزیه و تحلیل بیشتری انجام شود. با داده های NID در مورد خویشاوندی، بیماری های ژنتیکی ممکن است در طول نسل ها ردیابی شوند، که می تواند اطلاعات ارزشمندی از نقطه نظر بهداشت عمومی به ارمغان بیاورد.
صرف امکان انجام مطالعات لزوماً به این معنا نیست که چنین مطالعاتی بدون بحث بیشتر اجرا شوند. در حالی که موارد استفاده بالقوه مفید قابل توجهی را ارائه کردیم، در نظر گرفتن جنبه های اخلاقی در آینده ضروری خواهد بود. یکی از این معضلات اخلاقی این است که آیا فردی که ناخواسته ناقل برخی از اختلالات ژنتیکی است میخواهد اطلاعاتی در مورد وضعیت ناقل خود کسب کند یا خیر. به نظر میرسد با ارائه اطلاعات اولیه مناسب و رضایت آگاهانه که به درستی به دست آمده است، چنین معضلی به راحتی قابل حل است. اما ممکن است چندین استدلال بر خلاف آن وجود داشته باشد.
در حالی که برنامه Face2Gene یک پیشرفت قابل توجه در تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص زودهنگام بیماریهای نادر است، اما محدودیتهای متعددی نیز دارد. از نظر قانونی، استفاده از برنامه مستلزم پیمایش مقررات پیچیده در مورد حفظ حریم خصوصی دادههای بیمار و رضایت آن، بهویژه در حوزههای قضایی مختلف است. از نظر اخلاقی، نگرانیهایی در مورد سوگیریهای بالقوه در الگوریتمهای هوش مصنوعی وجود دارد که میتواند منجر به تشخیص اشتباه یا دسترسی نابرابر به تشخیص دقیق برای جمعیتهای مختلف شود. از نظر قانونی، ادغام برنامه در عمل بالینی باید استانداردهای دقیقی را تضمین کند تا از سوء استفاده یا اتکای بیش از حد به هوش مصنوعی بدون نظارت کافی انسانی جلوگیری شود. در نهایت، از منظر امنیت سایبری، حفاظت از دادههای بهداشتی حساس استفاده شده و تولید شده توسط برنامه برای جلوگیری از دسترسی غیرمجاز و نقض دادهها که میتواند محرمانگی و اعتماد بیمار را به خطر بیندازد، بسیار مهم است. ملاحظات مشابهی در مورد هر عامل هوش مصنوعی به سرعت در حال تکامل که در مراحل دیگر مفهوم ارائه شده از جمله ناشناس سازی داده ها استفاده می شود، اعمال می شود. برای غنی سازی بحث در مورد مسائل اخلاقی و حقوقی پیرامون تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص بیماری های نادر، دو مثال زیر را می توان در نظر گرفت. می توان از آنها برای نشان دادن بهتر مفاهیم و چالش های کاربردی استفاده از تجزیه و تحلیل تصویر صورت مبتنی بر هوش مصنوعی برای تشخیص بیماری های نادر در مناظر مختلف قانونی و اخلاقی استفاده کرد:
منبع: https://www.mdpi.com/2673-2688/5/3/49