نقش یک کمیته اخلاق این است که در مورد کارهایی که باید در موقعیت های اغلب بحث برانگیز انجام شود، توصیه می کند. آنها در پزشکی، تحقیقات، تجارت، حقوق و بسیاری از زمینه های دیگر استفاده می شوند.
کلمه “اخلاق” مربوط به اصول اخلاقی حاکم بر رفتار انسان. با توجه به طیف وسیع دیدگاه های اخلاقی، سیاسی، فلسفی، فرهنگی و مذهبی، وظیفه کمیته های اخلاق می تواند بسیار دشوار باشد. با این حال، استدلال های اخلاقی خوب شالوده جامعه را تشکیل می دهند، زیرا آنها اساس قوانین و توافقاتی هستند که ما برای کنار آمدن با یکدیگر از آنها استفاده می کنیم.
با توجه به اهمیت اخلاق، هر ابزاری که بتوان از آن برای رسیدن به تصمیمات اخلاقی بهتر استفاده کرد، باید مورد بررسی و استفاده قرار گیرد. طی دو سال گذشته، شناخت روزافزونی از آن وجود داشته است هوش مصنوعی (AI) ابزاری است که می تواند برای تجزیه و تحلیل داده های پیچیده استفاده شود. بنابراین منطقی است که این سوال را بپرسیم که آیا می توان از هوش مصنوعی برای کمک به تصمیم گیری بهتر اخلاقی استفاده کرد.
همانطور که هوش مصنوعی یک است کلاس الگوریتم کامپیوتر، به داده ها متکی است. کمیتههای اخلاق نیز بر دادهها تکیه میکنند، بنابراین یک سوال مهم این است که آیا هوش مصنوعی میتواند انواع دادههایی را که کمیتههای اخلاقی به طور مرتب در نظر میگیرند، بارگیری و سپس به طور معناداری تجزیه و تحلیل کند.
در اینجا، زمینه بسیار مهم می شود. به عنوان مثال الف کمیته اخلاق بیمارستان ممکن است بر اساس تجربه با بیماران، نظرات وکلا، و درک کلی از هنجارها و نظرات مشترک فرهنگی یا اجتماعی تصمیم گیری کند. در حال حاضر دشوار است که ببینیم چگونه می توان چنین داده هایی را جمع آوری کرد و به یک الگوریتم هوش مصنوعی وارد کرد.
با این حال، من ریاست یک نوع بسیار خاص از کمیته اخلاق، به نام کمیته اخلاق تحقیق (REC) را بر عهده دارم نقش بررسی پروتکل های تحقیقات علمی است. هدف ترویج تحقیقات با کیفیت بالا در عین حفاظت از حقوق، ایمنی، حیثیت و رفاه افرادی است که در تحقیق شرکت می کنند.
اکثر فعالیتهای ما شامل خواندن اسناد پیچیده برای تعیین مسائل اخلاقی مربوطه و سپس ارائه پیشنهادهایی به محققان در مورد اینکه چگونه میتوانند پروتکلها یا رویههای پیشنهادی خود را بهبود بخشند، است. در این زمینه است که هوش مصنوعی می تواند بسیار مفید باشد.
پروتکل های تحقیقبه خصوص آنهایی که از آزمایشات بالینی، اغلب در صدها و نه هزاران صفحه اجرا می شود. اطلاعات متراکم و پیچیده است. اگرچه پروتکلها با فرمهای درخواست اخلاقی همراه هستند که به دنبال ارائه اطلاعات در مورد مسائل اخلاقی کلیدی به روشی هستند که اعضای REC بتوانند به راحتی آن را پیدا کنند، این کار هنوز هم میتواند زمان بسیار زیادی طول بکشد.
پس از مطالعه اسناد، اعضای REC آنچه را که خواندهاند وزن میکنند، آن را با راهنماییهای مربوط به عملکرد اخلاقی خوب مقایسه میکنند، ورودیهای گروههای درگیرکننده بیمار و شرکتکننده را در نظر میگیرند، و سپس به تصمیم میرسند که آیا تحقیقات میتواند طبق برنامه پیش برود. متداول ترین نتیجه این است که قبل از انجام تحقیقات به اطلاعات بیشتر و تغییرات کمی نیاز است.
نقشی برای ماشین ها؟
در حالی که تلاشهایی برای استانداردسازی عضویت و تجربه REC انجام شده است، محققان اغلب شکایت دارند که این فرآیند میتواند زمان زیادی طول بکشد. ناسازگار بین کمیته های مختلف
هوش مصنوعی به نظر می رسد به صورت ایده آل قرار گرفته است برای تسریع روند و کمک به رفع برخی از ناهماهنگی ها. هوش مصنوعی نه تنها میتوانست چنین اسناد طولانی را خیلی سریع بخواند، بلکه میتوانست بر روی تعداد زیادی از پروتکلها و تصمیمات قبلی آموزش ببیند.
این می تواند به سرعت هر گونه مسائل اخلاقی را تشخیص دهد و راه حل هایی را برای تیم های تحقیقاتی پیشنهاد کند. این امر روند بررسی اخلاقی را بسیار تسریع میکند و احتمالاً آن را بسیار سازگارتر میکند. اما آیا استفاده از هوش مصنوعی در این راه از نظر اخلاقی قابل قبول است؟
در حالی که هوش مصنوعی می تواند به وضوح بسیاری از وظایف REC را انجام دهد، همچنین می توان استدلال کرد که این وظایف بازبینی در واقع مشابه تصمیم گیری اخلاقی نیستند. در پایان فرآیند بررسی، از RECها خواسته می شود تا تصمیم بگیرند که آیا یک پروتکل، همراه با به روز رسانی، باید تصمیم بگیرند نظر مساعد یا نامطلوب دریافت کنید.
در نتیجه، در حالی که مزیت هوش مصنوعی در سرعت بخشیدن به فرآیند واضح است، این کاملاً مشابه تصمیم گیری نهایی نیست.
یک انسان در حلقه
ممکن است هوش مصنوعی در ارزیابی یک موقعیت و توصیه روشی که با رفتار «اخلاقی» قبلی سازگار است، بسیار مؤثر باشد. با این حال، تصمیم برای اتخاذ یک روش عملی، و سپس ادامه دادن به آن شیوه، اساساً انسانی است.
در مثال اخلاق تحقیق، هوش مصنوعی ممکن است به خوبی یک مسیر عمل را توصیه کند، اما در واقع تصمیم گیری در مورد اقدام یک تصمیم انسانی است. این سیستم میتواند به گونهای طراحی شود که به کمیتههای اخلاقی یا محققان دستور دهد که بدون شک آنچه را که هوش مصنوعی پیشنهاد میکند انجام دهند، اما چنین تصمیمی در مورد نحوه استفاده از هوش مصنوعی است، نه خود هوش مصنوعی.
در حالی که هوش مصنوعی با توجه به نوع دادههایی که بررسی میکنیم، شاید بلافاصله برای کمیتههای اخلاقی تحقیق مفید باشد، به احتمال زیاد روشهای رمزگذاری دادههای غیر متنی (مانند تجربیات افراد) بهبود مییابد.
این بدان معناست که با گذشت زمان، هوش مصنوعی میتواند در سایر حوزههای تصمیمگیری اخلاقی نیز کمک کند. با این حال، نکته کلیدی این است که ابزار مورد استفاده برای تجزیه و تحلیل داده ها، هوش مصنوعی، را با تصمیم نهایی “اخلاقی” در مورد نحوه عمل اشتباه نگیرید. خطر هوش مصنوعی نیست، بلکه این است که مردم چگونه هوش مصنوعی را در فرآیندهای تصمیم گیری اخلاقی ادغام می کنند.
سیمون کولستودانشیار اخلاق زیستی، دانشگاه پورتسموث
این مقاله بازنشر شده است از گفتگو تحت مجوز Creative Commons. را بخوانید مقاله اصلی.
منبع: https://thenextweb.com/news/does-ai-have-a-place-on-ethics-committees-how-to-use-it-the-right-way