آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.
نزدیک به ۲۰۰ نفر از رهبران، محققین و دانشمندان داده های هوش مصنوعی، یک قرارداد را امضا کرده اند نامه ی سرگشاده سه شنبه گذشته توسط “جامعه مسئول هوش مصنوعی” منتشر شد، که علاوه بر محکوم کردن “آخرین خشونت اسرائیل علیه مردم فلسطین در غزه و کرانه باختری”، می گوید: “ما همچنین استفاده از فناوری های مبتنی بر هوش مصنوعی برای گرم کردن را محکوم می کنیم. هدف این است که از دست دادن جان انسانها کارآمدتر شود و مواردی که در آن تعصبات ضد فلسطینی در سیستمهای مجهز به هوش مصنوعی تداوم مییابد.»
نامه ای که در ابتدا به نظر می رسد که بوده است به گردش درآمد توسط تینا پارک، سرپرست تحقیقات و طراحی فراگیر در مشارکت در هوش مصنوعی، خواستار لغو حمایت های فناوری از دولت اسرائیل و پایان دادن به قراردادهای دفاعی با دولت و ارتش اسرائیل است. همچنین میگوید که «تاریخ از ۷ اکتبر ۲۰۲۳ شروع نشد، اما بحران کنونی مقیاس و گستردگی وحشتناک خشونت را نشان میدهد که با استفاده از فناوریهای مبتنی بر هوش مصنوعی امکانپذیر شده است». این نامه ادامه میدهد که استفاده دولت اسرائیل از فناوری مبتنی بر هوش مصنوعی منجر به «به حمله به بیش از ۱۱۰۰۰ هدف در غزه از زمانی که آخرین درگیری در ۷ اکتبر ۲۰۲۳ آغاز شد.
امضاکنندگان نامه عبارتند از تیمنیت گبرو، محقق اخلاق هوش مصنوعی و بنیانگذار DAIR (مؤسسه تحقیقاتی هوش مصنوعی توزیع شده)؛ الکس هانا، مدیر تحقیقات DAIR؛ Abeba Birhane، عضو ارشد هوش مصنوعی قابل اعتماد در بنیاد موزیلا; امیلی بندر، استاد زبانشناسی در دانشگاه واشنگتن؛ و سارا مایرز وست، مدیر عامل موسسه AI Now.
رهبران AI اسرائیلی و یهودی این نامه را پس زده اند
رهبران اسرائیلی و یهودیان هوش مصنوعی، که برخی از آنها نیز بخشی از جامعه هوش مصنوعی اخلاقی/مسئول هوش مصنوعی هستند، از این نامه عقب نشینی کردند و گفتند که این نامه یکی دیگر از نمونه هایی از اخلاق شناسان برجسته هوش مصنوعی است که حماس را “تشویق” می کنند. حمله به اسرائیل در ۷ اکتبر یا سکوت در برابر آنها. در این نامه سرگشاده اشاره ای به گروگان های اسراییلی در غزه نشده است و حماس را به دلیل حملات ۷ اکتبر محکوم نکرده است.
ژول پولونتسکیمدیر عامل شرکت انجمن آینده حریم خصوصیوی گفت: برای من بسیار ناراحت کننده است که این نامه حتی یک کلمه را به محکومیت کشتار حماس اختصاص نمی دهد. علاوه بر این، او گفت: “مسائل اخلاقی کاملاً پیچیده ای وجود دارد که باید در هنگام استفاده از فناوری در درگیری های نظامی مورد سنجش قرار گیرد”، اما “متاسفانه یک جانبه گسترده مانند این، روشنگری در مسیر پایان دادن به خونریزی انجام نمی دهد.”
یوآو گلدبرگ، استاد دانشگاه دانشگاه بار ایلان و مدیر تحقیقات در AI2-اسرائیلهمچنین تأکید کرد که بسیاری از «سیستمهای هوش مصنوعی» یا «سیستمهای نظارتی» که در نامه توضیح داده شده است «احتمالاً جان تعداد بیشماری فلسطینیها را نجات دادهاند». به عنوان مثال، او گفت که برخی از فناوریهای هوش مصنوعی – یا رابطهای مشترک هوش مصنوعی و انسان – برای ردیابی گروگانها استفاده میشوند. او گفت: «یافتن گروگانها باعث میشود کارها سریعتر به پایان برسد و زندگیها را نجات دهد. او افزود که هوش مصنوعی برای هدایت موشکها نیز استفاده میشود و باعث میشود آنها بیشتر به اهداف خود ضربه بزنند و نه افراد تصادفی، در حالی که هوش مصنوعی برای سطح اهداف استفاده میشود. او توضیح داد: «این بدان معناست که ارتش اسرائیل میتواند اهداف نظامی قانونی را هدف قرار دهد، نه اهداف تصادفی».
او در نهایت خاطرنشان کرد که قبل از ۷ اکتبر، “بسیاری از حملات، احتمالاً در مقیاس کوچکتر، احتمالاً به دلیل استفاده از سیستمهایی که شامل “AI” به ویژه در زمینه اطلاعات هستند، جلوگیری شده است. او توضیح داد که حملات ممانعتشده از انتقامجوییهای اسرائیل نیز جلوگیری میکند: «یک سیستم فرضی را در نظر بگیرید که میتوانست از قبل درباره ۷ اکتبر هشدار/اخطار دهد – ما اکنون در این جنگ نبودیم.
و شیرا آیزنبرگ، یک مهندس هوش مصنوعی که در حال حاضر در منطقه واشنگتن مستقر است و همچنین یکی از اعضای شورای علمی برای انجمن اسرائیلی برای اخلاق در هوش مصنوعیوی افزود: “هوش مصنوعی یک فناوری حیاتی در زمان جنگ است و برای ترجمه پیام های رهگیری شده روسی در جنگ اوکراین نیز استفاده می شود.” او موافقت کرد که اسرائیل باید در استفاده از هوش مصنوعی مسئول باشد، “اما رد کردن استفاده در زمان جنگ به معنای به خطر انداختن امنیت بسیاری است.” او به سیستم هایی مانند سیستم های هوش مصنوعی اسرائیل اشاره کرد گنبد آهنینکه به طور مرتب موشک های پرتاب شده از غزه به اسرائیل را رهگیری می کند.
برخی جنبه های نامه و نظرات رسانه های اجتماعی را یهودی ستیزانه می خوانند
علاوه بر این، چندین تن از آن رهبران هوش مصنوعی اسرائیلی و یهودی می گویند که از ۷ اکتبر از اظهارنظرهایی در رسانه های اجتماعی که به نظر آنها ضدیهودی، یک طرفه و بسیار بی احساس هستند، که توسط برخی از افراد پست شده است، احساس شوک، درد و ناامیدی کرده اند. همان محققان هوش مصنوعی و رهبران صنعت که نامه سرگشاده را امضا کردند.
گلدبرگ میگوید: «در هفتههای اول، من و بسیاری دیگر در اسرائیل، بهویژه در دانشگاهها و محافل چپگرای اسرائیل، کاملاً از این موضوع شوکه شده بودیم. “احساس میکردیم به ما خیانت شده است. احساس سردرگمی میکردیم. احساس تنهایی میکردیم. چگونه افرادی که میشناسیم، که فکر میکردیم با آنها ارزشهای مشترک داریم، میتوانند چنین قضاوت اخلاقی ضعیفی از خود نشان دهند؟ چگونه میتوانند یک طرفه باشند؟ چگونه میتوانند اینقدر سطحی باشند. اما حالا… من دیگر تعجب نمی کنم. عصبانی نیستم. فقط خیلی خیلی ناراحت و خیلی خیلی ناامید هستم.»
Eran Toch، دانشیار دانشگاه تل آویو، که تحقیقاتش بر روی مرز بین انسان و کامپیوتر، تمرکز بر حریم خصوصی و امنیت قابل استفاده، یادگیری ماشینی، و ایمنی آنلاین تمرکز دارد، افزود که “من فکر می کنم این باعث می شود اعضای اسرائیلی جامعه حساس هوش مصنوعی احساس کنند. خیلی تنها.” او گفت که در اسرائیل و همچنین جاهای دیگر، «مردم این جامعه سیاسی تر و مترقی تر از دیگران هستند». این واقعیت که افرادی که فکر میکردیم بخشی از جامعه ما هستند، همدلی و کنجکاوی صفر در مورد تجربیات ما را نشان دادهاند، تلخ است.» او گفت که بسیاری از اسرائیلیها در اخلاق هوش مصنوعی سعی میکنند برای حل مناقشه با فلسطینیها و حقوق بشر، از جمله راهحلهای دیجیتالی هم برای فلسطینیها و هم برای اسرائیلیها، مبارزه کنند. انجام این کار بدون متحدان خارجی دشوار است.» او اضافه کرد که فراتر از سیاست، «بسیاری از آنها می ترسند و من تبعیض را در محافل حرفه ای تجربه کردم. مردم به گونه ای مقالات ما را بررسی می کنند که انگار این یک نبرد شبکه های اجتماعی است.”
علاوه بر این، او گفت که او “به ویژه نگران” است که به گفته او “تئوری توطئه ای است که در نامه های ضد اسرائیلی نوشته شده توسط اعضای جامعه تبلیغ می شود.” او توضیح داد که ایده این است که اسرائیل «مرکز فناوری هوش مصنوعی غیرانسانی است که علیه فلسطینیان و سپس علیه سایر مردم در جنوب جهانی استفاده میشود – این تئوری افسانههای چند صد ساله ضد یهود را تکرار میکند که یهودیان، فناوری و ظلم را به هم متصل میکند. در حالی که او موافق بود که اسرائیل یک مرکز فناوری است، و خودش منتقد است، فناوریها «هیچ تفاوتی با فناوریهای تولید شده در سیلیکون ولی یا لندن ندارند». ایجاد ایده اسرائیل به عنوان مغز متفکر هوش مصنوعی “یک تئوری توطئه است که من قبلاً می بینم که در محافل عمیق ضد یهود منتشر شده است. من فکر می کنم این نامه ها خطرناک هستند.
VentureBeat برای اظهار نظر با گبرو و هانا تماس گرفت. در حالی که هانا در ضبط پاسخ نمی داد، گبرو در پاسخ گفت: “من قصد همکاری ندارم. بس است. ما چیزها را با چشمان خود می بینیم و دانش آموزان (عمدتا رنگین پوست) دائما مورد آزار و اذیت قرار می گیرند. من می روم. بر حمایتم از فلسطینی ها تمرکز کنم.
شکستگی در جامعه هوش مصنوعی
برخی این مسائل را باعث شکستگی یا شکاف در جامعه هوش مصنوعی و جامعه فناوری به طور کلی می دانند که از ۷ اکتبر به طور پیوسته در حال رشد بوده است. برای مثال، ماه گذشته چندین رهبر هوش مصنوعی عقب نشینی کرد از اجلاس وب در لیسبون، کنفرانس فناوری برتر اروپا. این تصمیم در واکنش به پدی کاسگریو، بنیانگذار و مدیر اجرایی این رویداد گرفته شد و اقدامات اسرائیل در واکنش به حمله تروریستی غافلگیرکننده حماس در ۷ اکتبر را “جنایت جنگی” خواند.
آیزنبرگ گفت: «من قطعاً این را به عنوان یک شکاف در جامعه هوش مصنوعی و در کل جامعه فناوری می بینم. “VC نیز تحت تاثیر قرار گرفته است، با چهره های برجسته ای که در هر دو طرف موضوع ظاهر می شوند. من نمی گویم که این برای جامعه هوش مصنوعی فوق العاده مشکل ساز است – به اندازه خط شتاب گرا / کاهش سرعت تفرقه انگیز نیست، اما یک مشکل است. شکستگی بزرگ.”
دن کوتلیار، ا محقق در دانشگاه حیفا که مطالعات الگوریتم انتقادی انجام می دهد (و خود را یک فعال صلح اسرائیلی توصیف می کند که در یک شهر یهودی-عربی در مدرسه ای زندگی می کند که ۵۰ درصد دانش آموزان آن عرب هستند)، گفت که در تحقیق من در مورد اخلاق هوش مصنوعی اسرائیل، او “از این اخلاق گراها و نهادهای آنها به عنوان نوعی استاندارد طلایی یاد می شد – با فرض اینکه آنها از یک باور بی چون و چرا به ارزش های جهانی و انسانی سرچشمه می گیرند.” با این حال، او ادامه داد: “حمایت ضمنی آنها از تروریسم داعش مانند حماس یک علامت سوال بزرگ در مورد اخلاق آنها و توانایی آنها برای گسترش این اخلاق به متخصصان و محققان در سراسر جهان ایجاد می کند. بنابراین بله، من فکر می کنم فناوران دیگر نمی توانند به این اخلاق مداران نگاه کنند. به همین ترتیب، مگر اینکه آنها فعالانه بخواهند الگوریتم هایشان علیه یهودیان اسرائیل مغرضانه باشد.”
به بیان دیگر، او افزود: «زمانی که برخی از سرسختترین طرفداران هوش مصنوعی مسئولیتپذیر به طور نادانسته و غیرمسئولانه به افراطگرایی در خاورمیانه دامن میزنند، زمانی که اخلاقگرایان ارشد هوش مصنوعی نمیتوانند اقدامات وحشیانه قتل، تجاوز، مثله کردن، و ربودن نوزادان، کودکان نوپا را محکوم کنند. و افراد مسن، به این معنی است که چیزی به شدت در اخلاق هوش مصنوعی امروزی شکسته شده است.”
کوتلیار که تاکید کرده بود “با تمام وجود” از حق فلسطین برای تعیین سرنوشت و پایان اشغال سرزمین های فلسطینی توسط اسرائیل از سال ۱۹۶۷ حمایت می کند و کشتار غیرنظامیان بی گناه در نوار غزه و اسرائیل را محکوم می کند، در نوشته خود خاطرنشان کرد: او منتقد خصوصی سازی و کالایی سازی ابزارهای نظارتی مبتنی بر هوش مصنوعی در اسرائیل است. او گفت: «اما من فکر میکنم که هر کسی که عقلش درست باشد میتواند بفهمد که چرا یک دولت-ملت با سازمانهایی شبیه داعش در مرزهایش به چنین فناوریهایی نیاز دارد.» بنابراین، من این نامه را به عنوان یک فراخوان نفرت انگیز دیگر برای تضعیف اسرائیل خواندم و باز هم مشروعیت ضمنی اقدامات حماس باعث می شود که ما را به هر وسیله ممکن از خانه خود بیرون کنند.»
در محافل تحقیقاتی هوش مصنوعی، “فضای غمگینی و انسان بودن صفر”
تالیا رینگر، استادیار علوم کامپیوتر در دانشگاه ایلینویز در اوربانا-شامپین، میگوید که در حالی که با بسیاری از امضاکنندگان نامه توافق سیاسی گستردهای دارند، اما اسرائیلی-آمریکایی نیز هستند و تفسیر رسانههای اجتماعی خود را «بهشدت» یافتهاند. سخت.”
در ۷ اکتبر، آنها گفتند، “یک نوع وحشت و ناامیدی احساس کردم. نمی توانم توضیح دهم. متوجه شدم که دو تن از همسران خانواده ام مفقود شده اند – بعداً آنها مرده پیدا شدند – و بیش از یک دوجین نفر اول دوستان پسر عمو همگی در یک روز به قتل رسیدند. یک خانواده به معنای واقعی کلمه زنده زنده سوزانده شد.
در محافل تحقیقاتی هوش مصنوعی، آنها توضیح دادند: “من هیچ فضایی برای غصه خوردن و انسان بودن نداشتم.” حتی قبل از پاسخ اسرائیل در ۷ اکتبر، او افزود: “حلقه های آنلاین دوستان من در این جامعه تحقیقاتی [were flooded] در بهترین حالت انکار و در بدترین حالت جشن این مرگ ها. من مورد آزار و اذیت قرار گرفتم تا از “مرکز” کردن خود دست بردارم. افرادی که سالها آنها را دوستان خوبی میدانستم شروع کردند (بهطور ناخواسته، گمان میکنم) تئوریهای توطئه یهودیستیزانه درباره حمله اسرائیل به شهروندان خود در ۷ اکتبر منتشر کردند، و من دوستانی را به دلیل اینکه این موضوع را یهودیستیزی آشکار خواندم از دست دادم. همه اینها در حالی که من به طور خستگی ناپذیر با یک جنبش صلح مشترک اسرائیل و فلسطین کار می کردم، که مکانی فوق العاده پر از جایی برای غم و درد و ترس و انسانیت کامل همه بوده است.
با این حال، رینگر گفت که شخصاً این نامه سرگشاده خاص را “بیش از حد قابل اعتراض” نمی داند. آنها گفتند که “نگرانی در مورد استفاده از فناوری در جنگ و انقیاد مردم بسیار مهم است.” اما آنها خاطرنشان کردند که با جمله “تاریخ از ۷ اکتبر شروع نشد”، که “کمی بیش از حد آسیب زا بودن آن روز را نادیده می گیرد، و زیر و بم توطئه آمیزی که می تواند تئوری های توطئه یهودی ستیزانه را حتی تداوم بخشد” به تعویق افتاده است. بیشتر.”
با این حال، آنها اضافه کردند که “در حال حاضر برای من سخت است که به هوش مصنوعی اهمیت بدهم، در حالی که از ۷ اکتبر به طور کامل زندگی من را از دست داده است. من فقط می خواهم این موضوع پایان یابد.” نمی دانم بعدش چیست. من قطعا دوستان صمیمی را در جامعه از دست داده ام. نمیدانم همدیگر را ببخشیم یا نه نمی دانم بعداً چه معنایی برای جامعه خواهد داشت. همه چیز در حال حاضر دور به نظر می رسد.»
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/ai/ai-community-fractured-over-israel-hamas-war/