جامعه هوش مصنوعی بر سر جنگ اسرائیل و حماس از هم پاشید

آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.


نزدیک به ۲۰۰ نفر از رهبران، محققین و دانشمندان داده های هوش مصنوعی، یک قرارداد را امضا کرده اند نامه ی سرگشاده سه شنبه گذشته توسط “جامعه مسئول هوش مصنوعی” منتشر شد، که علاوه بر محکوم کردن “آخرین خشونت اسرائیل علیه مردم فلسطین در غزه و کرانه باختری”، می گوید: “ما همچنین استفاده از فناوری های مبتنی بر هوش مصنوعی برای گرم کردن را محکوم می کنیم. هدف این است که از دست دادن جان انسان‌ها کارآمدتر شود و مواردی که در آن تعصبات ضد فلسطینی در سیستم‌های مجهز به هوش مصنوعی تداوم می‌یابد.»

نامه ای که در ابتدا به نظر می رسد که بوده است به گردش درآمد توسط تینا پارک، سرپرست تحقیقات و طراحی فراگیر در مشارکت در هوش مصنوعی، خواستار لغو حمایت های فناوری از دولت اسرائیل و پایان دادن به قراردادهای دفاعی با دولت و ارتش اسرائیل است. همچنین می‌گوید که «تاریخ از ۷ اکتبر ۲۰۲۳ شروع نشد، اما بحران کنونی مقیاس و گستردگی وحشتناک خشونت را نشان می‌دهد که با استفاده از فناوری‌های مبتنی بر هوش مصنوعی امکان‌پذیر شده است». این نامه ادامه می‌دهد که استفاده دولت اسرائیل از فناوری مبتنی بر هوش مصنوعی منجر به «به حمله به بیش از ۱۱۰۰۰ هدف در غزه از زمانی که آخرین درگیری در ۷ اکتبر ۲۰۲۳ آغاز شد.

امضاکنندگان نامه عبارتند از تیمنیت گبرو، محقق اخلاق هوش مصنوعی و بنیانگذار DAIR (مؤسسه تحقیقاتی هوش مصنوعی توزیع شده)؛ الکس هانا، مدیر تحقیقات DAIR؛ Abeba Birhane، عضو ارشد هوش مصنوعی قابل اعتماد در بنیاد موزیلا; امیلی بندر، استاد زبان‌شناسی در دانشگاه واشنگتن؛ و سارا مایرز وست، مدیر عامل موسسه AI Now.

رهبران AI اسرائیلی و یهودی این نامه را پس زده اند

رهبران اسرائیلی و یهودیان هوش مصنوعی، که برخی از آنها نیز بخشی از جامعه هوش مصنوعی اخلاقی/مسئول هوش مصنوعی هستند، از این نامه عقب نشینی کردند و گفتند که این نامه یکی دیگر از نمونه هایی از اخلاق شناسان برجسته هوش مصنوعی است که حماس را “تشویق” می کنند. حمله به اسرائیل در ۷ اکتبر یا سکوت در برابر آنها. در این نامه سرگشاده اشاره ای به گروگان های اسراییلی در غزه نشده است و حماس را به دلیل حملات ۷ اکتبر محکوم نکرده است.

رویداد VB

تور تاثیر هوش مصنوعی

در تور AI Impact VentureBeat که به شهر نزدیک شما می آید، با جامعه هوش مصنوعی سازمانی ارتباط برقرار کنید!

بیشتر بدانید

ژول پولونتسکیمدیر عامل شرکت انجمن آینده حریم خصوصیوی گفت: برای من بسیار ناراحت کننده است که این نامه حتی یک کلمه را به محکومیت کشتار حماس اختصاص نمی دهد. علاوه بر این، او گفت: “مسائل اخلاقی کاملاً پیچیده ای وجود دارد که باید در هنگام استفاده از فناوری در درگیری های نظامی مورد سنجش قرار گیرد”، اما “متاسفانه یک جانبه گسترده مانند این، روشنگری در مسیر پایان دادن به خونریزی انجام نمی دهد.”

یوآو گلدبرگ، استاد دانشگاه دانشگاه بار ایلان و مدیر تحقیقات در AI2-اسرائیلهمچنین تأکید کرد که بسیاری از «سیستم‌های هوش مصنوعی» یا «سیستم‌های نظارتی» که در نامه توضیح داده شده است «احتمالاً جان تعداد بی‌شماری فلسطینی‌ها را نجات داده‌اند». به عنوان مثال، او گفت که برخی از فناوری‌های هوش مصنوعی – یا رابط‌های مشترک هوش مصنوعی و انسان – برای ردیابی گروگان‌ها استفاده می‌شوند. او گفت: «یافتن گروگان‌ها باعث می‌شود کارها سریع‌تر به پایان برسد و زندگی‌ها را نجات دهد. او افزود که هوش مصنوعی برای هدایت موشک‌ها نیز استفاده می‌شود و باعث می‌شود آنها بیشتر به اهداف خود ضربه بزنند و نه افراد تصادفی، در حالی که هوش مصنوعی برای سطح اهداف استفاده می‌شود. او توضیح داد: «این بدان معناست که ارتش اسرائیل می‌تواند اهداف نظامی قانونی را هدف قرار دهد، نه اهداف تصادفی».

او در نهایت خاطرنشان کرد که قبل از ۷ اکتبر، “بسیاری از حملات، احتمالاً در مقیاس کوچکتر، احتمالاً به دلیل استفاده از سیستم‌هایی که شامل “AI” به ویژه در زمینه اطلاعات هستند، جلوگیری شده است. او توضیح داد که حملات ممانعت‌شده از انتقام‌جویی‌های اسرائیل نیز جلوگیری می‌کند: «یک سیستم فرضی را در نظر بگیرید که می‌توانست از قبل درباره ۷ اکتبر هشدار/اخطار دهد – ما اکنون در این جنگ نبودیم.

و شیرا آیزنبرگ، یک مهندس هوش مصنوعی که در حال حاضر در منطقه واشنگتن مستقر است و همچنین یکی از اعضای شورای علمی برای انجمن اسرائیلی برای اخلاق در هوش مصنوعیوی افزود: “هوش مصنوعی یک فناوری حیاتی در زمان جنگ است و برای ترجمه پیام های رهگیری شده روسی در جنگ اوکراین نیز استفاده می شود.” او موافقت کرد که اسرائیل باید در استفاده از هوش مصنوعی مسئول باشد، “اما رد کردن استفاده در زمان جنگ به معنای به خطر انداختن امنیت بسیاری است.” او به سیستم هایی مانند سیستم های هوش مصنوعی اسرائیل اشاره کرد گنبد آهنینکه به طور مرتب موشک های پرتاب شده از غزه به اسرائیل را رهگیری می کند.

برخی جنبه های نامه و نظرات رسانه های اجتماعی را یهودی ستیزانه می خوانند

علاوه بر این، چندین تن از آن رهبران هوش مصنوعی اسرائیلی و یهودی می گویند که از ۷ اکتبر از اظهارنظرهایی در رسانه های اجتماعی که به نظر آنها ضدیهودی، یک طرفه و بسیار بی احساس هستند، که توسط برخی از افراد پست شده است، احساس شوک، درد و ناامیدی کرده اند. همان محققان هوش مصنوعی و رهبران صنعت که نامه سرگشاده را امضا کردند.

گلدبرگ می‌گوید: «در هفته‌های اول، من و بسیاری دیگر در اسرائیل، به‌ویژه در دانشگاه‌ها و محافل چپ‌گرای اسرائیل، کاملاً از این موضوع شوکه شده بودیم. “احساس می‌کردیم به ما خیانت شده است. احساس سردرگمی می‌کردیم. احساس تنهایی می‌کردیم. چگونه افرادی که می‌شناسیم، که فکر می‌کردیم با آنها ارزش‌های مشترک داریم، می‌توانند چنین قضاوت اخلاقی ضعیفی از خود نشان دهند؟ چگونه می‌توانند یک طرفه باشند؟ چگونه می‌توانند اینقدر سطحی باشند. اما حالا… من دیگر تعجب نمی کنم. عصبانی نیستم. فقط خیلی خیلی ناراحت و خیلی خیلی ناامید هستم.»

Eran Toch، دانشیار دانشگاه تل آویو، که تحقیقاتش بر روی مرز بین انسان و کامپیوتر، تمرکز بر حریم خصوصی و امنیت قابل استفاده، یادگیری ماشینی، و ایمنی آنلاین تمرکز دارد، افزود که “من فکر می کنم این باعث می شود اعضای اسرائیلی جامعه حساس هوش مصنوعی احساس کنند. خیلی تنها.” او گفت که در اسرائیل و همچنین جاهای دیگر، «مردم این جامعه سیاسی تر و مترقی تر از دیگران هستند». این واقعیت که افرادی که فکر می‌کردیم بخشی از جامعه ما هستند، همدلی و کنجکاوی صفر در مورد تجربیات ما را نشان داده‌اند، تلخ است.» او گفت که بسیاری از اسرائیلی‌ها در اخلاق هوش مصنوعی سعی می‌کنند برای حل مناقشه با فلسطینی‌ها و حقوق بشر، از جمله راه‌حل‌های دیجیتالی هم برای فلسطینی‌ها و هم برای اسرائیلی‌ها، مبارزه کنند. انجام این کار بدون متحدان خارجی دشوار است.» او اضافه کرد که فراتر از سیاست، «بسیاری از آنها می ترسند و من تبعیض را در محافل حرفه ای تجربه کردم. مردم به گونه ای مقالات ما را بررسی می کنند که انگار این یک نبرد شبکه های اجتماعی است.”

علاوه بر این، او گفت که او “به ویژه نگران” است که به گفته او “تئوری توطئه ای است که در نامه های ضد اسرائیلی نوشته شده توسط اعضای جامعه تبلیغ می شود.” او توضیح داد که ایده این است که اسرائیل «مرکز فناوری هوش مصنوعی غیرانسانی است که علیه فلسطینیان و سپس علیه سایر مردم در جنوب جهانی استفاده می‌شود – این تئوری افسانه‌های چند صد ساله ضد یهود را تکرار می‌کند که یهودیان، فناوری و ظلم را به هم متصل می‌کند. در حالی که او موافق بود که اسرائیل یک مرکز فناوری است، و خودش منتقد است، فناوری‌ها «هیچ تفاوتی با فناوری‌های تولید شده در سیلیکون ولی یا لندن ندارند». ایجاد ایده اسرائیل به عنوان مغز متفکر هوش مصنوعی “یک تئوری توطئه است که من قبلاً می بینم که در محافل عمیق ضد یهود منتشر شده است. من فکر می کنم این نامه ها خطرناک هستند.

VentureBeat برای اظهار نظر با گبرو و هانا تماس گرفت. در حالی که هانا در ضبط پاسخ نمی داد، گبرو در پاسخ گفت: “من قصد همکاری ندارم. بس است. ما چیزها را با چشمان خود می بینیم و دانش آموزان (عمدتا رنگین پوست) دائما مورد آزار و اذیت قرار می گیرند. من می روم. بر حمایتم از فلسطینی ها تمرکز کنم.

شکستگی در جامعه هوش مصنوعی

برخی این مسائل را باعث شکستگی یا شکاف در جامعه هوش مصنوعی و جامعه فناوری به طور کلی می دانند که از ۷ اکتبر به طور پیوسته در حال رشد بوده است. برای مثال، ماه گذشته چندین رهبر هوش مصنوعی عقب نشینی کرد از اجلاس وب در لیسبون، کنفرانس فناوری برتر اروپا. این تصمیم در واکنش به پدی کاسگریو، بنیانگذار و مدیر اجرایی این رویداد گرفته شد و اقدامات اسرائیل در واکنش به حمله تروریستی غافلگیرکننده حماس در ۷ اکتبر را “جنایت جنگی” خواند.

آیزنبرگ گفت: «من قطعاً این را به عنوان یک شکاف در جامعه هوش مصنوعی و در کل جامعه فناوری می بینم. “VC نیز تحت تاثیر قرار گرفته است، با چهره های برجسته ای که در هر دو طرف موضوع ظاهر می شوند. من نمی گویم که این برای جامعه هوش مصنوعی فوق العاده مشکل ساز است – به اندازه خط شتاب گرا / کاهش سرعت تفرقه انگیز نیست، اما یک مشکل است. شکستگی بزرگ.”

دن کوتلیار، ا محقق در دانشگاه حیفا که مطالعات الگوریتم انتقادی انجام می دهد (و خود را یک فعال صلح اسرائیلی توصیف می کند که در یک شهر یهودی-عربی در مدرسه ای زندگی می کند که ۵۰ درصد دانش آموزان آن عرب هستند)، گفت که در تحقیق من در مورد اخلاق هوش مصنوعی اسرائیل، او “از این اخلاق گراها و نهادهای آنها به عنوان نوعی استاندارد طلایی یاد می شد – با فرض اینکه آنها از یک باور بی چون و چرا به ارزش های جهانی و انسانی سرچشمه می گیرند.” با این حال، او ادامه داد: “حمایت ضمنی آنها از تروریسم داعش مانند حماس یک علامت سوال بزرگ در مورد اخلاق آنها و توانایی آنها برای گسترش این اخلاق به متخصصان و محققان در سراسر جهان ایجاد می کند. بنابراین بله، من فکر می کنم فناوران دیگر نمی توانند به این اخلاق مداران نگاه کنند. به همین ترتیب، مگر اینکه آنها فعالانه بخواهند الگوریتم هایشان علیه یهودیان اسرائیل مغرضانه باشد.”

به بیان دیگر، او افزود: «زمانی که برخی از سرسخت‌ترین طرفداران هوش مصنوعی مسئولیت‌پذیر به طور نادانسته و غیرمسئولانه به افراط‌گرایی در خاورمیانه دامن می‌زنند، زمانی که اخلاق‌گرایان ارشد هوش مصنوعی نمی‌توانند اقدامات وحشیانه قتل، تجاوز، مثله کردن، و ربودن نوزادان، کودکان نوپا را محکوم کنند. و افراد مسن، به این معنی است که چیزی به شدت در اخلاق هوش مصنوعی امروزی شکسته شده است.”

کوتلیار که تاکید کرده بود “با تمام وجود” از حق فلسطین برای تعیین سرنوشت و پایان اشغال سرزمین های فلسطینی توسط اسرائیل از سال ۱۹۶۷ حمایت می کند و کشتار غیرنظامیان بی گناه در نوار غزه و اسرائیل را محکوم می کند، در نوشته خود خاطرنشان کرد: او منتقد خصوصی سازی و کالایی سازی ابزارهای نظارتی مبتنی بر هوش مصنوعی در اسرائیل است. او گفت: «اما من فکر می‌کنم که هر کسی که عقلش درست باشد می‌تواند بفهمد که چرا یک دولت-ملت با سازمان‌هایی شبیه داعش در مرزهایش به چنین فناوری‌هایی نیاز دارد.» بنابراین، من این نامه را به عنوان یک فراخوان نفرت انگیز دیگر برای تضعیف اسرائیل خواندم و باز هم مشروعیت ضمنی اقدامات حماس باعث می شود که ما را به هر وسیله ممکن از خانه خود بیرون کنند.»

در محافل تحقیقاتی هوش مصنوعی، “فضای غمگینی و انسان بودن صفر”

تالیا رینگر، استادیار علوم کامپیوتر در دانشگاه ایلینویز در اوربانا-شامپین، می‌گوید که در حالی که با بسیاری از امضاکنندگان نامه توافق سیاسی گسترده‌ای دارند، اما اسرائیلی-آمریکایی نیز هستند و تفسیر رسانه‌های اجتماعی خود را «به‌شدت» یافته‌اند. سخت.”

در ۷ اکتبر، آنها گفتند، “یک نوع وحشت و ناامیدی احساس کردم. نمی توانم توضیح دهم. متوجه شدم که دو تن از همسران خانواده ام مفقود شده اند – بعداً آنها مرده پیدا شدند – و بیش از یک دوجین نفر اول دوستان پسر عمو همگی در یک روز به قتل رسیدند. یک خانواده به معنای واقعی کلمه زنده زنده سوزانده شد.

در محافل تحقیقاتی هوش مصنوعی، آنها توضیح دادند: “من هیچ فضایی برای غصه خوردن و انسان بودن نداشتم.” حتی قبل از پاسخ اسرائیل در ۷ اکتبر، او افزود: “حلقه های آنلاین دوستان من در این جامعه تحقیقاتی [were flooded] در بهترین حالت انکار و در بدترین حالت جشن این مرگ ها. من مورد آزار و اذیت قرار گرفتم تا از “مرکز” کردن خود دست بردارم. افرادی که سال‌ها آنها را دوستان خوبی می‌دانستم شروع کردند (به‌طور ناخواسته، گمان می‌کنم) تئوری‌های توطئه یهودی‌ستیزانه درباره حمله اسرائیل به شهروندان خود در ۷ اکتبر منتشر کردند، و من دوستانی را به دلیل اینکه این موضوع را یهودی‌ستیزی آشکار خواندم از دست دادم. همه اینها در حالی که من به طور خستگی ناپذیر با یک جنبش صلح مشترک اسرائیل و فلسطین کار می کردم، که مکانی فوق العاده پر از جایی برای غم و درد و ترس و انسانیت کامل همه بوده است.

با این حال، رینگر گفت که شخصاً این نامه سرگشاده خاص را “بیش از حد قابل اعتراض” نمی داند. آنها گفتند که “نگرانی در مورد استفاده از فناوری در جنگ و انقیاد مردم بسیار مهم است.” اما آنها خاطرنشان کردند که با جمله “تاریخ از ۷ اکتبر شروع نشد”، که “کمی بیش از حد آسیب زا بودن آن روز را نادیده می گیرد، و زیر و بم توطئه آمیزی که می تواند تئوری های توطئه یهودی ستیزانه را حتی تداوم بخشد” به تعویق افتاده است. بیشتر.”

با این حال، آنها اضافه کردند که “در حال حاضر برای من سخت است که به هوش مصنوعی اهمیت بدهم، در حالی که از ۷ اکتبر به طور کامل زندگی من را از دست داده است. من فقط می خواهم این موضوع پایان یابد.” نمی دانم بعدش چیست. من قطعا دوستان صمیمی را در جامعه از دست داده ام. نمیدانم همدیگر را ببخشیم یا نه نمی دانم بعداً چه معنایی برای جامعه خواهد داشت. همه چیز در حال حاضر دور به نظر می رسد.»

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.


منبع: https://venturebeat.com/ai/ai-community-fractured-over-israel-hamas-war/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *