در یک چرخش شگفتانگیز، ایلان ماسک در توییتر نامهای از کارمندان سابق OpenAI به اشتراک گذاشت که سم آلتمن و گرگ براکمن، مدیرعامل و رئیس OpenAI را به ترتیب به «الگوی آزاردهنده فریب و دستکاری» متهم کردند.
این نامه که در بحبوحه تحولات اخیر رهبری در OpenAI منتشر شد، رفتارهای مخفیانه و توهین آمیز آلتمن و براکمن را مدعی است و به آن اشاره می کند که “کینه انگیزه ای از ایلان ماسک پس از درگیری آنها وجود دارد.”
این نامه درباره OpenAI به تازگی برای من ارسال شده است.
به نظر میرسد این نگرانیها ارزش بررسی دارند.https://t.co/hnAepyfLE6
— ایلان ماسک (@elonmusk) 21 نوامبر ۲۰۲۳
آلتمن و براکمن اخیراً توسط هیئت مدیره OpenAI از سمت خود برکنار شدند، اما متعاقباً دوباره به کار خود بازگردانده شدند که منجر به یک تکان شدید در شرکت شد.
این نامه که صحت آن تایید نشده است، فضای ترس و مجازات را در OpenAI توصیف می کند و نگرانی هایی را در مورد پیگیری هوش مصنوعی عمومی (AGI) ایجاد می کند.
از جمله ادعاهای مطرح شده در این نامه:
- آلتمن به کارمندان دستور داد که پیشرفت در ابتکارات تحقیقاتی “مخفی” را پنهان کنند و کسانی را که این عمل را زیر سوال می بردند، اخراج کنند.
- تحقیقات بر روی کارمندان ظاهراً بدون اطلاع مدیریت انجام شده است و دانشمند ارشد ایلیا سوتسکور هدف قرار گرفته است.
- براکمن متهم به استفاده از زبان تبعیض آمیز علیه یکی از اعضای تیم در حال انتقال جنسیت است که منجر به خاتمه آنها به دلیل عملکرد ضعیف شده است.
- آلتمن متهم به سوء استفاده از منابع غیرانتفاعی OpenAI برای اهداف شخصی است که انگیزه آن کینه ای نسبت به ایلان ماسک است.
ذکر این نکته ضروری است که صحت این نامه تایید نشده است و گمانه زنی هایی مبنی بر دروغ بودن آن وجود دارد. ماسک در توییتی نوشت که این نامه برای او ارسال شده و نیاز به تحقیق درباره نگرانی های مطرح شده را بیان کرده است.
OpenAI هنوز به درخواست ها برای اظهار نظر در مورد نامه پاسخ نداده است. رویدادهای اخیر در OpenAI شرکت را در وضعیت نامشخصی قرار داده است، با سوالاتی در مورد انگیزه های پشت سر تغییرات رهبری و جهت گیری آینده سازمان.
آلتمن رسما نقش خود را به عنوان مدیر عامل OpenAI از سر گرفته است و گزارش شده است که تحقیقات در مورد شرایط مربوط به اخراج اولیه او در حال انجام است.
این شرکت که به دلیل کار خود در زمینه هوش مصنوعی شناخته می شود، چالش های داخلی و خارجی را دنبال می کند زیرا به دنبال حفظ ماموریت خود و رسیدگی به نگرانی های مطرح شده توسط کارمندان خود است.
در اینجا یک کپی از نامه ای است که ایلان ماسک به اشتراک گذاشته است. لطفاً توجه داشته باشید که نامه از Git حذف شده است، اما با استفاده از Wayback Machine بازیابی شده و با استفاده از X Community Notes پست شده است.
۲۰۲۳/۱۱/۲۱
به هیئت مدیره OpenAI:
ما امروز برای شما می نویسیم تا نگرانی عمیق خود را در مورد رویدادهای اخیر در OpenAI، به ویژه اتهامات سوء رفتار علیه سام آلتمن، ابراز کنیم.
ما کارمندان سابق OpenAI هستیم که طی یک دوره آشفتگی و آشفتگی قابل توجه شرکت را ترک کردیم. همانطور که اکنون شاهد بودید که وقتی جرات می کنید در مقابل سام آلتمن بایستید چه اتفاقی می افتد، شاید بتوانید درک کنید که چرا بسیاری از ما از ترس عواقب سکوت کرده ایم. دیگر نمیتوانیم ساکت باشیم.
ما بر این باوریم که هیئت مدیره موظف است این اتهامات را به طور کامل بررسی کند و اقدامات مقتضی را انجام دهد. از شما می خواهیم که:
دامنه تحقیقات امت را گسترش دهید تا شامل بررسی اقدامات سام آلتمن از آگوست ۲۰۱۸، زمانی که OpenAI شروع به انتقال از یک نهاد غیرانتفاعی به یک نهاد انتفاعی کرد.
یک فراخوان آزاد برای بیانیه های خصوصی از کارکنان سابق OpenAI که استعفا داده اند، در مرخصی پزشکی قرار گرفته اند، یا در این دوره خاتمه داده اند، صادر کنید.
از هویت کسانی که برای اطمینان از اینکه در معرض تلافی یا سایر اشکال آسیب قرار نمیگیرند، محافظت کنید.
ما معتقدیم که تعداد قابل توجهی از کارکنان OpenAI از شرکت اخراج شدند تا انتقال آن به یک مدل سودآور تسهیل شود. این امر با این واقعیت مشهود است که نرخ فرسایش کارکنان OpenAI بین ژانویه ۲۰۱۸ و ژوئیه ۲۰۲۰ حدود ۵۰٪ بوده است.
در طول مدت حضورمان در OpenAI، شاهد الگوی آزاردهنده ای از فریب و دستکاری توسط سم آلتمن و گرگ براکمن بودیم که به دلیل تلاش سیری ناپذیر آنها برای دستیابی به هوش عمومی مصنوعی (AGI) بود. با این حال، روش های آنها تردیدهای جدی را در مورد نیات واقعی آنها و میزان اولویت واقعی آنها برای منافع همه بشریت ایجاد کرده است.
بسیاری از ما که در ابتدا به ماموریت OpenAI امیدوار بودیم، ترجیح دادیم که به سم و گرگ شک و تردید بدهیم. با این حال، هنگامی که اقدامات آنها به طور فزاینده نگران کننده شد، کسانی که جرأت می کردند نگرانی های خود را بیان کنند ساکت شدند یا بیرون رانده شدند. این خاموش کردن نظاممند مخالفان، محیطی از ترس و ارعاب ایجاد کرد و به طور مؤثر هرگونه بحث معنادار درباره پیامدهای اخلاقی کار OpenAI را خفه کرد.
ما نمونههای ملموسی از عدم صداقت و دستکاری سام و گرگ ارائه میکنیم، از جمله:
درخواست سام از محققان برای به تاخیر انداختن گزارش پیشرفت در ابتکارات تحقیقاتی “مخفی” خاص، که بعداً به دلیل عدم ارائه سریع نتایج کافی از بین رفتند. کسانی که این عمل را زیر سوال بردند، به عنوان “فرهنگ بد مناسب” اخراج شدند و حتی برخی از آنها درست قبل از شکرگزاری ۲۰۱۹ پایان یافتند.
استفاده گرگ از زبان تبعیض آمیز علیه یکی از اعضای تیم در حال تغییر جنسیت. علیرغم وعدههای فراوان برای رسیدگی به این موضوع، هیچ اقدام معنیداری انجام نشد، به جز اینکه گرگ به سادگی از هرگونه ارتباط با فرد آسیبدیده اجتناب کرد و عملاً یک محیط کاری خصمانه ایجاد کرد. این عضو تیم در نهایت به دلیل عملکرد ضعیف از کار اخراج شد.
سام به کارکنان بخش فناوری اطلاعات و عملیات دستور داد تا بدون اطلاع یا رضایت مدیریت، درباره کارمندان، از جمله ایلیا، تحقیق کنند.
بهره برداری محتاطانه و در عین حال معمولی سام از منابع غیرانتفاعی OpenAI برای پیشبرد اهداف شخصی خود، به ویژه به دلیل کینه او از ایلان پس از درگیری آنها.
پذیرش ضمنی تیم عملیات از قوانین ویژهای که در مورد گرگ اعمال میشود، و برای جلوگیری از قرار گرفتن در لیست سیاه، شرایط پیچیده را دنبال میکند.
وعده عملی نشده برد لایت کپ برای عمومی کردن اسنادی که جزئیات ساختار سود سقفی OpenAI و سقف سود هر سرمایه گذار را نشان می دهد.
وعده های نامتناسب سام به پروژه های تحقیقاتی برای محاسبه سهمیه ها، باعث بی اعتمادی داخلی و درگیری های داخلی می شود.
با وجود شواهد فزاینده از تخلفات سام و گرگ، کسانی که در OpenAI باقی میمانند همچنان کورکورانه از رهبری خود پیروی میکنند، حتی با هزینههای شخصی قابل توجه. این وفاداری تزلزل ناپذیر از ترکیبی از ترس از مجازات و جذابیت سودهای مالی بالقوه از طریق واحدهای مشارکت در سود OpenAI ناشی می شود.
ساختار حاکمیت OpenAI که به طور خاص توسط سام و گرگ طراحی شده است، عمداً کارمندان را از نظارت بر عملیات انتفاعی منزوی می کند، دقیقاً به دلیل تضاد منافع ذاتی آنها. این ساختار غیرشفاف به سام و گرگ امکان میدهد تا با مصونیت از مجازات و مصون از پاسخگویی عمل کنند.
ما از هیئت مدیره OpenAI می خواهیم که در برابر این اقدامات غیراخلاقی موضع قاطعانه ای اتخاذ کند و تحقیقات مستقلی را در مورد رفتار سام و گرگ آغاز کند. ما بر این باوریم که ماموریت OpenAI آنقدر مهم است که برنامه های شخصی چند نفر به خطر بیفتد.
ما از شما، هیئت مدیره، خواهش می کنیم که در تعهد خود به ماموریت اصلی OpenAI ثابت قدم باشید و تسلیم فشارهای منافع مبتنی بر سود نشوید. آینده هوش مصنوعی و رفاه بشریت به تعهد تزلزل ناپذیر شما به رهبری اخلاقی و شفافیت بستگی دارد.
خالصانه،
نگران کارمندان سابق OpenAI
مخاطب
ما کارمندان سابق OpenAI را تشویق میکنیم که با ما به آدرس previously_openai@mail2tor.com تماس بگیرند. ما شخصاً ناشناس بودن همه را در هر گونه گفتگوهای داخلی و ارتباطات عمومی تضمین می کنیم.
به روز رسانی های بیشتر
به روز رسانی ها در https://board.net/p/r.e6a8f6578787a4cc67d4dc438c6d236e پست می شود
ادامه مطلب برای عموم
https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/
https://www.theatlantic.com/technology/archive/2023/11/sam-altman-open-ai-chatgpt-chaos/676050/
Third, my prior is strongly against Sam after working for him for two years at OpenAI:
۱٫ He was always nice to me.
2. He lied to me on various occasions
3. He was deceptive, manipulative, and worse to others, including my close friends (again, only nice to me, for reasons)— Geoffrey Irving (@geoffreyirving) November 21, 2023
منبع: https://www.firstpost.com/tech/news-analysis/elon-musk-shares-anonymous-letter-he-received-detailing-sam-altmans-deceitful-actions-13420792.html