توسعه یک استراتژی هسته ای برای تامین انرژی مراکز داده

مایکروسافت به دنبال استخدام یک “مدیر برنامه اصلی فناوری هسته‌ای” است تا این شخص در حال توسعه استراتژی برای نحوه عملکرد خود مایکروسافت باشد. مراکز داده میزبانی ابر و هوش مصنوعی می توان با راکتورهای هسته ای کوچک کار کرد. سایر اپراتورهای دولتی و خصوصی زیرساخت‌های ابری بزرگ با سؤالات مشابهی روبرو هستند، زیرا هوش مصنوعی گرسنه در حال افزودن به کوه داده‌ای است که به طور تصاعدی در حال رشد است و به همراه آن نیاز به توان محاسباتی دیجیتال، ذخیره‌سازی و حتی الکتریسیته بیشتر دارد. شرکت ها و افراد برای کاهش سرعت یا حتی کاهش اشتها برای منابع بیشتر چه کاری می توانند انجام دهند؟

مایکروسافت اولین غول ابری است که علناً اعلام کرده است که استراتژی ای خواهد داشت که انرژی هسته ای خود را برای مستقل تر کردن خود از سوخت های فسیلی و ارائه آن نوع انرژی متمرکزی که برای ابر و هوش مصنوعی آینده مورد نیاز است، ارائه خواهد کرد. آگهی شغلی مشخص می کند که مدیر باید بر روی راکتورهای کوچک مدولار (SMR) تمرکز کند و یک استراتژی انرژی ریز راکتور ایجاد کند. این SMR ها نسبت به راکتورهای معمولی ارزان تر، متحرک تر و کم خطرتر هستند و CO2 منتشر نمی کنند. آنها همچنین می توانند تا ۳۵ مگاوات تولید کنند. چهار رآکتور از این دست احتمالا برای تامین انرژی یک مرکز داده کافی است.

این مرحله میانی ضروری به نظر می رسد زیرا دو اثر یکدیگر را تقویت می کنند. بحران جهانی انرژی که با جنگ در اوکراین آغاز شد، وابستگی ها را شفاف کرده و قیمت انرژی را گرانتر کرده است. در عین حال، موفقیت سریع ChatGPT و دیگر هوش مصنوعی های مبتنی بر مدل زبان های بزرگ، تمایل به داده ها و منابع محاسباتی بیشتر را تقویت کرده اند. فروش سخت افزار توسط Nvidia – متخصص در مراکز داده و هوش مصنوعی – به ۱۰٫۳۲ میلیارد دلار افزایش یافت که رشد ۱۷۱ درصدی نسبت به سال قبل را نشان می دهد.

اکنون، مایکروسافت اولین ارائه‌دهنده نرم‌افزار بزرگی است که به دنبال راه‌حل‌هایی برای تامین انرژی زیرساخت‌های رو به رشد خود بدون به خطر انداختن اهداف CO2 خود است. هر ارائه‌دهنده بزرگی، اعم از Apple، Alibaba، AWS، Google، IBM و غیره، باید از خود سؤال مشابهی در مورد نحوه رسیدگی به آن چالش بپرسند. هیچ‌کس نمی‌خواهد روند هوش مصنوعی را از دست بدهد، و همه آنها اهداف پایداری را به طور عمومی اعلام کرده‌اند – که اغلب توسط دولت‌های خودشان هدایت می‌شوند.

اما شرکت‌های خصوصی با زیرساخت ابری بزرگ خود نیز در همین معضل قرار دارند. هوش مصنوعی آنها با داده های خود به منظور ارائه آموزش داده شده است مشتریان خدمات هوشمند یا ارائه پیشنهادات مبتنی بر نرم افزار. پروژه بزرگ هوش مصنوعی تسلا در مورد رانندگی خودران ممکن است محبوب ترین این پروژه ها باشد. Dhaval Shroff با تشریح این رویکرد گفت: “این مانند ChatGPT است، اما برای خودروها.” او یکی از اعضای تیم خلبان خودکار در سازنده است. به دلایل متعدد – با حمایت از مالکیت معنوی که بزرگترین مورد است – این پروژه ها از منابع داخلی خود استفاده می کنند، به طوری که هوش مصنوعی یادگیری و ماهیت شرکت در دیوارهای خود باقی می ماند.

نیاز انرژی رو به رشد این زیرساخت جدید در تضاد با اهداف و اهداف سیاسی بسیاری از ابتکارات جهانی و اروپایی مانند COP26 و “معامله سبز اروپایی” در سال ۲۰۲۰ است. هدف از قرارداد سبز این است که اروپا را تا سال ۲۰۵۰ خنثی کند. این ابتکار با “استراتژی دیجیتال اروپایی” پیش می‌رود و به دنبال اطمینان از اینکه مراکز داده تا سال ۲۰۳۰ نسبت به آب و هوا خنثی هستند، انجام می‌شود. مارگرت وستاگر، معاون اجرایی کمیسیون اروپا، گفت: “ما نمی‌توانیم اجازه دهیم مصرف برق ما کاهش یابد. غیر قابل کنترل.” آژانس بین‌المللی انرژی می‌گوید که انتشار گازهای گلخانه‌ای از مراکز داده در سراسر جهان باید تا سال ۲۰۳۰ حداقل به نصف کاهش یابد. این قبل از گسترش ناگهانی هوش مصنوعی بود که حجم محاسبات و داده‌ها را افزایش دهد. صاحبان مراکز داده باید هر دو چالش را جدی بگیرند.

به یک علت رسیدگی کنید

رشد داده ها دوباره سرعت می گیرد، زیرا هوش مصنوعی هر چه اطلاعات بیشتری را قادر به ارزیابی باشد، سریعتر یاد می گیرد. و امروزه حجم داده ها در بیش از نیمی از شرکت ها به طور متوسط ​​۵۰ درصد در سال رشد می کند. با این حال، اکثر شرکت ها شرکت های خود را دارند زیرساخت فناوری اطلاعات مملو از داده ها، جایی که به طور متوسط ​​حتی ۷۰ درصد از محتوا را نمی دانند. در این داده‌های تاریک بدون ساختار، ویدیوهای گربه‌ها و همچنین منوی آخرین جشن کریسمس، نسخه‌های قدیمی پایگاه‌های داده، نتایج تحقیقات، همگی با داده‌هایی که باید برای مقاصد نظارتی و تجاری حفظ شوند، ترکیب شده‌اند.

این داده ها نیاز به پاکسازی دارند و نه تنها خطر دعوی قضایی را کاهش می دهند. هر کسی که ضایعات داده را پاکسازی و دفع کند، می‌تواند هوش مصنوعی خود را با محتوای باکیفیت تغذیه کند و فضایی را برای داده‌های جدید آزاد کند. برای این کار، داده ها باید با توجه به محتوا و ارزش آن برای شرکت، نمایه و طبقه بندی شوند. هوش مصنوعی نیز در اینجا نقش کلیدی در طبقه بندی محتوا با دقت و سرعت دارد.

شرکت ها باید به جای ادامه کار ده ها یا حتی صدها سیلو جداگانه، داده های خود را بر روی یک پلت فرم مشترک تجمیع کنند. در آنجا، این داده ها را می توان با استفاده از تکنیک های استاندارد مانند deduplication و فشرده سازی کاهش داد. نرخ کاهش ۹۶ درصدی در زندگی روزمره امکان پذیر است.

کاری که هر فردی می تواند انجام دهد

هر کاربر می تواند به کاهش مصرف کلی انرژی و کاهش سرعت رشد داده ها کمک کند، زیرا همه می توانند داده های خود را در فضای ابری جستجو کنند و موارد بی فایده را حذف کنند. این می‌تواند نسخه‌های X-fold همان عکس با چشم‌اندازی کمی متفاوت باشد، یا ویدیوهایی که زمانی خنده‌دار می‌آمدید و از آن زمان دیگر آن‌ها را تماشا نکرده‌اید. آن ویدیوی گربه، شاید. هر بیتی که می توانیم از طریق کاهش داده های ذخیره شده خود صرفه جویی کنیم، مصرف انرژی را کاهش می دهد. پس بیایید پاکسازی را شروع کنیم.

ما بهترین میزبانی وب سبز را معرفی کرده ایم.


منبع: https://www.techradar.com/pro/developing-a-nuclear-strategy-to-power-data-centers

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *