مایکروسافت به دنبال استخدام یک “مدیر برنامه اصلی فناوری هستهای” است تا این شخص در حال توسعه استراتژی برای نحوه عملکرد خود مایکروسافت باشد. مراکز داده میزبانی ابر و هوش مصنوعی می توان با راکتورهای هسته ای کوچک کار کرد. سایر اپراتورهای دولتی و خصوصی زیرساختهای ابری بزرگ با سؤالات مشابهی روبرو هستند، زیرا هوش مصنوعی گرسنه در حال افزودن به کوه دادهای است که به طور تصاعدی در حال رشد است و به همراه آن نیاز به توان محاسباتی دیجیتال، ذخیرهسازی و حتی الکتریسیته بیشتر دارد. شرکت ها و افراد برای کاهش سرعت یا حتی کاهش اشتها برای منابع بیشتر چه کاری می توانند انجام دهند؟
مایکروسافت اولین غول ابری است که علناً اعلام کرده است که استراتژی ای خواهد داشت که انرژی هسته ای خود را برای مستقل تر کردن خود از سوخت های فسیلی و ارائه آن نوع انرژی متمرکزی که برای ابر و هوش مصنوعی آینده مورد نیاز است، ارائه خواهد کرد. آگهی شغلی مشخص می کند که مدیر باید بر روی راکتورهای کوچک مدولار (SMR) تمرکز کند و یک استراتژی انرژی ریز راکتور ایجاد کند. این SMR ها نسبت به راکتورهای معمولی ارزان تر، متحرک تر و کم خطرتر هستند و CO2 منتشر نمی کنند. آنها همچنین می توانند تا ۳۵ مگاوات تولید کنند. چهار رآکتور از این دست احتمالا برای تامین انرژی یک مرکز داده کافی است.
این مرحله میانی ضروری به نظر می رسد زیرا دو اثر یکدیگر را تقویت می کنند. بحران جهانی انرژی که با جنگ در اوکراین آغاز شد، وابستگی ها را شفاف کرده و قیمت انرژی را گرانتر کرده است. در عین حال، موفقیت سریع ChatGPT و دیگر هوش مصنوعی های مبتنی بر مدل زبان های بزرگ، تمایل به داده ها و منابع محاسباتی بیشتر را تقویت کرده اند. فروش سخت افزار توسط Nvidia – متخصص در مراکز داده و هوش مصنوعی – به ۱۰٫۳۲ میلیارد دلار افزایش یافت که رشد ۱۷۱ درصدی نسبت به سال قبل را نشان می دهد.
اکنون، مایکروسافت اولین ارائهدهنده نرمافزار بزرگی است که به دنبال راهحلهایی برای تامین انرژی زیرساختهای رو به رشد خود بدون به خطر انداختن اهداف CO2 خود است. هر ارائهدهنده بزرگی، اعم از Apple، Alibaba، AWS، Google، IBM و غیره، باید از خود سؤال مشابهی در مورد نحوه رسیدگی به آن چالش بپرسند. هیچکس نمیخواهد روند هوش مصنوعی را از دست بدهد، و همه آنها اهداف پایداری را به طور عمومی اعلام کردهاند – که اغلب توسط دولتهای خودشان هدایت میشوند.
اما شرکتهای خصوصی با زیرساخت ابری بزرگ خود نیز در همین معضل قرار دارند. هوش مصنوعی آنها با داده های خود به منظور ارائه آموزش داده شده است مشتریان خدمات هوشمند یا ارائه پیشنهادات مبتنی بر نرم افزار. پروژه بزرگ هوش مصنوعی تسلا در مورد رانندگی خودران ممکن است محبوب ترین این پروژه ها باشد. Dhaval Shroff با تشریح این رویکرد گفت: “این مانند ChatGPT است، اما برای خودروها.” او یکی از اعضای تیم خلبان خودکار در سازنده است. به دلایل متعدد – با حمایت از مالکیت معنوی که بزرگترین مورد است – این پروژه ها از منابع داخلی خود استفاده می کنند، به طوری که هوش مصنوعی یادگیری و ماهیت شرکت در دیوارهای خود باقی می ماند.
نیاز انرژی رو به رشد این زیرساخت جدید در تضاد با اهداف و اهداف سیاسی بسیاری از ابتکارات جهانی و اروپایی مانند COP26 و “معامله سبز اروپایی” در سال ۲۰۲۰ است. هدف از قرارداد سبز این است که اروپا را تا سال ۲۰۵۰ خنثی کند. این ابتکار با “استراتژی دیجیتال اروپایی” پیش میرود و به دنبال اطمینان از اینکه مراکز داده تا سال ۲۰۳۰ نسبت به آب و هوا خنثی هستند، انجام میشود. مارگرت وستاگر، معاون اجرایی کمیسیون اروپا، گفت: “ما نمیتوانیم اجازه دهیم مصرف برق ما کاهش یابد. غیر قابل کنترل.” آژانس بینالمللی انرژی میگوید که انتشار گازهای گلخانهای از مراکز داده در سراسر جهان باید تا سال ۲۰۳۰ حداقل به نصف کاهش یابد. این قبل از گسترش ناگهانی هوش مصنوعی بود که حجم محاسبات و دادهها را افزایش دهد. صاحبان مراکز داده باید هر دو چالش را جدی بگیرند.
به یک علت رسیدگی کنید
رشد داده ها دوباره سرعت می گیرد، زیرا هوش مصنوعی هر چه اطلاعات بیشتری را قادر به ارزیابی باشد، سریعتر یاد می گیرد. و امروزه حجم داده ها در بیش از نیمی از شرکت ها به طور متوسط ۵۰ درصد در سال رشد می کند. با این حال، اکثر شرکت ها شرکت های خود را دارند زیرساخت فناوری اطلاعات مملو از داده ها، جایی که به طور متوسط حتی ۷۰ درصد از محتوا را نمی دانند. در این دادههای تاریک بدون ساختار، ویدیوهای گربهها و همچنین منوی آخرین جشن کریسمس، نسخههای قدیمی پایگاههای داده، نتایج تحقیقات، همگی با دادههایی که باید برای مقاصد نظارتی و تجاری حفظ شوند، ترکیب شدهاند.
این داده ها نیاز به پاکسازی دارند و نه تنها خطر دعوی قضایی را کاهش می دهند. هر کسی که ضایعات داده را پاکسازی و دفع کند، میتواند هوش مصنوعی خود را با محتوای باکیفیت تغذیه کند و فضایی را برای دادههای جدید آزاد کند. برای این کار، داده ها باید با توجه به محتوا و ارزش آن برای شرکت، نمایه و طبقه بندی شوند. هوش مصنوعی نیز در اینجا نقش کلیدی در طبقه بندی محتوا با دقت و سرعت دارد.
شرکت ها باید به جای ادامه کار ده ها یا حتی صدها سیلو جداگانه، داده های خود را بر روی یک پلت فرم مشترک تجمیع کنند. در آنجا، این داده ها را می توان با استفاده از تکنیک های استاندارد مانند deduplication و فشرده سازی کاهش داد. نرخ کاهش ۹۶ درصدی در زندگی روزمره امکان پذیر است.
کاری که هر فردی می تواند انجام دهد
هر کاربر می تواند به کاهش مصرف کلی انرژی و کاهش سرعت رشد داده ها کمک کند، زیرا همه می توانند داده های خود را در فضای ابری جستجو کنند و موارد بی فایده را حذف کنند. این میتواند نسخههای X-fold همان عکس با چشماندازی کمی متفاوت باشد، یا ویدیوهایی که زمانی خندهدار میآمدید و از آن زمان دیگر آنها را تماشا نکردهاید. آن ویدیوی گربه، شاید. هر بیتی که می توانیم از طریق کاهش داده های ذخیره شده خود صرفه جویی کنیم، مصرف انرژی را کاهش می دهد. پس بیایید پاکسازی را شروع کنیم.
منبع: https://www.techradar.com/pro/developing-a-nuclear-strategy-to-power-data-centers