آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.
ممکن است در ابتدا فناوری پیشرفته و بچههای جوان کاملاً نامرتبط به نظر برسند، اما برخی از سیستمهای هوش مصنوعی و کودکان نوپا بیشتر از آنچه فکر میکنید مشترک هستند. درست مانند کودکان نوپا کنجکاو که به همه چیز می پردازند، هوش مصنوعی از طریق اکتشاف داده محور حجم عظیمی از اطلاعات یاد می گیرد. اجازه دادن به کودک نوپا وحشیانه باعث بروز فاجعه می شود و به همین ترتیب، هوش مصنوعی مولد مدل ها نیز آماده رها شدن بدون مراقبت نیستند.
بدون دخالت انسان، ژنرال هوش مصنوعی نمیداند چگونه بگوید: «نمیدانم». الگوریتم از هر مدل زبانی که به آن دسترسی دارد ادامه میدهد تا با اطمینان شگفتانگیزی به پرسشها پاسخ دهد. مشکل آن رویکرد؟ پاسخ ها می توانند نادرست یا مغرضانه باشند.
شما هرگز از یک کودک نوپا مغرور و جسور انتظار حقیقت صریح ندارید، و مهم است که به طور مشابه نسبت به پاسخ های ژنرال هوش مصنوعی محتاط باشید. بسیاری از مردم در حال حاضر هستند – تحقیقات فوربس نشان داد که بیش از ۷۵ درصد از مصرف کنندگان نگران ارائه اطلاعات نادرست هوش مصنوعی باشید.
خوشبختانه، لازم نیست هوش مصنوعی را به حال خود رها کنیم. بیایید به دردهای رو به رشد ژنرال هوش مصنوعی و چگونگی اطمینان از میزان مناسب مشارکت انسانی نگاه کنیم.
مشکلات هوش مصنوعی بدون نظارت
اما واقعاً، چه سر و صدایی وجود دارد که اجازه دهیم هوش مصنوعی کار خود را انجام دهد؟ برای نشان دادن مشکلات احتمالی هوش مصنوعی بدون نظارت، اجازه دهید با یک حکایت شروع کنیم. در کالج، من در آخرین مرحله مصاحبه برای کارآموزی با یک شرکت سرمایه گذاری بودم. رئیس شرکت بحث را با من رهبری می کرد و سؤالات او به سرعت از عمق دانش من فراتر رفت.
علیرغم این واقعیت، من همچنان با اطمینان پاسخ دادم و هی، فکر کردم خیلی باهوش به نظر می رسم! با این حال، وقتی مصاحبه به پایان رسید، او به من اجازه داد یک «راز» وارد کنم: او میدانست که من حرفهای مزخرف میزنم، و ادامه دادن این حرفهای مزخرف من را تبدیل به خطرناکترین نوع کارمندی کرد که میتوانستند استخدام کنند – فردی باهوش که تمایلی به گفتن نداشت. من نمی دانم.
ژنرال هوش مصنوعی دقیقاً آن نوع کارمند خطرناک است. با اطمینان پاسخهای اشتباه را ارائه میکند و مردم را فریب میدهد تا دروغهای آن را بپذیرند، زیرا گفتن «نمیدانم» بخشی از برنامهنویسی آن نیست. این توهمات در صنعت صحبت میکنند، اگر به عنوان واقعیت ارائه شوند و کسی نباشد که صحت خروجی هوش مصنوعی را بررسی کند، میتواند باعث ایجاد مشکل شود.
فراتر از ایجاد پاسخهای کاملاً اشتباه، خروجی هوش مصنوعی این پتانسیل را نیز دارد که کاملاً دارایی شخص دیگری را به سرقت ببرد. از آنجایی که هوش مصنوعی بر روی حجم وسیعی از داده ها آموزش دیده است، می تواند پاسخی ایجاد کند که دقیقاً کار شخص دیگری را تکرار می کند و به طور بالقوه مرتکب سرقت ادبی یا نقض حق چاپ می شود.
مسئله دیگر؟ منابع داده های هوش مصنوعی برای پاسخ ها شامل سوگیری های ناخودآگاه (و آگاهانه) مهندسان انسانی است. اجتناب از این سوگیری ها دشوار است و می تواند منجر شود نسل هوش مصنوعی برای تولید محتوایی که ناخواسته برای گروههای خاصی تعصب دارد یا ناعادلانه است زیرا کلیشهها را تداوم میبخشد.
به عنوان مثال، هوش مصنوعی ممکن است فرضیات توهین آمیز و تبعیض آمیز مبتنی بر نژاد داشته باشد زیرا داده هایی که از آن استخراج می کند حاوی اطلاعاتی است که علیه یک گروه خاص تعصب دارد. اما از آنجایی که این فقط یک ابزار است، نمیتوانیم هوش مصنوعی را مسئول پاسخهای آن بدانیم. با این حال، کسانی که آن را به کار می گیرند، می توانند باشند.
بچه های نوپا ما را به یاد دارید؟ آنها هنوز در حال یادگیری نحوه رفتار در دنیای مشترک ما هستند. چه کسی مسئول هدایت آنهاست؟ بزرگسالان در زندگی خود. انسانها بزرگسالانی هستند که مسئول تأیید خروجی هوش مصنوعی «در حال رشد» ما و انجام اصلاحات در صورت لزوم هستند.
راه درست چگونه به نظر می رسد
استفاده مسئولانه از ژن AI امکان پذیر است. از آنجایی که رفتار هوش مصنوعی منعکس کننده داده های آموزشی آن است، تصور درستی در مقابل نادرست ندارد. فقط «مشابه تر» و «کمتر شبیه» را می داند. اگرچه این یک فناوری دگرگونکننده و هیجانانگیز است، اما هنوز کار زیادی باید انجام شود تا آن را به رفتاری ثابت، صحیح و قابل پیشبینی وادار کنید تا سازمان شما بتواند حداکثر ارزش را از آن استخراج کند و توهمات را دور نگه دارد. برای کمک به این کار، من سه مرحله را که شرکتها میتوانند برای استفاده درست از خطرناکترین کارمند خود انجام دهند، بیان کردهام.
۱٫ کار تیمی باعث می شود رویا کار کند
ژنرال هوش مصنوعی کاربردهای زیادی در محیط کسب و کار دارد. می تواند به حل بسیاری از مشکلات کمک کند، اما همیشه نمی تواند به طور مستقل راه حل های قانع کننده ای ارائه دهد. با این حال، با مجموعه ای مناسب از فناوری ها، مزایای آن می تواند شکوفا شود در حالی که نقاط ضعف آن کاهش می یابد.
به عنوان مثال، اگر یک ابزار هوش مصنوعی ژنتیکی را برای اهداف خدمات مشتری پیادهسازی میکنید، مطمئن شوید که پایگاه دانش منبع دادههای تمیزی دارد. برای حفظ بهداشت دادهها، روی ابزاری سرمایهگذاری کنید که دادهها و اطلاعاتی را که هوش مصنوعی از آن استخراج میکند، تمیز و بهروز نگه میدارد. هنگامی که داده های خوبی به دست آوردید، می توانید ابزار خود را به دقت تنظیم کنید تا بهترین پاسخ ها را ارائه دهید. برای ایجاد یک تجربه عالی برای مشتری نیاز به دهکده ای از فناوری ها است. ژنرال هوش مصنوعی تنها یکی از اعضای آن دهکده است. سازمانهایی که تصمیم میگیرند به تنهایی با مشکلات سخت هوش مصنوعی مقابله کنند، این کار را با مسئولیت خود انجام میدهند.
۲٫ همه چیز در یک روز کاری: به هوش مصنوعی شغل مناسب بدهید
هوش مصنوعی در بسیاری از وظایف برتر است، اما محدودیت هایی دارد. بیایید نمونه خدمات مشتری خود را دوباره مرور کنیم. ژنرال هوش مصنوعی گاهی اوقات با مکالمات رویه ای که مستلزم تکمیل مراحل به ترتیب خاصی است، مشکل دارد. یک مدل مبتنی بر هدف احتمالاً نتایج بهتری را به همراه خواهد داشت زیرا پاسخهای genAI و انجام وظایف در این «شغل» متناقض هستند.
اما درخواست از هوش مصنوعی برای انجام کاری که در آن خوب است – مانند ترکیب اطلاعات از تماس مشتری یا خروجی یک خلاصه مکالمه – نتایج بسیار بهتری به همراه دارد. میتوانید درباره این مکالمات سؤالات ویژه هوش مصنوعی بپرسید و از پاسخها اطلاعاتی به دست آورید.
۳٫ با آموزش مناسب هوش مصنوعی را از ریل دور نگه دارید
به استراتژی هوش مصنوعی خود مانند توسعه استعدادها نزدیک شوید – این یک کارمند اثبات نشده است که نیاز به آموزش دارد. با استفاده از مجموعه داده های منحصر به فرد سازمان خود، اطمینان حاصل می کنید که ابزار هوش مصنوعی ژنرال شما به روشی خاص برای سازمان شما پاسخ می دهد.
به عنوان مثال، از داده های مشتری سازمان خود برای آموزش هوش مصنوعی خود استفاده کنید، که منجر به تجربیات شخصی مشتری – و مشتریان شادتر و راضی تر می شود. با تنظیم استراتژی خود و تکمیل داده های آموزشی خود، می توانید غیرقابل پیش بینی ترین کارمند خود را به یک متحد قابل اعتماد تبدیل کنید.
چرا حالا؟
صنعت هوش مصنوعی به ویژه در سال ها و ماه های اخیر منفجر شده است. تخمین زده شده است تقریباً ۸۹ میلیارد دلار در سال ۲۰۲۲، افزایش شهاب سنگی صنعت هیچ نشانه ای از کاهش را نشان نمی دهد. در واقع، کارشناسان پیش بینی می کنند که ارزش بازار هوش مصنوعی تا سال ۲۰۲۷ به ۴۰۷ میلیارد دلار برسد.
اگرچه محبوبیت و استفاده از این ابزارهای پیچیده همچنان در حال افزایش است، ایالات متحده هنوز فاقد مقررات فدرال حاکم بر استفاده از آنها است. بدون راهنمایی قانونی، این به هر فردی بستگی دارد که از یک ابزار هوش مصنوعی ژنرال استفاده کند تا از استفاده اخلاقی و مسئولانه آن اطمینان حاصل کند. رهبران کسبوکار باید بر هوش مصنوعی خود نظارت داشته باشند تا اگر پاسخها شروع به انحراف به قلمرو نادرست فاجعهبار کرد، بتوانند به سرعت مداخله کنند.
قبل از اینکه این فناوری بیشتر پیشرفت کند و به طور کامل در عملیات مستقر شود، سازمان های آینده نگر سیاست هایی را در زمینه استفاده اخلاقی از هوش مصنوعی برای ایجاد بالاترین استانداردهای ممکن و قرار دادن خود در جلوتر از منحنی قوانین آتی اجرا خواهند کرد.
اگرچه نمیتوانیم هوش مصنوعی را تنها بگذاریم، اما همچنان میتوانیم با استفاده از ابزارهای مناسب با این فناوری، مسئولیتپذیری از مزایای آن بهکار ببریم، کار درست را به آن بدهیم و آن را به درستی آموزش دهیم. مرحله کودکی نوپا، مانند این دوره از نسل هوش مصنوعی، می تواند مملو از مشکلات باشد، اما هر چالشی فرصتی برای بهبود و دستیابی به موفقیت پایدار است.
یان ژانگ مدیر ارشد اجرایی است PolyAI.
DataDecisionMakers
به انجمن VentureBeat خوش آمدید!
DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.
اگر میخواهید درباره ایدههای پیشرفته و اطلاعات بهروز، بهترین شیوهها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.
حتی ممکن است در نظر بگیرید مشارکت در مقاله از خودت!
منبع: https://venturebeat.com/ai/generative-ai-is-a-toddler-dont-let-it-run-your-business/