آینده هوش مصنوعی مبتنی بر بلاکچین
- 03 آذر 1403
- بازدید : 1437 بار
بریتانیا اولین دستورالعمل جهانی را برای تضمین امنیت ابزارهای هوش مصنوعی (AI) از طریق یک توافق نامه عمومی غیر الزام آور که توسط 18 کشور از جمله ایالات متحده، سنگاپور، استرالیا، شیلی، آلمان، اسرائیل و ژاپن امضا شده است، معرفی کرده است. این دستورالعمل که توسط مرکز ملی امنیت سایبری بریتانیا (NCSC) و آژانس امنیت سایبری و امنیت زیرساخت ایالات متحده (CISA) توسعه یافته و توسط اعضای G7 تأیید شده است، رویکرد "ایمن بر اساس طراحی" را برای محافظت از سیستم های هوش مصنوعی در برابر حملات سایبری ترویج می کند. حوزه های کلیدی تحت پوشش شامل طراحی، توسعه، استقرار و بهره برداری ایمن است که بر امنیت به عنوان یک نیاز اصلی در طول فرآیند توسعه تاکید دارد. این دستورالعمل ها بهترین شیوه ها را برای مدل سازی تهدید، امنیت زنجیره تامین، حفاظت از زیرساخت، انتشار مدل مسئول و نظارت مستمر پس از استقرار ارائه می دهد. در حالی که به نگرانیها در مورد توسعه اخلاقی هوش مصنوعی پرداخته میشود، دستورالعملها مسائل مربوط به محتوای تولید شده توسط هوش مصنوعی یا دادههای مورد استفاده برای آموزش را پوشش نمیدهند. این توافق بخشی از تلاشهای جهانی برای ایجاد استانداردهای اخلاقی برای توسعه هوش مصنوعی است و از ابتکاراتی مانند دستور اجرایی جو بایدن، رئیسجمهور ایالات متحده در مورد آزمایشهای ایمنی هوش مصنوعی پیروی میکند.
توافقنامه امنیتی اخیر هوش مصنوعی مهم است زیرا نشان دهنده اولین دستورالعمل جهانی در جهان برای تضمین امنیت ابزارهای هوش مصنوعی (AI) است. این شامل 18 کشور، از جمله بازیگران اصلی مانند ایالات متحده، بریتانیا، سنگاپور، استرالیا و آلمان است که یک توافق نامه عمومی غیر الزام آور را برای ترویج رویکرد "ایمن بر اساس طراحی" امضا می کنند که بر امنیت سایبری در هر مرحله از فرآیند توسعه هوش مصنوعی تاکید می کند.
دستورالعمل ها بر چهار حوزه کلیدی تمرکز دارند: طراحی ایمن، توسعه ایمن، استقرار ایمن، و بهره برداری و نگهداری ایمن. آنها از یک رویکرد جامع حمایت می کنند و به مسائلی مانند مدل سازی تهدید، امنیت زنجیره تامین، حفاظت از زیرساخت ها، انتشار مدل مسئول و نظارت مستمر پس از استقرار می پردازند. هدف این است که امنیت سایبری به عنوان یک نیاز اصلی در کل چرخه عمر توسعه الگوریتمهای هوش مصنوعی تعبیه شود.
در حالی که دستورالعمل ها در درجه اول بر جنبه های امنیت سایبری تمرکز دارند، آنها به صراحت به نگرانی های مربوط به محتوای تولید شده توسط هوش مصنوعی یا داده های مورد استفاده برای آموزش توجه نمی کنند. هدف اصلی این توافق، ایمن سازی سیستم های هوش مصنوعی در برابر تهدیدات سایبری است. ملاحظات اخلاقی مرتبط با هوش مصنوعی، مانند سوگیری در الگوریتمها یا پیامدهای اجتماعی، مستقیماً در این دستورالعملها پوشش داده نمیشوند. با این حال، ابتکار جهانی نشان دهنده تلاش های مداوم دولت ها برای ایجاد استانداردهای اخلاقی برای توسعه فناوری های هوش مصنوعی است.