آینده هوش مصنوعی مبتنی بر بلاکچین
- 01 آذر 1403
- بازدید : 1435 بار
دمیس حسابیس، مدیر اجرایی بریتانیایی واحد هوش مصنوعی گوگل، از جهان میخواهد که خطرات مرتبط با هوش مصنوعی (AI) را به اندازه بحران آب و هوا جدی بگیرد. درخواست Hassabis برای اقدام فوری در حالی مطرح می شود که دولت بریتانیا برای میزبانی نشستی در مورد ایمنی هوش مصنوعی آماده می شود. او پیشنهاد میکند یک نهاد نظارتی مشابه هیئت بیندولتی تغییرات آب و هوا (IPCC) برای رسیدگی به خطرات مرتبط با هوش مصنوعی، از جمله ایجاد سلاحهای زیستی و تهدید وجودی احتمالی ناشی از سیستمهای فوقهوشمند ایجاد شود.
Hassabis فرصتهای باورنکردنی را که هوش مصنوعی ارائه میکند، بهویژه در زمینههایی مانند پزشکی و علم تصدیق میکند، اما او همچنین نگرانیهای وجودی، بهویژه در مورد توسعه احتمالی سیستمهای هوش عمومی مصنوعی (AGI) با سطوح هوش انسانی یا بالاتر از انسان را بیان میکند. این سیستم های AGI به طور بالقوه می توانند از کنترل انسان فرار کنند.
Hassabis بر نیاز به تحقیقات فوری و بحث در مورد خطرات دراز مدت هوش مصنوعی تاکید می کند، حتی اگر توسعه AGI ممکن است دور از دسترس باشد. او پیشنهاد میکند که در حالی که سیستمهای هوش مصنوعی فعلی خطر قابلتوجهی نیستند، چند نسل بعدی با قابلیتهای اضافی مانند برنامهریزی و حافظه میتوانند خطراتی را ایجاد کنند.
اجلاس آتی که در بلچلی پارک برگزار میشود، بر تهدیدات سیستمهای هوش مصنوعی پیشرفته مرتبط با ایجاد سلاحهای زیستی، حملات سایبری و فرار از کنترل انسان متمرکز خواهد بود.
واحد هوش مصنوعی Hassabis به پیشرفت های قابل توجهی مانند برنامه AlphaGo و پروژه AlphaFold دست یافته است که هر دو پیامدهای قابل توجهی در زمینه های مختلف دارند.
اهمیت روزافزون هوش مصنوعی در جامعه منجر به افزایش توجه شده است، به ویژه پس از انتشار عمومی ChatGPT و ابزارهای تولید تصویر هوش مصنوعی. نگرانیهایی در مورد قدرت نسل بعدی مدلهای هوش مصنوعی وجود دارد که منجر به بحث در مورد استانداردهای ایمنی و دستورالعملهای آزمایشی میشود و کارگروه هوش مصنوعی مرزی دولت بریتانیا در این تلاش نقش دارد. Hassabis آینده ای را پیش بینی می کند که در آن مدل های هوش مصنوعی قبل از دریافت گواهینامه "Kitemark" تحت آزمایش های ایمنی متعدد قرار می گیرند.
Hassabis استدلال می کند که خطرات مرتبط با هوش مصنوعی، از جمله ایجاد بالقوه سلاح های زیستی و تهدید وجودی ناشی از سیستم های فوق هوشمند، باید با همان سطح جدیت بحران آب و هوایی برخورد شود تا از تاخیر در رسیدگی به این نگرانی ها جلوگیری شود.
Hassabis پیشنهاد میکند که نهادی مشابه هیئت بیندولتی تغییرات آب و هوایی (IPCC) میتواند با ارائه گزارشهای علمی و تحقیقاتی بر خطرات هوش مصنوعی نظارت کند. او یک سازمان بینالمللی متمرکز بر ایمنی هوش مصنوعی، شبیه به «سرن برای ایمنی هوش مصنوعی» و همچنین یک سازمان حسابرسی بالقوه مشابه آژانس بینالمللی انرژی اتمی (IAEA) را پیشبینی میکند.
نگرانی های وجودی در مورد هوش مصنوعی بر توسعه احتمالی سیستم های هوش عمومی مصنوعی (AGI) با سطوح هوش انسانی یا بالاتر از انسان متمرکز است که می تواند از کنترل انسان فرار کند. نشست آتی در بلچلی پارک بر روی تهدیدات ناشی از سیستمهای هوش مصنوعی پیشرفته، مانند ایجاد سلاحهای زیستی، حملات سایبری و فرار از کنترل انسانی تمرکز خواهد کرد و به این نگرانیها در جامعه هوش مصنوعی رسیدگی خواهد کرد.