ریپل به 2 دلار نزدیک شد؛ رشد سریع RCO Finance
- 22 شهریور 1403
- بازدید : 693 بار
شرکتهای بزرگ فناوری از جمله ادوبی، آمازون، گوگل، آیبیام، متا، مایکروسافت، اوپنآی و تیک تاک، قراردادی داوطلبانه برای اتخاذ «اقدامات احتیاطی معقول» در برابر استفاده از هوش مصنوعی (AI) برای برهم زدن انتخابات دموکراتیک در سطح جهان امضا کردهاند. این توافق که در کنفرانس امنیتی مونیخ اعلام شد، به تهدید دیپفیکهای تولید شده توسط هوش مصنوعی میپردازد که ظاهر، صدا یا عملکرد شخصیتهای سیاسی را دستکاری میکنند و اطلاعات نادرست را در اختیار رایدهندگان قرار میدهند. در حالی که این توافق تا حد زیادی نمادین است، اما روشهایی را برای شناسایی و برچسبگذاری محتوای فریبنده هوش مصنوعی در پلتفرمهای آنها، با تمرکز بر شفافیت و آموزش برای کاربران، تشریح میکند. این تعهد به عنوان پاسخی به تهدید فزاینده مداخله در انتخابات ناشی از هوش مصنوعی تلقی می شود، با برگزاری انتخابات در بیش از 50 کشور در سال 2024. منتقدان به ماهیت داوطلبانه این توافق اشاره می کنند و خواستار اقدامات قوی تر برای محافظت در برابر تهدیدات هوش مصنوعی در انتخابات هستند.
هدف از این پیمان تشویق شرکت های بزرگ فناوری از جمله Adobe، Amazon، Google، IBM، Meta، Microsoft، OpenAI، و TikTok است تا اقدامات داوطلبانه و اقدامات احتیاطی را در برابر استفاده از ابزارهای هوش مصنوعی برای ایجاد اختلال ایجاد کنند. انتخابات دموکراتیک در سطح جهانی تمرکز بر روی پرداختن به تهدید ناشی از دیپفیکهای تولید شده توسط هوش مصنوعی است که میتوانند ظاهر، صدا یا اقدامات شخصیتهای سیاسی را دستکاری کنند و اطلاعات نادرست را به رای دهندگان منتقل کنند.
این توافق متعهد به ممنوعیت یا حذف دیپ فیک نیست. در عوض، روشهایی را برای شناسایی و برچسبگذاری محتوای فریبنده هوش مصنوعی در هنگام ایجاد یا توزیع در پلتفرمهای آنها تشریح میکند. این شرکتها موافقت میکنند که بهترین شیوهها را به اشتراک بگذارند، در صورت انتشار محتوای فریبنده، پاسخهای سریع ارائه دهند، و بر شفافیت در مورد سیاستهای خود در مورد محتوای انتخاباتی فریبنده هوش مصنوعی تمرکز کنند. تعهدات در این توافقنامه عمدتاً نمادین هستند و شرکت ها متعهد می شوند که به زمینه، به ویژه حفاظت از بیان آموزشی، مستند، هنری، طنز و سیاسی توجه کنند.
منتقدان نسبت به داوطلبانه بودن توافق و نبود الزامات الزام آور ابراز نگرانی کرده اند. برخی استدلال می کنند که زبان توافقنامه به آن اندازه که انتظار می رود قوی نیست و فعالان دموکراسی خواه و ناظران ممکن است آن را ناکافی بدانند. منتقدان ضمن اذعان به منافع شرکتها در جلوگیری از سوء استفاده از ابزارهایشان برای تضعیف انتخابات، بر نیاز به تضمینهای قویتر تاکید میکنند. این توافق در مورد اثربخشی آن در پرداختن به استفاده شرورانه احتمالی از هوش مصنوعی در انتخابات مورد بررسی قرار میگیرد و ناظران نظارت خواهند کرد که آیا شرکتها به تعهدات خود عمل میکنند یا خیر.