ایالات متحده و بریتانیا برای آزمایش ایمنی مدل های هوش مصنوعی با یکدیگر همکاری می کنند

ایالات متحده و بریتانیا برای آزمایش ایمنی مدل های هوش مصنوعی با یکدیگر همکاری می کنند

OpenAI، Google، Anthropic و سایر شرکت‌هایی که هوش مصنوعی مولد را توسعه می‌دهند، به بهبود فناوری‌های خود و انتشار مدل‌های زبان بزرگ بهتر و بهتر ادامه می‌دهند. به منظور ایجاد یک رویکرد مشترک برای ارزیابی مستقل در مورد ایمنی این مدل‌ها در زمان عرضه، دولت‌های بریتانیا و ایالات متحده یادداشت تفاهم امضا کرده‌اند. مؤسسه ایمنی هوش مصنوعی بریتانیا و همتای آن در ایالات متحده، که توسط معاون رئیس جمهور کامالا هریس اعلام شد، اما هنوز عملیات خود را آغاز نکرده است، با هم مجموعه‌ای از آزمایش‌ها را برای ارزیابی خطرات و اطمینان از ایمنی «پیشرفته‌ترین مدل‌های هوش مصنوعی» توسعه خواهند داد. “

آنها در حال برنامه ریزی برای به اشتراک گذاشتن دانش فنی، اطلاعات و حتی پرسنل به عنوان بخشی از مشارکت هستند و به نظر می رسد یکی از اهداف اولیه آنها انجام یک تمرین آزمایشی مشترک بر روی یک مدل در دسترس عموم باشد. میشل دونلان، وزیر علوم بریتانیا که این توافقنامه را امضا کرده است، گفت فایننشال تایمز که آنها “واقعاً باید سریع عمل کنند” زیرا آنها انتظار دارند نسل جدیدی از مدل های هوش مصنوعی در سال آینده عرضه شوند. آنها بر این باورند که این مدل‌ها می‌توانند «تغییر دهندگان کامل بازی» باشند، و هنوز نمی‌دانند چه چیزی می‌توانند توانایی داشته باشند.

مطابق با زمان، این مشارکت اولین ترتیب دوجانبه در مورد ایمنی هوش مصنوعی در جهان است، اگرچه هر دو ایالات متحده و بریتانیا قصد دارند در آینده با سایر کشورها همکاری کنند. جینا ریموندو، وزیر بازرگانی ایالات متحده، گفت: “هوش مصنوعی فناوری تعیین کننده نسل ما است. این مشارکت کار هر دو مؤسسه ما را در سراسر طیف کامل خطرات، چه برای امنیت ملی ما و چه برای جامعه گسترده تر، سرعت می بخشد.” “مشارکت ما روشن می کند که ما از این نگرانی ها فرار نمی کنیم – ما به دنبال آنها هستیم. به دلیل همکاری ما، موسسات ما درک بهتری از سیستم های هوش مصنوعی به دست خواهند آورد، ارزیابی های قوی تری انجام می دهند و راهنمایی های دقیق تری صادر می کنند. “

در حالی که این مشارکت خاص بر روی آزمایش و ارزیابی متمرکز است، دولت‌ها در سراسر جهان نیز قوانینی را برای کنترل ابزارهای هوش مصنوعی ایجاد می‌کنند. در ماه مارس، کاخ سفید فرمان اجرایی را امضا کرد که هدف آن اطمینان از اینکه آژانس‌های فدرال فقط از ابزارهای هوش مصنوعی استفاده می‌کنند که «حقوق و ایمنی مردم آمریکا را به خطر نمی‌اندازد». چند هفته قبل از آن، پارلمان اروپا قانون گسترده ای را برای تنظیم هوش مصنوعی تصویب کرد. این قانون «هوش مصنوعی که رفتار انسانی را دستکاری می‌کند یا از آسیب‌پذیری‌های افراد سوءاستفاده می‌کند»، «سیستم‌های طبقه‌بندی بیومتریک بر اساس ویژگی‌های حساس» و همچنین «خراش دادن غیرهدفمند» چهره‌ها از فیلم‌های دوربین‌های مداربسته و وب برای ایجاد پایگاه‌های اطلاعاتی تشخیص چهره را ممنوع می‌کند. علاوه بر این، دیپ‌فیک‌ها و سایر تصاویر، ویدیوها و صداهای تولید شده توسط هوش مصنوعی باید به وضوح تحت قوانین آن برچسب‌گذاری شوند.

منبع