![ایالات متحده و بریتانیا برای آزمایش ایمنی مدل های هوش مصنوعی با یکدیگر همکاری می کنند](https://videocardz.ir/wp-content/uploads/ایالات-متحده-و-بریتانیا-برای-آزمایش-ایمنی-مدل-های-هوش.jpeg)
OpenAI، Google، Anthropic و سایر شرکتهایی که هوش مصنوعی مولد را توسعه میدهند، به بهبود فناوریهای خود و انتشار مدلهای زبان بزرگ بهتر و بهتر ادامه میدهند. به منظور ایجاد یک رویکرد مشترک برای ارزیابی مستقل در مورد ایمنی این مدلها در زمان عرضه، دولتهای بریتانیا و ایالات متحده یادداشت تفاهم امضا کردهاند. مؤسسه ایمنی هوش مصنوعی بریتانیا و همتای آن در ایالات متحده، که توسط معاون رئیس جمهور کامالا هریس اعلام شد، اما هنوز عملیات خود را آغاز نکرده است، با هم مجموعهای از آزمایشها را برای ارزیابی خطرات و اطمینان از ایمنی «پیشرفتهترین مدلهای هوش مصنوعی» توسعه خواهند داد. “
آنها در حال برنامه ریزی برای به اشتراک گذاشتن دانش فنی، اطلاعات و حتی پرسنل به عنوان بخشی از مشارکت هستند و به نظر می رسد یکی از اهداف اولیه آنها انجام یک تمرین آزمایشی مشترک بر روی یک مدل در دسترس عموم باشد. میشل دونلان، وزیر علوم بریتانیا که این توافقنامه را امضا کرده است، گفت فایننشال تایمز که آنها “واقعاً باید سریع عمل کنند” زیرا آنها انتظار دارند نسل جدیدی از مدل های هوش مصنوعی در سال آینده عرضه شوند. آنها بر این باورند که این مدلها میتوانند «تغییر دهندگان کامل بازی» باشند، و هنوز نمیدانند چه چیزی میتوانند توانایی داشته باشند.
مطابق با زمان، این مشارکت اولین ترتیب دوجانبه در مورد ایمنی هوش مصنوعی در جهان است، اگرچه هر دو ایالات متحده و بریتانیا قصد دارند در آینده با سایر کشورها همکاری کنند. جینا ریموندو، وزیر بازرگانی ایالات متحده، گفت: “هوش مصنوعی فناوری تعیین کننده نسل ما است. این مشارکت کار هر دو مؤسسه ما را در سراسر طیف کامل خطرات، چه برای امنیت ملی ما و چه برای جامعه گسترده تر، سرعت می بخشد.” “مشارکت ما روشن می کند که ما از این نگرانی ها فرار نمی کنیم – ما به دنبال آنها هستیم. به دلیل همکاری ما، موسسات ما درک بهتری از سیستم های هوش مصنوعی به دست خواهند آورد، ارزیابی های قوی تری انجام می دهند و راهنمایی های دقیق تری صادر می کنند. “
در حالی که این مشارکت خاص بر روی آزمایش و ارزیابی متمرکز است، دولتها در سراسر جهان نیز قوانینی را برای کنترل ابزارهای هوش مصنوعی ایجاد میکنند. در ماه مارس، کاخ سفید فرمان اجرایی را امضا کرد که هدف آن اطمینان از اینکه آژانسهای فدرال فقط از ابزارهای هوش مصنوعی استفاده میکنند که «حقوق و ایمنی مردم آمریکا را به خطر نمیاندازد». چند هفته قبل از آن، پارلمان اروپا قانون گسترده ای را برای تنظیم هوش مصنوعی تصویب کرد. این قانون «هوش مصنوعی که رفتار انسانی را دستکاری میکند یا از آسیبپذیریهای افراد سوءاستفاده میکند»، «سیستمهای طبقهبندی بیومتریک بر اساس ویژگیهای حساس» و همچنین «خراش دادن غیرهدفمند» چهرهها از فیلمهای دوربینهای مداربسته و وب برای ایجاد پایگاههای اطلاعاتی تشخیص چهره را ممنوع میکند. علاوه بر این، دیپفیکها و سایر تصاویر، ویدیوها و صداهای تولید شده توسط هوش مصنوعی باید به وضوح تحت قوانین آن برچسبگذاری شوند.