اعلامیه روز چهارشنبه در حالی منتشر می شود که دولت های سراسر جهان در حال بررسی چگونگی تنظیم صنعت نوپای هوش مصنوعی هستند. در ایالات متحده، سام آلتمن، مدیر عامل OpenAI، در ماه های اخیر. آلتمن به طور علنی گفته است که مقررات هوش مصنوعی «ضروری» است و OpenAI «مشتاق» برای همکاری با سیاستگذاران است. اما ما باید نسبت به چنین اعلامیه ها و در واقع تلاش هایی مانند تیم Superalignment OpenAI تردید داشته باشیم. سازمانهایی مانند OpenAI با تمرکز توجه عموم بر ریسکهای فرضی که ممکن است هرگز محقق نشوند، بار مقررات را به جای اینجا و اکنون به افق منتقل میکنند. مسائل بسیار فوری تری در مورد تعامل بین هوش مصنوعی و AI وجود دارد و سیاست گذاران باید امروز به آن بپردازند، نه فردا.
OpenAI در حال تشکیل یک تیم اختصاصی برای مدیریت خطرات هوش مصنوعی فوق هوشمند است. ابرهوش یک مدل هوش مصنوعی فرضی است که حتی از باهوش ترین و باهوش ترین انسان نیز باهوش تر است و به جای یک حوزه مانند برخی از مدل های نسل قبلی، در زمینه های مختلف تخصص برتر است. OpenAI معتقد است که چنین مدلی می تواند قبل از پایان دهه وارد شود. این سازمان غیرانتفاعی گفت: «فوقهوشها تأثیرگذارترین فناوری خواهد بود که بشر تا کنون اختراع کرده است و میتواند به ما در حل بسیاری از مهمترین مشکلات جهان کمک کند». اما قدرت عظیم ابر هوش نیز می تواند بسیار خطرناک باشد و می تواند منجر به ناتوانی بشریت یا حتی انقراض انسان شود.
تیم جدید توسط دانشمند ارشد OpenAI Ilya Sutskever و Jan Leike، رئیس همترازی آزمایشگاه تحقیقاتی هدایت خواهد شد. علاوه بر این، OpenAI گفت که 20 درصد از توان محاسباتی ایمن فعلی خود را با هدف توسعه یک ابتکار اختصاص خواهد داد. چنین سیستمی از نظر تئوری به OpenAI کمک میکند تا اطمینان حاصل شود که ابرهوشی برای استفاده ایمن و همسو با ارزشهای انسانی است. OpenAI گفت: “در حالی که این یک هدف فوق العاده جاه طلبانه است و ما تضمینی برای موفقیت نداریم، ما خوشبین هستیم که یک تلاش متمرکز و هماهنگ می تواند این مشکل را حل کند.” ایدههای زیادی وجود دارد که در آزمایشهای اولیه امیدوارکننده بوده است، ما معیارهای مفیدی برای پیشرفت داریم و میتوانیم از مدلهای امروزی برای مطالعه تجربی بسیاری از این مشکلات استفاده کنیم.» این آزمایشگاه اضافه کرد که در آینده یک نقشه راه به اشتراک خواهد گذاشت.