شرکت‌های پیشرو در زمینه هوش مصنوعی در جهان متعهد می‌شوند که از ایمنی کودکان آنلاین محافظت کنند

شرکت‌های پیشرو در زمینه هوش مصنوعی در جهان متعهد می‌شوند که از ایمنی کودکان آنلاین محافظت کنند

شرکت‌های پیشرو هوش مصنوعی از جمله OpenAI، مایکروسافت، گوگل، متا و دیگران به طور مشترک متعهد شده‌اند که از استفاده از ابزارهای هوش مصنوعی برای بهره‌کشی از کودکان و تولید مواد سوء استفاده جنسی از کودکان (CSAM) جلوگیری کنند. این ابتکار توسط گروه ایمنی کودکان Thorn و All Tech Is Human، یک سازمان غیرانتفاعی متمرکز بر فناوری مسئول، رهبری شد.

تورن گفت، تعهدات شرکت‌های هوش مصنوعی، «سابقه‌ای پیشگامانه برای این صنعت ایجاد کرد و نشان‌دهنده یک جهش قابل توجه در تلاش‌ها برای دفاع از کودکان در برابر سوء استفاده جنسی به عنوان ویژگی با هوش مصنوعی مولد است». هدف این ابتکار جلوگیری از ایجاد مطالب صریح جنسی شامل کودکان و حذف آن از پلتفرم های رسانه های اجتماعی و موتورهای جستجو است. تورن می‌گوید بیش از 104 میلیون فایل حاوی مطالب مشکوک به سوء استفاده جنسی از کودکان تنها در سال 2023 در ایالات متحده گزارش شده است. در غیاب اقدام جمعی، هوش مصنوعی مولد آماده است تا این مشکل را بدتر کند و سازمان‌های مجری قانون را که در حال حاضر برای شناسایی قربانیان واقعی تلاش می‌کنند، تحت تأثیر قرار دهد.

روز سه‌شنبه، Thorn و All Tech Is Human مقاله جدیدی با عنوان «ایمنی با طراحی برای هوش مصنوعی تولیدکننده: جلوگیری از سوء استفاده جنسی از کودکان» منتشر کردند که استراتژی‌ها و توصیه‌هایی را برای شرکت‌هایی که ابزارهای هوش مصنوعی، موتورهای جستجو، پلتفرم‌های رسانه‌های اجتماعی، شرکت‌های میزبانی را می‌سازند، ارائه می‌کند. و توسعه دهندگان اقدامات لازم را برای جلوگیری از استفاده از هوش مصنوعی مولد برای آسیب رساندن به کودکان انجام دهند.

به عنوان مثال، یکی از توصیه‌ها از شرکت‌ها می‌خواهد که مجموعه‌های داده‌ای را انتخاب کنند که برای آموزش مدل‌های هوش مصنوعی به‌دقت استفاده می‌شود و از مجموعه‌هایی که فقط حاوی نمونه‌هایی از CSAM هستند، بلکه کلاً محتوای جنسی بزرگسالان را نیز شامل می‌شوند، به دلیل تمایل هوش مصنوعی مولد به ترکیب این دو مفهوم، اجتناب کنند. تورن همچنین از پلتفرم‌های رسانه‌های اجتماعی و موتورهای جستجو می‌خواهد پیوندهایی به وب‌سایت‌ها و برنامه‌هایی که به افراد اجازه می‌دهد تصاویر کودکان را «برهنگی» کنند، حذف کنند، بنابراین مطالب جدید سوء استفاده جنسی از کودکان را به‌صورت آنلاین ایجاد می‌کند. بر اساس این مقاله، سیل CSAM تولید شده توسط هوش مصنوعی، شناسایی قربانیان واقعی سوء استفاده جنسی از کودکان را با افزایش «مشکل انبار کاه» دشوارتر می‌کند – اشاره به مقدار محتوایی که سازمان‌های مجری قانون باید در حال حاضر از آن استفاده کنند.

ربکا پورتنوف، نایب رئیس بخش علوم داده Thorn، گفت: “این پروژه کاملاً روشن است که شما نیازی به بالا انداختن دست ندارید.” مجله ی وال استریت. ما می‌خواهیم بتوانیم مسیر این فناوری را به جایی تغییر دهیم که آسیب‌های موجود این فناوری از زانوها قطع شود.»

پورتنوف گفت، برخی از شرکت‌ها قبلاً موافقت کرده‌اند که تصاویر، ویدیو و صداهای مربوط به کودکان را از مجموعه داده‌های حاوی محتوای بزرگسالان جدا کنند تا مدل‌هایشان از ترکیب این دو جلوگیری کنند. دیگران همچنین واترمارک را برای شناسایی محتوای تولید شده توسط هوش مصنوعی اضافه می کنند، اما این روش اشتباه نیست – واترمارک ها و ابرداده ها را می توان به راحتی حذف کرد.

منبع