شرکتهای پیشرو هوش مصنوعی از جمله OpenAI، مایکروسافت، گوگل، متا و دیگران به طور مشترک متعهد شدهاند که از استفاده از ابزارهای هوش مصنوعی برای بهرهکشی از کودکان و تولید مواد سوء استفاده جنسی از کودکان (CSAM) جلوگیری کنند. این ابتکار توسط گروه ایمنی کودکان Thorn و All Tech Is Human، یک سازمان غیرانتفاعی متمرکز بر فناوری مسئول، رهبری شد.
تورن گفت، تعهدات شرکتهای هوش مصنوعی، «سابقهای پیشگامانه برای این صنعت ایجاد کرد و نشاندهنده یک جهش قابل توجه در تلاشها برای دفاع از کودکان در برابر سوء استفاده جنسی به عنوان ویژگی با هوش مصنوعی مولد است». هدف این ابتکار جلوگیری از ایجاد مطالب صریح جنسی شامل کودکان و حذف آن از پلتفرم های رسانه های اجتماعی و موتورهای جستجو است. تورن میگوید بیش از 104 میلیون فایل حاوی مطالب مشکوک به سوء استفاده جنسی از کودکان تنها در سال 2023 در ایالات متحده گزارش شده است. در غیاب اقدام جمعی، هوش مصنوعی مولد آماده است تا این مشکل را بدتر کند و سازمانهای مجری قانون را که در حال حاضر برای شناسایی قربانیان واقعی تلاش میکنند، تحت تأثیر قرار دهد.
روز سهشنبه، Thorn و All Tech Is Human مقاله جدیدی با عنوان «ایمنی با طراحی برای هوش مصنوعی تولیدکننده: جلوگیری از سوء استفاده جنسی از کودکان» منتشر کردند که استراتژیها و توصیههایی را برای شرکتهایی که ابزارهای هوش مصنوعی، موتورهای جستجو، پلتفرمهای رسانههای اجتماعی، شرکتهای میزبانی را میسازند، ارائه میکند. و توسعه دهندگان اقدامات لازم را برای جلوگیری از استفاده از هوش مصنوعی مولد برای آسیب رساندن به کودکان انجام دهند.
به عنوان مثال، یکی از توصیهها از شرکتها میخواهد که مجموعههای دادهای را انتخاب کنند که برای آموزش مدلهای هوش مصنوعی بهدقت استفاده میشود و از مجموعههایی که فقط حاوی نمونههایی از CSAM هستند، بلکه کلاً محتوای جنسی بزرگسالان را نیز شامل میشوند، به دلیل تمایل هوش مصنوعی مولد به ترکیب این دو مفهوم، اجتناب کنند. تورن همچنین از پلتفرمهای رسانههای اجتماعی و موتورهای جستجو میخواهد پیوندهایی به وبسایتها و برنامههایی که به افراد اجازه میدهد تصاویر کودکان را «برهنگی» کنند، حذف کنند، بنابراین مطالب جدید سوء استفاده جنسی از کودکان را بهصورت آنلاین ایجاد میکند. بر اساس این مقاله، سیل CSAM تولید شده توسط هوش مصنوعی، شناسایی قربانیان واقعی سوء استفاده جنسی از کودکان را با افزایش «مشکل انبار کاه» دشوارتر میکند – اشاره به مقدار محتوایی که سازمانهای مجری قانون باید در حال حاضر از آن استفاده کنند.
ربکا پورتنوف، نایب رئیس بخش علوم داده Thorn، گفت: “این پروژه کاملاً روشن است که شما نیازی به بالا انداختن دست ندارید.” مجله ی وال استریت. ما میخواهیم بتوانیم مسیر این فناوری را به جایی تغییر دهیم که آسیبهای موجود این فناوری از زانوها قطع شود.»
پورتنوف گفت، برخی از شرکتها قبلاً موافقت کردهاند که تصاویر، ویدیو و صداهای مربوط به کودکان را از مجموعه دادههای حاوی محتوای بزرگسالان جدا کنند تا مدلهایشان از ترکیب این دو جلوگیری کنند. دیگران همچنین واترمارک را برای شناسایی محتوای تولید شده توسط هوش مصنوعی اضافه می کنند، اما این روش اشتباه نیست – واترمارک ها و ابرداده ها را می توان به راحتی حذف کرد.