روش حمله «گسترش» پیشرفتهتر و فشردهتر محاسباتی، تصویر را به عنوان تصویری متفاوت در چشم هوش مصنوعی استتار میکند. یک تصویر هدف را تعریف می کند و اغتشاشات در تصویر خود را به گونه ای بهینه می کند که شبیه به هدف خود باشد. هر ویرایشی که یک هوش مصنوعی سعی می کند روی این تصاویر “ایمن سازی شده” انجام دهد، برای تصاویر “هدف” جعلی اعمال می شود که منجر به ایجاد تصویری غیرواقعی می شود.
هادی سلمان، دانشجوی دکترای MIT و نویسنده اصلی مقاله، هادی سلمان، به Engadget گفت: «حمله رمزگذار باعث میشود مدل فکر کند که تصویر ورودی (که باید ویرایش شود) یک تصویر دیگر است (مثلاً یک تصویر خاکستری). تصویر محافظت شده را به طور بالقوه با افزودن نویز دیجیتال، برش دادن یا ورق زدن تصویر، بررسی کنید.
PhotoGuard با تغییر پیکسلهای منتخب در یک تصویر کار میکند تا توانایی هوش مصنوعی برای درک چیستی تصویر را مختل کند. آن «آشفتگیها»، همانطور که تیم تحقیقاتی به آنها اشاره میکند، برای چشم انسان نامرئی هستند، اما به راحتی توسط ماشینها قابل خواندن هستند. روش حمله «رمزگذار» برای معرفی این مصنوعات، نمایش نهفته مدل الگوریتمی از تصویر هدف را هدف قرار میدهد – ریاضیات پیچیدهای که موقعیت و رنگ هر پیکسل را در یک تصویر توصیف میکند – اساساً هوش مصنوعی را از درک آنچه که به آن نگاه میکند جلوگیری میکند.
Dall-E و Stable Diffusion تنها شروع بودند. همانطور که سیستمهای هوش مصنوعی مولد در حال گسترش هستند و شرکتها تلاش میکنند تا پیشنهادات خود را از رقبای خود متمایز کنند، رباتهای چت در سراسر اینترنت قدرت ویرایش تصاویر – و همچنین ایجاد آنها – را به دست میآورند و امثال Shutterstock و Adobe پیشرو هستند. اما با این قابلیتهای جدید تقویتشده با هوش مصنوعی، دامهایی مانند دستکاری غیرمجاز، یا سرقت آشکار آثار هنری و تصاویر آنلاین موجود به وجود میآید. تکنیکهای واترمارک میتواند به کاهش دومی کمک کند، در حالی که تکنیک جدید “PhotoGuard” که توسط MIT CSAIL توسعه یافته است میتواند به جلوگیری از اولی کمک کند.
یک رویکرد مشترک شامل توسعه دهندگان مدل، پلتفرم های رسانه های اجتماعی و سیاست گذاران، دفاعی قوی در برابر دستکاری تصویر غیرمجاز ارائه می دهد. سلمان در بیانیهای گفت: امروز کار روی این موضوع مهم از اهمیت بالایی برخوردار است. “و در حالی که من خوشحالم که در این راه حل مشارکت می کنم، کار زیادی برای عملی کردن این محافظت لازم است. شرکت هایی که این مدل ها را توسعه می دهند باید در مهندسی ایمن سازی قوی در برابر تهدیدات احتمالی ناشی از این ابزارهای هوش مصنوعی سرمایه گذاری کنند.”