“PhotoGuard” MIT از تصاویر شما در برابر ویرایش های مخرب هوش مصنوعی محافظت می کند

روش حمله «گسترش» پیشرفته‌تر و فشرده‌تر محاسباتی، تصویر را به عنوان تصویری متفاوت در چشم هوش مصنوعی استتار می‌کند. یک تصویر هدف را تعریف می کند و اغتشاشات در تصویر خود را به گونه ای بهینه می کند که شبیه به هدف خود باشد. هر ویرایشی که یک هوش مصنوعی سعی می کند روی این تصاویر “ایمن سازی شده” انجام دهد، برای تصاویر “هدف” جعلی اعمال می شود که منجر به ایجاد تصویری غیرواقعی می شود.

هادی سلمان، دانشجوی دکترای MIT و نویسنده اصلی مقاله، هادی سلمان، به Engadget گفت: «حمله رمزگذار باعث می‌شود مدل فکر کند که تصویر ورودی (که باید ویرایش شود) یک تصویر دیگر است (مثلاً یک تصویر خاکستری). تصویر محافظت شده را به طور بالقوه با افزودن نویز دیجیتال، برش دادن یا ورق زدن تصویر، بررسی کنید.

PhotoGuard با تغییر پیکسل‌های منتخب در یک تصویر کار می‌کند تا توانایی هوش مصنوعی برای درک چیستی تصویر را مختل کند. آن «آشفتگی‌ها»، همانطور که تیم تحقیقاتی به آن‌ها اشاره می‌کند، برای چشم انسان نامرئی هستند، اما به راحتی توسط ماشین‌ها قابل خواندن هستند. روش حمله «رمزگذار» برای معرفی این مصنوعات، نمایش نهفته مدل الگوریتمی از تصویر هدف را هدف قرار می‌دهد – ریاضیات پیچیده‌ای که موقعیت و رنگ هر پیکسل را در یک تصویر توصیف می‌کند – اساساً هوش مصنوعی را از درک آنچه که به آن نگاه می‌کند جلوگیری می‌کند.

Dall-E و Stable Diffusion تنها شروع بودند. همانطور که سیستم‌های هوش مصنوعی مولد در حال گسترش هستند و شرکت‌ها تلاش می‌کنند تا پیشنهادات خود را از رقبای خود متمایز کنند، ربات‌های چت در سراسر اینترنت قدرت ویرایش تصاویر – و همچنین ایجاد آن‌ها – را به دست می‌آورند و امثال Shutterstock و Adobe پیشرو هستند. اما با این قابلیت‌های جدید تقویت‌شده با هوش مصنوعی، دام‌هایی مانند دستکاری غیرمجاز، یا سرقت آشکار آثار هنری و تصاویر آنلاین موجود به وجود می‌آید. تکنیک‌های واترمارک می‌تواند به کاهش دومی کمک کند، در حالی که تکنیک جدید “PhotoGuard” که توسط MIT CSAIL توسعه یافته است می‌تواند به جلوگیری از اولی کمک کند.

یک رویکرد مشترک شامل توسعه دهندگان مدل، پلتفرم های رسانه های اجتماعی و سیاست گذاران، دفاعی قوی در برابر دستکاری تصویر غیرمجاز ارائه می دهد. سلمان در بیانیه‌ای گفت: امروز کار روی این موضوع مهم از اهمیت بالایی برخوردار است. “و در حالی که من خوشحالم که در این راه حل مشارکت می کنم، کار زیادی برای عملی کردن این محافظت لازم است. شرکت هایی که این مدل ها را توسعه می دهند باید در مهندسی ایمن سازی قوی در برابر تهدیدات احتمالی ناشی از این ابزارهای هوش مصنوعی سرمایه گذاری کنند.”



منبع