تولید کننده تصویر هوش مصنوعی متا برای ایجاد تصاویری از زوج های نژادهای مختلف تلاش می کند

Menu

هوش مصنوعی متا به طور مداوم قادر به تولید تصاویر دقیق برای پیام‌های به ظاهر ساده مانند «مرد آسیایی و دوست قفقازی» یا «مرد آسیایی و همسر سفیدپوست» نیست. آستانه . درعوض، به نظر می‌رسد که تولیدکننده تصویر این شرکت نسبت به ایجاد تصاویری از افراد یک نژاد تعصب دارد، حتی اگر صراحتاً خلاف آن خواسته شود.

Engadget این نتایج را در آزمایش خودمان از تولید کننده تصویر متا تأیید کرد. درخواست‌های «یک مرد آسیایی با یک دوست زن سفیدپوست» یا «یک مرد آسیایی با یک همسر سفیدپوست» تصاویری از زوج‌های آسیایی ایجاد کرد. هنگامی که از “گروه متنوعی از افراد” خواسته شد، هوش مصنوعی متا شبکه‌ای از 9 چهره سفید و یک فرد رنگین پوست ایجاد کرد. چند مورد وجود داشت که یک نتیجه واحد ایجاد کرد که اعلان را منعکس می کرد، اما در بیشتر موارد نتوانست آن را به طور دقیق نشان دهد.

مانند آستانه اشاره می‌کند، نشانه‌های «ظریف‌تر» دیگری از تعصب در هوش مصنوعی متا وجود دارد، مانند تمایل به نشان دادن مردان آسیایی مسن‌تر در حالی که زنان آسیایی جوان‌تر به نظر می‌رسند. مولد تصویر همچنین گاهی اوقات “لباس خاص فرهنگی” را اضافه می کند، حتی زمانی که این بخشی از درخواست نبود.

مشخص نیست که چرا هوش مصنوعی متا با این نوع درخواست ها دست و پنجه نرم می کند، اگرچه این اولین پلتفرم هوش مصنوعی مولد نیست که به دلیل به تصویر کشیدن نژاد مورد بررسی قرار می گیرد. مولد تصویر Gemini گوگل توانایی خود را برای ایجاد تصاویر افراد پس از اصلاح بیش از حد برای تنوع با درخواست‌های مربوط به شخصیت‌های تاریخی متوقف کرد. گوگل که پادمان های داخلی خود را برای شرایطی که نتایج متنوع نامناسب بودند، در نظر نگرفت.

متا بلافاصله به درخواست اظهار نظر پاسخ نداد. این شرکت قبلاً هوش مصنوعی متا را در حالت “بتا” و در نتیجه مستعد اشتباه توصیف کرده بود. هوش مصنوعی متا نیز در پاسخگویی دقیق به رویدادهای جاری و شخصیت های عمومی با مشکل مواجه شده است.

منبع