![Menu](https://videocardz.ir/wp-content/uploads/تولید-کننده-تصویر-هوش-مصنوعی-متا-برای-ایجاد-تصاویری-از.png)
هوش مصنوعی متا به طور مداوم قادر به تولید تصاویر دقیق برای پیامهای به ظاهر ساده مانند «مرد آسیایی و دوست قفقازی» یا «مرد آسیایی و همسر سفیدپوست» نیست. آستانه . درعوض، به نظر میرسد که تولیدکننده تصویر این شرکت نسبت به ایجاد تصاویری از افراد یک نژاد تعصب دارد، حتی اگر صراحتاً خلاف آن خواسته شود.
Engadget این نتایج را در آزمایش خودمان از تولید کننده تصویر متا تأیید کرد. درخواستهای «یک مرد آسیایی با یک دوست زن سفیدپوست» یا «یک مرد آسیایی با یک همسر سفیدپوست» تصاویری از زوجهای آسیایی ایجاد کرد. هنگامی که از “گروه متنوعی از افراد” خواسته شد، هوش مصنوعی متا شبکهای از 9 چهره سفید و یک فرد رنگین پوست ایجاد کرد. چند مورد وجود داشت که یک نتیجه واحد ایجاد کرد که اعلان را منعکس می کرد، اما در بیشتر موارد نتوانست آن را به طور دقیق نشان دهد.
مانند آستانه اشاره میکند، نشانههای «ظریفتر» دیگری از تعصب در هوش مصنوعی متا وجود دارد، مانند تمایل به نشان دادن مردان آسیایی مسنتر در حالی که زنان آسیایی جوانتر به نظر میرسند. مولد تصویر همچنین گاهی اوقات “لباس خاص فرهنگی” را اضافه می کند، حتی زمانی که این بخشی از درخواست نبود.
مشخص نیست که چرا هوش مصنوعی متا با این نوع درخواست ها دست و پنجه نرم می کند، اگرچه این اولین پلتفرم هوش مصنوعی مولد نیست که به دلیل به تصویر کشیدن نژاد مورد بررسی قرار می گیرد. مولد تصویر Gemini گوگل توانایی خود را برای ایجاد تصاویر افراد پس از اصلاح بیش از حد برای تنوع با درخواستهای مربوط به شخصیتهای تاریخی متوقف کرد. گوگل که پادمان های داخلی خود را برای شرایطی که نتایج متنوع نامناسب بودند، در نظر نگرفت.
متا بلافاصله به درخواست اظهار نظر پاسخ نداد. این شرکت قبلاً هوش مصنوعی متا را در حالت “بتا” و در نتیجه مستعد اشتباه توصیف کرده بود. هوش مصنوعی متا نیز در پاسخگویی دقیق به رویدادهای جاری و شخصیت های عمومی با مشکل مواجه شده است.