OpenAI با شکایت دیگری در خصوص حفظ حریم خصوصی به دلیل علاقه ChatGPT به ساختن چیزها، برخورد کرد

OpenAI با شکایت دیگری در خصوص حفظ حریم خصوصی به دلیل علاقه ChatGPT به ساختن چیزها، برخورد کرد

OpenAI در اتریش با یک شکایت حریم خصوصی روبرو شده است که مخفف None Of Your Business است. این شکایت ادعا می کند که ربات ChatGPT این شرکت بارها و بارها اطلاعات نادرستی در مورد یک فرد واقعی ارائه کرده است (که به دلایل حفظ حریم خصوصی در شکایت نامی برده نشده است). . این ممکن است قوانین حریم خصوصی اتحادیه اروپا را نقض کند.

ظاهراً چت بات به جای اینکه بگوید پاسخ سؤال را نمی‌داند، اطلاعات تاریخ تولد نادرستی را برای آن فرد منتشر کرده است. مانند سیاستمداران، ربات‌های چت هوش مصنوعی دوست دارند با اطمینان مطالب را بسازند و امیدوارند که ما متوجه آن نباشیم. این پدیده توهم نامیده می شود. با این حال، زمانی که این ربات‌ها مواد لازم را برای یک دستور غذا درست می‌کنند یک چیز است و وقتی چیزهایی درباره افراد واقعی اختراع می‌کنند کاملاً چیز دیگری است.

OpenAI از کمک به حذف اطلاعات نادرست خودداری کرد و در پاسخ گفت که انجام چنین تغییری از نظر فنی غیرممکن است. این شرکت پیشنهاد فیلتر یا مسدود کردن داده‌ها را در برخی از درخواست‌ها داد. سیاست حفظ حریم خصوصی OpenAI می گوید که اگر کاربران متوجه شوند چت ربات هوش مصنوعی “اطلاعات واقعی نادرست” را در مورد آنها “درخواست اصلاح” تولید کرده است، اما این شرکت می گوید که “ممکن است در هر موردی نتواند این نادرستی را اصلاح کند”. .

این بزرگتر از یک شکایت است، زیرا تمایل ربات چت به ساختن موارد می‌تواند با مقررات حفاظت از داده‌های عمومی منطقه (GDPR) که حاکم است، مغایرت داشته باشد. ساکنان اتحادیه اروپا در رابطه با اطلاعات شخصی حقوق دارند، از جمله حق تصحیح داده های نادرست. عدم رعایت این مقررات می تواند جریمه های مالی جدی را به همراه داشته باشد که در برخی موارد تا چهار درصد گردش مالی سالانه جهانی را شامل می شود. تنظیم کننده ها همچنین می توانند تغییراتی در نحوه پردازش اطلاعات سفارش دهند.

Maartje de Graaf، وکیل حفاظت از داده‌های NOYB در بیانیه‌ای گفت: «روشن است که شرکت‌ها در حال حاضر نمی‌توانند چت‌بات‌هایی مانند ChatGPT را در هنگام پردازش داده‌های مربوط به افراد مطابق با قوانین اتحادیه اروپا منطبق کنند. «اگر یک سیستم نتواند نتایج دقیق و شفاف تولید کند، نمی‌توان از آن برای تولید داده‌های مربوط به افراد استفاده کرد. این فناوری باید از الزامات قانونی پیروی کند، نه برعکس.»

این شکایت همچنین نگرانی‌هایی را در مورد شفافیت از سوی OpenAI ایجاد کرد و نشان داد که این شرکت اطلاعاتی در مورد اینکه داده‌هایی که از افراد تولید می‌کند از کجا می‌آیند یا اینکه این داده‌ها به طور نامحدود ذخیره می‌شوند ارائه نمی‌دهد. این امر هنگام در نظر گرفتن داده های مربوط به افراد خصوصی از اهمیت ویژه ای برخوردار است.

باز هم، این یک شکایت از سوی یک گروه مدافع است و تنظیم‌کننده‌های اتحادیه اروپا هنوز در این مورد اظهار نظر نکرده‌اند. با این حال، OpenAI که ChatGPT “گاهی اوقات پاسخ هایی با صدای معقول اما نادرست یا بی معنی می نویسد.” NOYB به این سازمان مراجعه کرده و از سازمان خواسته است تا موضوع را بررسی کند.

این شرکت با شکایت مشابهی در لهستان مواجه است که در آن مقامات محلی حفاظت از داده‌ها پس از اینکه محققی نتوانسته بود از OpenAI برای تصحیح اطلاعات شخصی نادرست کمک بگیرد. این شکایت OpenAI را به نقض چندین قانون GDPR اتحادیه اروپا در رابطه با شفافیت، حقوق دسترسی به داده ها و حریم خصوصی متهم می کند.

ایتالیا هم هست مرجع حفاظت از داده های ایتالیا و OpenAI که در پایان اعلام کردند معتقدند این شرکت به طرق مختلف GDPR را نقض کرده است. این شامل تمایل ChatGPT به ساختن مطالب جعلی درباره افراد می شود. چت بات قبل از OpenAI تغییرات خاصی را در نرم افزار ایجاد کرد، مانند هشدارهای جدید برای کاربران و گزینه انصراف از داشتن چت برای آموزش الگوریتم ها. با وجود اینکه دیگر ممنوع نیست، تحقیقات ایتالیایی در مورد ChatGPT ادامه دارد.

OpenAI به این آخرین شکایت پاسخی نداده است، اما به رگولاتوری صادر شده توسط DPA ایتالیا پاسخ داده است. “ما می خواهیم هوش مصنوعی ما در مورد جهان یاد بگیرد، نه در مورد افراد خصوصی.” ما فعالانه برای کاهش داده‌های شخصی در آموزش سیستم‌هایمان مانند ChatGPT کار می‌کنیم، که همچنین درخواست‌های اطلاعات خصوصی یا حساس در مورد افراد را رد می‌کند.

منبع