OpenAI در اتریش با یک شکایت حریم خصوصی روبرو شده است که مخفف None Of Your Business است. این شکایت ادعا می کند که ربات ChatGPT این شرکت بارها و بارها اطلاعات نادرستی در مورد یک فرد واقعی ارائه کرده است (که به دلایل حفظ حریم خصوصی در شکایت نامی برده نشده است). . این ممکن است قوانین حریم خصوصی اتحادیه اروپا را نقض کند.
ظاهراً چت بات به جای اینکه بگوید پاسخ سؤال را نمیداند، اطلاعات تاریخ تولد نادرستی را برای آن فرد منتشر کرده است. مانند سیاستمداران، رباتهای چت هوش مصنوعی دوست دارند با اطمینان مطالب را بسازند و امیدوارند که ما متوجه آن نباشیم. این پدیده توهم نامیده می شود. با این حال، زمانی که این رباتها مواد لازم را برای یک دستور غذا درست میکنند یک چیز است و وقتی چیزهایی درباره افراد واقعی اختراع میکنند کاملاً چیز دیگری است.
OpenAI از کمک به حذف اطلاعات نادرست خودداری کرد و در پاسخ گفت که انجام چنین تغییری از نظر فنی غیرممکن است. این شرکت پیشنهاد فیلتر یا مسدود کردن دادهها را در برخی از درخواستها داد. سیاست حفظ حریم خصوصی OpenAI می گوید که اگر کاربران متوجه شوند چت ربات هوش مصنوعی “اطلاعات واقعی نادرست” را در مورد آنها “درخواست اصلاح” تولید کرده است، اما این شرکت می گوید که “ممکن است در هر موردی نتواند این نادرستی را اصلاح کند”. .
این بزرگتر از یک شکایت است، زیرا تمایل ربات چت به ساختن موارد میتواند با مقررات حفاظت از دادههای عمومی منطقه (GDPR) که حاکم است، مغایرت داشته باشد. ساکنان اتحادیه اروپا در رابطه با اطلاعات شخصی حقوق دارند، از جمله حق تصحیح داده های نادرست. عدم رعایت این مقررات می تواند جریمه های مالی جدی را به همراه داشته باشد که در برخی موارد تا چهار درصد گردش مالی سالانه جهانی را شامل می شود. تنظیم کننده ها همچنین می توانند تغییراتی در نحوه پردازش اطلاعات سفارش دهند.
Maartje de Graaf، وکیل حفاظت از دادههای NOYB در بیانیهای گفت: «روشن است که شرکتها در حال حاضر نمیتوانند چتباتهایی مانند ChatGPT را در هنگام پردازش دادههای مربوط به افراد مطابق با قوانین اتحادیه اروپا منطبق کنند. «اگر یک سیستم نتواند نتایج دقیق و شفاف تولید کند، نمیتوان از آن برای تولید دادههای مربوط به افراد استفاده کرد. این فناوری باید از الزامات قانونی پیروی کند، نه برعکس.»
این شکایت همچنین نگرانیهایی را در مورد شفافیت از سوی OpenAI ایجاد کرد و نشان داد که این شرکت اطلاعاتی در مورد اینکه دادههایی که از افراد تولید میکند از کجا میآیند یا اینکه این دادهها به طور نامحدود ذخیره میشوند ارائه نمیدهد. این امر هنگام در نظر گرفتن داده های مربوط به افراد خصوصی از اهمیت ویژه ای برخوردار است.
باز هم، این یک شکایت از سوی یک گروه مدافع است و تنظیمکنندههای اتحادیه اروپا هنوز در این مورد اظهار نظر نکردهاند. با این حال، OpenAI که ChatGPT “گاهی اوقات پاسخ هایی با صدای معقول اما نادرست یا بی معنی می نویسد.” NOYB به این سازمان مراجعه کرده و از سازمان خواسته است تا موضوع را بررسی کند.
این شرکت با شکایت مشابهی در لهستان مواجه است که در آن مقامات محلی حفاظت از دادهها پس از اینکه محققی نتوانسته بود از OpenAI برای تصحیح اطلاعات شخصی نادرست کمک بگیرد. این شکایت OpenAI را به نقض چندین قانون GDPR اتحادیه اروپا در رابطه با شفافیت، حقوق دسترسی به داده ها و حریم خصوصی متهم می کند.
ایتالیا هم هست مرجع حفاظت از داده های ایتالیا و OpenAI که در پایان اعلام کردند معتقدند این شرکت به طرق مختلف GDPR را نقض کرده است. این شامل تمایل ChatGPT به ساختن مطالب جعلی درباره افراد می شود. چت بات قبل از OpenAI تغییرات خاصی را در نرم افزار ایجاد کرد، مانند هشدارهای جدید برای کاربران و گزینه انصراف از داشتن چت برای آموزش الگوریتم ها. با وجود اینکه دیگر ممنوع نیست، تحقیقات ایتالیایی در مورد ChatGPT ادامه دارد.
OpenAI به این آخرین شکایت پاسخی نداده است، اما به رگولاتوری صادر شده توسط DPA ایتالیا پاسخ داده است. “ما می خواهیم هوش مصنوعی ما در مورد جهان یاد بگیرد، نه در مورد افراد خصوصی.” ما فعالانه برای کاهش دادههای شخصی در آموزش سیستمهایمان مانند ChatGPT کار میکنیم، که همچنین درخواستهای اطلاعات خصوصی یا حساس در مورد افراد را رد میکند.