بر اساس گزارش‌ها، ویژگی کلیپ‌های توییچ باعث شده است که کودک آزاری در این پلتفرم تثبیت شود

بر اساس گزارش‌ها، ویژگی کلیپ‌های توییچ باعث شده است که کودک آزاری در این پلتفرم تثبیت شود

گزارش تحقیقی از بلومبرگ تصویری نگران‌کننده از مشکلات Twitch در تعدیل پلتفرم پخش زنده ارائه می‌کند – به ویژه ویژگی Clips آن، که به کاربران اجازه می‌دهد ویدیوهای کوتاه را حفظ کنند. این رسانه گزارش می دهد که پس از تجزیه و تحلیل حدود 1100 کلیپ، حداقل 83 کلیپ را با محتوای جنسی شامل کودکان پیدا کرد. توییچ ویدیوها را پس از هشدار حذف کرد و سخنگوی شرکت در ایمیلی به Engadget نوشت که از آن زمان «سرمایه گذاری هنگفتی روی ابزارهای اجرایی و اقدامات پیشگیرانه انجام داده است و به این کار ادامه خواهد داد».

بلومبرگ یک حادثه را برجسته کرد که نمونه ای از مشکل ماهیت دائمی کلیپس در پلتفرم گذرا بود. این داستان ناراحت کننده پسر 12 ساله ای را روایت می کند که بهار گذشته به توییچ رفت تا “یک ساندویچ بخورد و بوق فرانسوی خود را بنوازد.” او خیلی زود شروع به درخواست از بینندگان کرد، که (در انعکاس غم انگیز رفتار آنلاین) به نوعی منجر به پایین کشیدن شلوار پسر توسط پسر شد.

این رسانه این حادثه را “در یک لحظه” به پایان رسیده است. با این حال، عملکرد ضبط کلیپس به یک بیننده – که ظاهراً بیش از صد حساب متعلق به کودکان را دنبال می کرد – اجازه داد تا آن را حفظ کند. ظاهراً این منجر به بیش از 130 بازدید از کلیپ 20 ثانیه ای قبل از اینکه Twitch مطلع شود و آن را حذف کند، شده است.

کلیپ ها در سال 2016 به عنوان راهی برای حفظ لحظات زودگذر روی پلتفرم راه اندازی شدند. این ویژگی 25 ثانیه قبل (و پنج ثانیه بعد از) ضربه زدن روی دکمه ضبط ضبط می کند. این یک عارضه جانبی ناخوشایند دارد که به شکارچیان اجازه می دهد یک لحظه دردسرساز را نجات دهند و آن را در جای دیگری توزیع کنند.

توییچ برنامه ریزی کرده است که امسال کلیپ ها را به عنوان بخشی از استراتژی تولید محتوای بیشتر شبیه TikTok در این پلتفرم گسترش دهد. این شرکت قصد دارد یک فید کشف (همچنین مشابه TikTok) راه اندازی کند که در آن کاربران می توانند ویدیوهای کوتاه خود را پست کنند.

بلومبرگگزارش 's به نقل از مرکز کانادایی حمایت از کودکان، که 83 ویدیوی سوء استفاده‌کننده را بررسی کرد و به این نتیجه رسید که 34 کاربر جوان را نشان می‌دهند که اندام تناسلی خود را در دوربین نشان می‌دهند. گفته می شود که اکثر آنها پسران بین 5 تا 12 سال بودند. 49 کلیپ اضافی شامل محتوای جنسی بود که در آن کودکان زیر سن قانونی “در معرض دید اعضای بدن قرار می گرفتند یا تحت تلاش های نظافت قرار می گرفتند.”

این سازمان گفت که 34 «فحش‌آمیزترین» ویدیوها 2700 بار دیده شده‌اند. بقیه 7300 بازدید داشتند.

پاسخ توییچ

یکی از سخنگویان توییچ به Engadget نوشت: «آسیب به جوانان، در هر نقطه آنلاین، غیرقابل قبول است و ما این موضوع را بسیار جدی می‌گیریم. در پاسخ به هشدار در مورد مطالب سوء استفاده جنسی از کودکان (CSAM)، این شرکت می‌گوید که مدل‌های جدیدی را برای شناسایی رفتارهای بالقوه آراستگی ایجاد کرده است و ابزارهای موجود خود را برای شناسایی مؤثرتر و حذف کاربران ممنوعه در تلاش برای ایجاد حساب‌های جدید (از جمله برای جوانان) به روز می‌کند. مسائل مربوط به ایمنی).

توییچ می افزاید که اجرای پخش زنده توسط تیم های ایمنی خود را که ریشه کلیپس است، افزایش داده است. این شرکت نوشت: «این بدان معناست که وقتی پخش زنده حاوی محتوای مضر را غیرفعال می کنیم و کانال را به حالت تعلیق در می آوریم، زیرا کلیپ ها از پخش زنده ایجاد می شوند، از ایجاد و انتشار کلیپ های مضر در منبع جلوگیری می کنیم. مهمتر از همه، ما همچنین تلاش کرده‌ایم اطمینان حاصل کنیم که وقتی کلیپ‌هایی را که دستورالعمل‌های انجمن ما را نقض می‌کنند حذف و غیرفعال می‌کنیم، آن کلیپ‌ها از طریق دامنه‌های عمومی یا سایر پیوندهای مستقیم در دسترس نباشند.»

سخنگوی ادامه داد: «ما همچنین می‌دانیم که متأسفانه آسیب‌های آنلاین در حال تکامل هستند. ما دستورالعمل‌هایی را که تیم‌های ایمنی داخلی ما برای شناسایی برخی از آسیب‌های آنلاین در حال تکامل، مانند مواد آزار جنسی کودکان (CSAM) با قابلیت هوش مصنوعی تولید می‌کنند، بهبود بخشیدیم.» توییچ اضافه کرد که فهرست سازمان‌های خارجی را که با آنها کار می‌کند گسترش داده است تا (امیدواریم) محتوای مشابه را در آینده از بین ببرد.

مشکلات اعتدال توییچ

بلومبرگ گزارش می دهد که Clips یکی از کم تعدیل ترین بخش ها در توییچ بوده است. همچنین خاطرنشان می کند که شرکت 15 درصد از تیم اعتماد داخلی و ایمنی خود را در آوریل 2023 (بخشی از یک سال دلخراش اخراج فنی) اخراج کرد و برای از بین بردن محتوای CSAM بیشتر متکی به شرکای خارجی شده است.

پلتفرم متمرکز بر جریان زنده Twitch آن را به چالشی پیچیده تر از سایت های ویدیویی سنتی مانند یوتیوب یا اینستاگرام تبدیل می کند. این پلتفرم‌ها می‌توانند ویدیوهای آپلود شده را با هش‌ها مقایسه کنند – اثر انگشت دیجیتالی که می‌تواند فایل‌های مشکل‌ساز شناخته شده قبلی را که به صورت آنلاین ارسال شده است، شناسایی کند. لورن کافرن از مرکز ملی کودکان گمشده و استثمارشده ایالات متحده به بلومبرگ گفت: «فناوری هش به دنبال چیزی است که با چیزی که قبلا دیده شده است مطابقت داشته باشد. پخش زنده به این معنی است که کاملاً جدید است.

منبع