گزارش تحقیقی از بلومبرگ تصویری نگرانکننده از مشکلات Twitch در تعدیل پلتفرم پخش زنده ارائه میکند – به ویژه ویژگی Clips آن، که به کاربران اجازه میدهد ویدیوهای کوتاه را حفظ کنند. این رسانه گزارش می دهد که پس از تجزیه و تحلیل حدود 1100 کلیپ، حداقل 83 کلیپ را با محتوای جنسی شامل کودکان پیدا کرد. توییچ ویدیوها را پس از هشدار حذف کرد و سخنگوی شرکت در ایمیلی به Engadget نوشت که از آن زمان «سرمایه گذاری هنگفتی روی ابزارهای اجرایی و اقدامات پیشگیرانه انجام داده است و به این کار ادامه خواهد داد».
بلومبرگ یک حادثه را برجسته کرد که نمونه ای از مشکل ماهیت دائمی کلیپس در پلتفرم گذرا بود. این داستان ناراحت کننده پسر 12 ساله ای را روایت می کند که بهار گذشته به توییچ رفت تا “یک ساندویچ بخورد و بوق فرانسوی خود را بنوازد.” او خیلی زود شروع به درخواست از بینندگان کرد، که (در انعکاس غم انگیز رفتار آنلاین) به نوعی منجر به پایین کشیدن شلوار پسر توسط پسر شد.
این رسانه این حادثه را “در یک لحظه” به پایان رسیده است. با این حال، عملکرد ضبط کلیپس به یک بیننده – که ظاهراً بیش از صد حساب متعلق به کودکان را دنبال می کرد – اجازه داد تا آن را حفظ کند. ظاهراً این منجر به بیش از 130 بازدید از کلیپ 20 ثانیه ای قبل از اینکه Twitch مطلع شود و آن را حذف کند، شده است.
کلیپ ها در سال 2016 به عنوان راهی برای حفظ لحظات زودگذر روی پلتفرم راه اندازی شدند. این ویژگی 25 ثانیه قبل (و پنج ثانیه بعد از) ضربه زدن روی دکمه ضبط ضبط می کند. این یک عارضه جانبی ناخوشایند دارد که به شکارچیان اجازه می دهد یک لحظه دردسرساز را نجات دهند و آن را در جای دیگری توزیع کنند.
توییچ برنامه ریزی کرده است که امسال کلیپ ها را به عنوان بخشی از استراتژی تولید محتوای بیشتر شبیه TikTok در این پلتفرم گسترش دهد. این شرکت قصد دارد یک فید کشف (همچنین مشابه TikTok) راه اندازی کند که در آن کاربران می توانند ویدیوهای کوتاه خود را پست کنند.
بلومبرگگزارش 's به نقل از مرکز کانادایی حمایت از کودکان، که 83 ویدیوی سوء استفادهکننده را بررسی کرد و به این نتیجه رسید که 34 کاربر جوان را نشان میدهند که اندام تناسلی خود را در دوربین نشان میدهند. گفته می شود که اکثر آنها پسران بین 5 تا 12 سال بودند. 49 کلیپ اضافی شامل محتوای جنسی بود که در آن کودکان زیر سن قانونی “در معرض دید اعضای بدن قرار می گرفتند یا تحت تلاش های نظافت قرار می گرفتند.”
این سازمان گفت که 34 «فحشآمیزترین» ویدیوها 2700 بار دیده شدهاند. بقیه 7300 بازدید داشتند.
پاسخ توییچ
یکی از سخنگویان توییچ به Engadget نوشت: «آسیب به جوانان، در هر نقطه آنلاین، غیرقابل قبول است و ما این موضوع را بسیار جدی میگیریم. در پاسخ به هشدار در مورد مطالب سوء استفاده جنسی از کودکان (CSAM)، این شرکت میگوید که مدلهای جدیدی را برای شناسایی رفتارهای بالقوه آراستگی ایجاد کرده است و ابزارهای موجود خود را برای شناسایی مؤثرتر و حذف کاربران ممنوعه در تلاش برای ایجاد حسابهای جدید (از جمله برای جوانان) به روز میکند. مسائل مربوط به ایمنی).
توییچ می افزاید که اجرای پخش زنده توسط تیم های ایمنی خود را که ریشه کلیپس است، افزایش داده است. این شرکت نوشت: «این بدان معناست که وقتی پخش زنده حاوی محتوای مضر را غیرفعال می کنیم و کانال را به حالت تعلیق در می آوریم، زیرا کلیپ ها از پخش زنده ایجاد می شوند، از ایجاد و انتشار کلیپ های مضر در منبع جلوگیری می کنیم. مهمتر از همه، ما همچنین تلاش کردهایم اطمینان حاصل کنیم که وقتی کلیپهایی را که دستورالعملهای انجمن ما را نقض میکنند حذف و غیرفعال میکنیم، آن کلیپها از طریق دامنههای عمومی یا سایر پیوندهای مستقیم در دسترس نباشند.»
سخنگوی ادامه داد: «ما همچنین میدانیم که متأسفانه آسیبهای آنلاین در حال تکامل هستند. ما دستورالعملهایی را که تیمهای ایمنی داخلی ما برای شناسایی برخی از آسیبهای آنلاین در حال تکامل، مانند مواد آزار جنسی کودکان (CSAM) با قابلیت هوش مصنوعی تولید میکنند، بهبود بخشیدیم.» توییچ اضافه کرد که فهرست سازمانهای خارجی را که با آنها کار میکند گسترش داده است تا (امیدواریم) محتوای مشابه را در آینده از بین ببرد.
مشکلات اعتدال توییچ
بلومبرگ گزارش می دهد که Clips یکی از کم تعدیل ترین بخش ها در توییچ بوده است. همچنین خاطرنشان می کند که شرکت 15 درصد از تیم اعتماد داخلی و ایمنی خود را در آوریل 2023 (بخشی از یک سال دلخراش اخراج فنی) اخراج کرد و برای از بین بردن محتوای CSAM بیشتر متکی به شرکای خارجی شده است.
پلتفرم متمرکز بر جریان زنده Twitch آن را به چالشی پیچیده تر از سایت های ویدیویی سنتی مانند یوتیوب یا اینستاگرام تبدیل می کند. این پلتفرمها میتوانند ویدیوهای آپلود شده را با هشها مقایسه کنند – اثر انگشت دیجیتالی که میتواند فایلهای مشکلساز شناخته شده قبلی را که به صورت آنلاین ارسال شده است، شناسایی کند. لورن کافرن از مرکز ملی کودکان گمشده و استثمارشده ایالات متحده به بلومبرگ گفت: «فناوری هش به دنبال چیزی است که با چیزی که قبلا دیده شده است مطابقت داشته باشد. پخش زنده به این معنی است که کاملاً جدید است.