شبکه اجتماعی غیرمتمرکز Mastodon یک مشکل عمده CSAM دارد

Mastodon در سال گذشته محبوبیت خود را به دست آورده است زیرا کاربران توییتر به دنبال جایگزین هایی به دنبال ایلان ماسک بودند. بخشی از جذابیت آن ماهیت غیرمتمرکز آن است که آن را در برابر هوی و هوس میلیاردرهایی که قبل از فکر کردن صحبت می کنند، مصون می کند. با این حال، جای تعجب نیست که آنچه آن را بسیار جذاب می کند، سردرد است و تعدیل محتوا را غیرممکن می کند.

این یک مشکل منحصر به فرد برای متا ایجاد می کند، که نمی تواند کل جریان تعدیل را مانند فیس بوک یا اینستاگرام کنترل کند. حتی پس از آن، شرکت . احتمالاً نمونه‌های بزرگ‌تر روی Mastodon و سایر پلتفرم‌ها مانند Threads می‌توانند دسترسی به نمونه‌های مشکل‌ساز را کاملاً مسدود کنند. البته، این مشکل را “حل” نمی کند. محتوا همچنان وجود خواهد داشت. فقط حذف می شود و به ناظران آن نمونه خاص واگذار می شود تا آن را حذف کنند.



منبع

112 منطبق از مطالب شناخته شده سوء استفاده جنسی از کودکان (CSAM) را در یک دوره دو روزه پیدا کرد که تقریباً 2000 پست از هشتگ های رایج مرتبط با مطالب توهین آمیز استفاده کردند. دیوید تیل، محقق می‌گوید: «ما در یک دوره دو روزه تعداد بیشتری از فوتودان‌ای‌ای که احتمالاً در کل تاریخ سازمانمان در انجام هر نوع تجزیه و تحلیل رسانه‌های اجتماعی داشته‌ایم، دریافت کردیم، و حتی نزدیک هم نیست». ما با Mastodon تماس گرفته‌ایم تا نظر بدهیم و پس از شنیدن این خبر، این داستان را به‌روزرسانی خواهیم کرد.

این مشکل منحصر به فرد ماستودون نیز نیست. همچنین بر اساس مدل غیرمتمرکز ساخته شده است. در حالی که هنوز پشتیبانی نمی شود، Threads قصد دارد باشد. این بدان معناست که کاربران Threads قادر خواهند بود مطالب را از Mastodon دنبال کنند، پاسخ دهند و دوباره ارسال کنند و بالعکس.

البته، مشکل بزرگ پلتفرم های رسانه های اجتماعی غیرفدراسیونی مانند Mastodon این است که هیچ شرکت یا نهادی همه چیز را در این پلتفرم کنترل نمی کند. هر نمونه ای مدیران خاص خود را دارد و آنها هستند که در نهایت مسئول هستند. با این حال، آن مدیران نمی‌توانند آنچه را که در نمونه‌ها یا سرورهای دیگر می‌گذرد کنترل و تعدیل کنند.