Mastodon در سال گذشته محبوبیت خود را به دست آورده است زیرا کاربران توییتر به دنبال جایگزین هایی به دنبال ایلان ماسک بودند. بخشی از جذابیت آن ماهیت غیرمتمرکز آن است که آن را در برابر هوی و هوس میلیاردرهایی که قبل از فکر کردن صحبت می کنند، مصون می کند. با این حال، جای تعجب نیست که آنچه آن را بسیار جذاب می کند، سردرد است و تعدیل محتوا را غیرممکن می کند.
این یک مشکل منحصر به فرد برای متا ایجاد می کند، که نمی تواند کل جریان تعدیل را مانند فیس بوک یا اینستاگرام کنترل کند. حتی پس از آن، شرکت . احتمالاً نمونههای بزرگتر روی Mastodon و سایر پلتفرمها مانند Threads میتوانند دسترسی به نمونههای مشکلساز را کاملاً مسدود کنند. البته، این مشکل را “حل” نمی کند. محتوا همچنان وجود خواهد داشت. فقط حذف می شود و به ناظران آن نمونه خاص واگذار می شود تا آن را حذف کنند.
112 منطبق از مطالب شناخته شده سوء استفاده جنسی از کودکان (CSAM) را در یک دوره دو روزه پیدا کرد که تقریباً 2000 پست از هشتگ های رایج مرتبط با مطالب توهین آمیز استفاده کردند. دیوید تیل، محقق میگوید: «ما در یک دوره دو روزه تعداد بیشتری از فوتودانایای که احتمالاً در کل تاریخ سازمانمان در انجام هر نوع تجزیه و تحلیل رسانههای اجتماعی داشتهایم، دریافت کردیم، و حتی نزدیک هم نیست». ما با Mastodon تماس گرفتهایم تا نظر بدهیم و پس از شنیدن این خبر، این داستان را بهروزرسانی خواهیم کرد.
این مشکل منحصر به فرد ماستودون نیز نیست. همچنین بر اساس مدل غیرمتمرکز ساخته شده است. در حالی که هنوز پشتیبانی نمی شود، Threads قصد دارد باشد. این بدان معناست که کاربران Threads قادر خواهند بود مطالب را از Mastodon دنبال کنند، پاسخ دهند و دوباره ارسال کنند و بالعکس.
البته، مشکل بزرگ پلتفرم های رسانه های اجتماعی غیرفدراسیونی مانند Mastodon این است که هیچ شرکت یا نهادی همه چیز را در این پلتفرم کنترل نمی کند. هر نمونه ای مدیران خاص خود را دارد و آنها هستند که در نهایت مسئول هستند. با این حال، آن مدیران نمیتوانند آنچه را که در نمونهها یا سرورهای دیگر میگذرد کنترل و تعدیل کنند.