ارائه چارچوب تعدیلگری برای اخبار جعلی در پلتفرم ها (مورد مطالعه: تعدیلگری اخبار جعلی در پلتفرم های شبکه اجتماعی ایکس و اینستاگرام) (مقاله علمی وزارت علوم)
درجه علمی: نشریه علمی (وزارت علوم)
آرشیو
چکیده
هدف: در عصر شبکه های اجتماعی، گسترش بی ضابطه اطلاعات در کنار تضعیف مرجعیت رسانه های رسمی، زمینه ساز ظهور پدیده هایی چون اخبار جعلی شده است که نه تنها خود مسئله نگران کننده ای است، بلکه چالش اساسی تری به نام «تعدیلگری محتوا» را ایجاد کرده است. با توجه به نقش برجسته ای که پلتفرم های شبکه اجتماعی در توزیع اخبار و شکل دهی به افکار عمومی یافته اند، تعدیلگری اخبار جعلی در این فضا، به یکی از اصلی ترین محورهای حکمرانی رسانه ای بدل شده است؛ به طوری که توانایی تعدیلگری محتوا در این بسترها، هم به کاهش انتشار اخبار نادرست کمک می کند و هم می تواند حافظ اعتماد عمومی، کیفیت تعاملات اجتماعی و حتی، امنیت اطلاعاتی در جامعه باشد. پژوهش حاضر از طریق شناسایی راه کارهای اتخاذ شده توسط دو پلتفرم شبکه اجتماعی ایکس و اینستاگرام و همچنین، نظرها و تجربه های خبرگان این حوزه، چارچوب جامعی به منظور تعدیلگری اخبار جعلی برای پلتفرم های شبکه های اجتماعی داخلی ارائه داده است. روش: این مطالعه از نوع کیفی و روش اجرای آن، مطالعه تطبیقی بوده است. برای تحلیل داده ها، از ابزار تحلیل مضمون استفاده شده است تا راه کارهای تعدیلگری موجود در دو پلتفرم ایکس و اینستاگرام بررسی شود. با هدف بومی سازی راه کارها جهت اعمال و کاربست آن ها در پلتفرم های داخلی، از ابزار جمع آوری داده از طریق مصاحبه استفاده شده و با خبرگان مصاحبه شده است. یافته ها: بر اساس نتایج به دست آمده، راه کارهای موجود را می توان در دو دسته راه کار «برون پلتفرمی» و «درون پلتفرمی» طبقه بندی کرد؛ به طوری که در دسته اول، راه کارهایی همچون تنظیم قوانین و مقررات، تشویق به ترویج منابع اعتمادساز، توسعه آموزش و آگاهی و روشنگری عمومی، تعزیز انضباط رسانه ای، ارتقای سواد رسانه ای، توانمندسازی نهادهای مربوطه، ترویج فرهنگ انتقاد سازنده، تشویق به توسعه الگوریتم های تشخیص اخبار جعلی و تشویق به مشارکت اجتماعی شهروندان قرار گرفته است. در دسته دوم نیز راه کارهایی چون ارائه قوانین و دستورالعمل ها، جمع سپاری، احراز هویت کاربران، همکاری با منابع رسمی خبری، صحت سنجی، رتبه بندی و برچسب گذاری محتوا ارائه شده است. در سطح داخلی نیز، خبرگان بر ضرورت شفاف سازی الگوریتم ها، رعایت ملاحظات فرهنگی و حقوقی و توسعه نظام آموزش عمومی، در کنار اِعمال ابزارهای نرم و سخت برای تعدیل محتوا تأکید داشتند. نتیجه گیری: در جهانی که پلتفرم های شبکه اجتماعی اهمیت زیادی دارند، اخبار جعلی، به عنوان ابزاری مؤثر برای ترویج اطلاعات نادرست و تضعیف اعتماد عمومی، می تواند پایه های حقیقت و صداقت را در جامعه به خطر بیندازد؛ تأثیر این اخبار و محتوا بر جامعه، از شکاف اجتماعی تا فروپاشی اعتماد، درخور توجه است. شیوه ها و ابزارهای تأثیرگذار تعدیلگری می تواند از یک سو فعالیت کاربران در تولید محتوای کاربرساخته و از سوی دیگر، اعتماد آن ها به محتوای تولید شده در این پلتفرم ها را افزایش دهد. چارچوب ارائه شده در این پژوهش با ترکیب تجارب بین المللی و دیدگاه های بومی شده، مدلی ترکیبی و عملیاتی برای تعدیلگری محتوای جعلی در پلتفرم های اجتماعی داخلی ارائه می دهد. این چارچوب می تواند به عنوان مبنایی برای سیاست گذاری ملی، طراحی پلتفرم های بومی و نیز، بازسازی اعتماد عمومی به فضای مجازی استفاده شود.Developing a Content Moderation Framework for Fake News on Social Media (A Case Study of X and Instagram)
Objective In today’s digital landscape, the rapid spread of unverified and misleading information, particularly on social media, poses significant challenges to modern societies. Fake news has emerged as a critical issue, threatening public trust, fueling social polarization, and damaging the legitimacy of institutions. However, beyond the issue of fake news itself lies a more systemic and strategic problem: the necessity of effective content moderation. As social media platforms play an increasingly central role in shaping public opinion, distributing information, and facilitating discourse, the ability to moderate fake news within these platforms has emerged as a critical dimension of media governance. Content moderation in this context is not limited to deleting or labeling posts; rather, it encompasses a multi-layered process involving policymaking, technological tools, user engagement, and cultural adaptation. This study aims to develop a comprehensive, context-sensitive framework for moderating fake news on domestic platforms by examining the strategies employed by two global leaders in the field—X (formerly Twitter) and Instagram. Through comparative analysis and in-depth engagement with domain experts, the research attempts to localize and adapt these strategies to the specific socio-cultural and regulatory environment of Iran. Methodology This research adopts a qualitative, comparative approach. Initially, the study reviewed policy documents, moderation guidelines, and institutional reports from both platforms to identify their respective content moderation mechanisms. In the second phase, data were gathered through semi-structured interviews with experts in digital policy, media regulation, and information governance. Thematic analysis was used to code and synthesize findings in a structured and iterative manner, facilitating the development of a localized and actionable moderation framework. Findings The results indicate that effective fake news moderation requires a dual-layered approach involving both off-platform and on-platform interventions. Off-platform strategies include legislative development, promotion of reliable news sources, enhancement of media literacy, institutional empowerment, public education campaigns, fostering critical discourse, development of detection algorithms, and encouraging civic engagement. On-platform strategies encompass internal content moderation guidelines, user verification systems, crowdsourcing fact-checking tasks, collaborations with official news organizations, algorithmic filtering, labeling and ranking content, and enabling transparent user feedback mechanisms. Notably, Iranian experts emphasized the importance of aligning these measures with local legal and cultural norms, ensuring algorithmic transparency, and offering users clear paths for appeal and redress. Conclusion Fake news, amplified by viral digital dynamics, can erode social cohesion and destabilize public discourse. However, the deployment of structured and context-aware content moderation strategies can both limit the spread of false information and enhance user trust in digital environments. The framework proposed in this study synthesizes international practices with localized insights to deliver a hybrid model suitable for domestic social media platforms. This model not only serves as a policy guideline for platform developers and regulators but also contributes to the broader agenda of rebuilding public trust and ensuring the credibility of online information ecosystems in Iran and similar contexts.