اوقات شرعی تهران
اذان صبح ۰۳:۴۲:۰۷
اذان ظهر ۱۲:۰۲:۴۶
اذان مغرب ۱۹:۰۷:۵۳
طلوع آفتاب ۰۵:۱۵:۲۲
غروب آفتاب ۱۸:۴۸:۴۱
نیمه شب ۲۳:۱۵:۵۴
قیمت سکه و ارز
۱۴۰۲/۱۲/۱۲ - ۱۷:۴۹

خون مسلمانان میانمار پشت لوگوی آبی فیس‌بوک

رنگ قرمز خون مسلمانان میانمار، پشت لوگوی آبی فیس‌بوک پنهان مانده است. این کمپانی آمریکایی-صهیونیستی سال‌هاست در قتل‌عام این مسلمانان دست دارد.

خون مسلمانان میانمار پشت لوگوی آبی فیس‌بوک

سراج24؛ سال‌ها قبل بود که خبری در رسانه‌های جهان بایکوت شد و از درز آن میان افکار عمومی، جلوگیری به عمل آمد. خبر این بود که گروهی از مسلمانان میانمار توسط دولت این کشور تحت فشار هستند و قتل‌عام می‌شوند. بررسی‌ها نشان داد که کمپانی آمریکایی-صهیونیستی فیس‌بوک در اقدامی به ظاهر انسان‌دوستانه، مسلمانان فقیر این محدوده را مجهز به انواع تجهیزات ارتباطاتی از جمله تلفن همراه، تبلت و اینترنت کرده است.

این کمپانی با تهیه این تجهیزات برای مسلمانان فقیر میانمار، بستر استفاده از فیس‌بوک به عنوان یک شبکه‌ی اجتماعی را برای ایشان فراهم کرده است. این اقدام اما دامی برای این مردم بوده که خود نمی‌دانستند. بعدها گفته شد که فیس‌بوک محل پراکندگی این مسلمانان را به واسطه‌ی شنود و جاسوسی از طریق ابزارهای ارتباطی که پیش‌تر در اختیارشان قرار داده بود، به دولت میانمار داده تا در قتل‌عام ایشان دست داشته باشد.

فیس‌بوک در سال‌های اخیر نام خود را به متا تغییر داد و با برندی جدید فعالیت خود را ادامه داد. حال پس از گذشت هفت سال از وقایع سال ۲۰۱۷ در روهینگیا، عفو بین‌الملل در گزارشی اعلام کرده که الگوریتم‌های خطرناک متا (فیس‌بوک سابق) و دنبال‌کردن منفعت شخصی این شرکت به طور قابل توجهی به جنایاتی که ارتش میانمار علیه مردم روهینگیا مرتکب شد، کمک کرده است.

درست در همین سال نیروهای امنیتی میانمار کمپینی با عنوان پاکسازی قومیتی به راه انداختند و هزاران نفر از مردم روهینگیا را شکنجه کردند و یا به قتل رساندند. عفو بین‌الملل حالا وارد پرونده‌ای قدیمی شده که سال‌ها نام فیس‌بوک را از آن دور نگه داشته بود.

اگنس کالامار، دبیرکل عفو بین‌الملل، گفته که همزمان با بروز این خشونت‌ها، الگوریتم فیس‌بوک در دنیای مجازی به گسترش نفرت و خشونت علیه مردم روهینگیا در دنیای حقیقی کمک کرده است. این مقام تاکید کرده که شرکت متا باید به دنبال این اقدام خود، به حادثه‌دیدگان غرامت پرداخت کند.

تحقیقات کمیته حقیقت‌یاب مستقل بین‌المللی سازمان ملل ثابت کرده که متا، از سال ۲۰۱۲ نسبت به وقوع این فاجعه‌ی انسانی و تاثیر مخرب الگوریتم خود بر این جامعه اطلاع داشته، با این حال با بی‌توجهی کامل به این روند ادامه داد.

فیس‌بوک، اینستاگرام، تردز، مسنجر، واتس‌اپ، اوکولس، مپیلاری، ورک‌پلیس، پورتال و دیم از محصولات متا است و کاربران زیادی در جهان از آن‌ها استفاده می‌کنند. مارک زاکربرگ با اصالتی یهودی، ریاست و مدیریت اجرایی ارشد این شرکت را به عهده دارد.

این شرکت و محصولاتش در کشورهای مختلف به جاسوسی و اقدامات مخرب محکوم شده و کارنامه‌ی خوبی از آن به جا نمانده است. خون مسلمانان میانمار و قتل عام ایشان تنها نمونه‌ای از دستان آلوده‌ی این شرکت است که تلاش دارد آن را پشت لوگوی آبی رنگش پنهان باقی نگه دارد.


 

اشتراک گذاری
نظرات کاربران
هفته نامه الکترونیکی
هفته‌نامه الکترونیکی سراج۲۴ - شماره ۲۴۶
اخرین اخبار
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••
•••