آیا فیس‌بوک در ماموریت جدیدش موفق می‌شود؟

یوسف اسفندیاری ۹ تیر ۱۳۹۶ | ۱۸:۰۰
آیا فیس‌بوک در ماموریت جدیدش موفق می‌شود؟

پخش زنده‌ی قتل‌ها. عضوگیری گروه‌های تروریستی. سازمان‌دهی گروهک‌های نژادپرست. این موارد فقط تعداد اندکی از کارهایی است که به‌طور مرتب در فیس‌بوک انجام می‌شود. این سایت با داشتن بیش از ۲ میلیارد کاربر، با موضوعات حساس زیادی سروکار دارد. فشار بی‌سابقه‌ی افکار عمومی باعث شده مدیران فیس‌بوک برای تغییر این وضعیت راه‌حلی پیشنهاد بدهند.

چند روز پیش مدیرعامل فیس‌بوک، مارک زاکربرگ، هدف جدیدش را برای آینده‌ی این شرکت توضیح داد. او اعلام کرد که هدف این سایت از این به بعد به‌جای ارتباط بین نفرات، ساختن جوامع است. به همین دلیل از اعضای این سایت دعوت کرده است که بیش‌ازپیش عضو گروه‌های درون فیسبوک بشوند.

این تغییر در شعار جدید این سایت جلوه پیداکرده که آمده: «به مردم قدرت ایجاد جامعه را بدهید و دنیا را به هم نزدیک‌تر کنید»

اما با چنین تغییر هدفی، چقدر امکان بهبود مشکلات این سایت وجود دارد؟

حباب‌های فیلتر

فیس‌بوک همیشه به توسعه‌ی «حباب‌های فیلتر» (Filter bubbles) متهم شده است. این اصطلاح مربوط به زمانی است که افراد فقط اخباری را می‌بینند که مطابق نظر آن‌ها باشد. این مساله فقط مربوط به الگوریتم‌های فیس‌بوک نیست. چنین اتفاقی با توجه به دوستان مجازی ما، خبرهایی که کلیک می‌کنیم و افرادی که بلاک می‌کنیم به وجود می‌آیند.

دعوت مردم برای عضویت هرچه بیشتر در گروه‌های مختلف باعث می‌شود این مساله وخیم‌تر از گذشته بشود. با چنین کاری مردم هرچه بیشتر در گروه‌هایی عضو می‌شوند که اعضای آن طرز تفکر اعتقادی و سیاسی یکسانی داشته باشند و این اصلا به ایجاد تنوع افکار کمک نمی‌کند.

زاکربرگ همیشه وجود گسترده‌ی حباب‌های فیلتر را تکذیب کرده است. او همچنین اعتقاد دارد که عضویت افراد در گروه‌های مختلف آن‌ها را در معرض تفکرهای متنوعی قرار می‌دهد و باعث گسترده‌تر شدن دیدگاه آن‌ها می‌شود.

عضوگیری گروه‌های تروریستی

در فیس‌بوک، گروه‌ها می‌توانند در حالت مخفی قرار بگیرند تا در جست‌وجو پیدا نشوند. دلایل خوب زیادی برای مخفی‌کاری وجود دارد-مانند امنیت و حریم خصوصی-اما گروه‌های تروریستی هم از این قابلیت برای عضوگیری استفاده می‌کنند.

فیس‌بوک چندی پیش برنامه‌اش را برای مبارزه با گروه‌های تروریستی در این شبکه‌ی اجتماعی اعلام کرد. این برنامه شامل هوش مصنوعی برای اسکن عکس‌ها و محتوای مطالب است که به‌طور اتوماتیک چنین گروه‌هایی شناسایی بشوند. همچنین این شرکت ۱۵۰ نفر را برای مبارزه و شناسایی این گروه‌ها استخدام کرده است.

زاکربرگ در این رابطه گفته است: «ما می‌خواهیم کاری کنیم که عضوگیری گروه‌های تروریستی در این شبکه‌ی اجتماعی به کاری غیرممکن تبدیل شود و آمار آن به صفر برسد. حتی اگر کسی آن را گزارش ندهد، به‌وسیله‌ی هوش مصنوعی که روزبه‌روز بهتر می‌شود، می‌توانیم چنین فعالیت‌هایی را شناسایی کنیم.»

اخبار جعلی

این روزها از اصطلاح اخبار جعلی هرروز بیشتر از گذشته استفاده می‌شود. فیس‌بوک قدم‌های زیادی را در راستای کاهش گسترش چنین خبرهایی برداشته است. ازجمله‌ی این اقدامات می‌توان به همکاری با سازمان‌های حقیقت‌یاب، مخفی کردن لینک‌های اسپم و استفاده از هوش مصنوعی برای تشخیص چنین خبرهایی اشاره کرد.

سیاست جدید مبنی بر عضویت مردم در گروه‌های مختلف به این معنا است که کاربران اخبار خود را به‌جای منابع مستقیم، از گروه‌ها به دست آورند. با چنین کاری احتمالا افراد اخبار گزینش‌شده بیشتری نسبت به قبل را خواهند دید. فیس‌بوک هنوز اعلام نکرده چه برنامه‌ای برای برخورد با اخبار جعلی منتشرشده در گروه‌ها دارد.

نفرت پراکنی

همان‌طور که تمرکز بر گروه‌های مختلف برای تغییر مثبت در جهان خیلی خوب است، باید بدانیم که چنین گروه‌هایی درزمینه‌ی نفرت پراکنی هم بیکار نخواهند نشست. چنین گروه‌هایی مانند گروه‌های نژادپرستان همان‌طور که هم‌اکنون در فیس‌بوک حضور فعال دارند در ادامه هم به حضورشان ادامه می‌دهند. زاکربرگ همیشه گفته که به آزادی بیان اعتقاد دارد البته تا حدی که این آزادی به تهدید در دنیای واقعی کشیده نشود. فیسبوک همیشه برای برخورد با چنین گروه‌هایی از گزارش‌های کاربران استفاده می‌کند ولی در گروه‌های بسته چنین گزارش‌هایی داده نخواهد شد.

قتل، خشونت و خودآزاری

در ماه آوریل، مردی در کلیولند آمریکا ویدیویی از خودش که در حال شلیک به پیرمرد ۷۴ ساله‌ای بود را به اشتراک گذاشت. این ویدیو به مدت دو ساعت قابل مشاهده بود تا فیس‌بوک آن را پاک کرد.

در خبرهای مختلف خوانده‌ایم که مردم از قابلیت پخش زنده‌ی فیسبوک برای پخش قتل، ضرب و شتم و خودکشی استفاده کرده‌اند. به همین خاطر فیس‌بوک هوش مصنوعی‌ای را توسعه داده که ویدیوهای خشونت‌بار را در دقایق اول شناسایی کند. همچنین ۷۵۰۰ کارمند برای بررسی این ویدیوها استخدام شده‌اند. اما ویدیوهای خشونت‌باری که در گروه‌های خصوصی به اشتراک گذاشته می‌شوند به این راحتی قابل‌شناسایی نیستند و مدت‌زمان بیشتری در سایت قرار می‌گیرند.

منبع: wqad

telegram_ad2_1

برچسب‌ها :
دیدگاه شما