تغییر مخفیانه الگوریتم فیس بوک را خشن تر کرد

تغییر مخفیانه الگوریتم فیس بوک را خشن تر کرد

براساس گزارشی جدید، فیس بوک در سال ۲۰۱۸ الگوریتم های خود را تغییر داد تا به محتوای بازنشر شده اولویت دهد. اما این امر به گسترش اخبار جعلی و محتوای تفرقه انگیز منجر شد.

به گزارش خبرگزاری مهر به نقل از دیلی میل، طبق گزارش وال استریت ژورنال، فیس بوک در سال ۲۰۱۸ میلادی الگوریتم‌های خود را طوری تغییر داد تا محتوای باز نشر شده اولویت یابد. اما این امر به گسترش بی حد و حصر اخبار جعلی، محتوای نفرت پراکنانه و خشونت آمیز در پلتفرم منجر شد.

مارک زاکربرگ مدیر ارشد اجرایی فیس بوک اعلام کرده بود این تغییر برای قدرتمندتر کردن رابطه بین افراد (به خصوص بین خانواده و دوستان) و ارتقای سلامت آنها انجام شده است.

اما اسناد نشان می‌دهد آنچه در واقع اتفاق افتاد، خلاف این امر بود و فیس بوک به فضایی خشن‌تر تبدیل شد. زیرا الگوریتم‌های هوش مصنوعی به محتوای خشن اولویت می‌دادند.

محققان این شرکت فناوری متوجه شدند ناشران اخبار و احزاب سیاسی به طور عمدی محتوای منفی یا تفرقه انگیز را منتشر می‌کنند زیرا با لایک و اشتراک گذاری زیادی روبرو می‌شد و در نتیجه بین کاربران به عنوان اخبار واقعی به اشتراک گذاشته می‌شد.

طبق اسناد موجود در آوریل ۲۰۲۰ درباره این چالش به زاکربرگ هشدار داده شد اما الگوریتم‌های مذکور بدون هیچ تغییری در پلتفرم حفظ شدند.

تشویق به برخوردهای معنادار اجتماعی دلیل تغییر الگوریتم‌های فیس بوک در سال ۲۰۱۸ میلادی بود. زیرا کارشناسان حاضر در شرکت نگران کاهش کامنت و اشتراک گذاری پست‌ها توسط کاربران بودند.

این موارد برای فیس بوک اهمیت زیادی دارد زیرا بسیاری از مدیران شرکت آن را کلیدی برای بررسی سلامت پلتفرم می‌دادند. اگر میزان کامنت و اشتراک گذاری پست‌ها کاهش یابد، ممکن است کاربران به تدریج استفاده از آن را متوقف کنند.

در سال ۲۰۱۷ میلادی میزان لایک و بازنشر پست‌ها در سراسر سال کاهش یافت اما در آگوست ۲۰۱۸ میلادی و پس از تغییراتی در الگوریتم روند نزولی مذکور متوقف شد و دوباره فعالیت روزانه کاربران تا حد قابل توجهی ارتقا یافت.

اما مشکل آنجا بود که تحقیقی میان کاربران نشان داد بسیاری از آنها معتقدند کیفیت محتوای پلتفرم کاهش یافته است. علاوه بر آن در لهستان این تغییرات سبب شد گفتگوی سیاسی در پلتفرم مغرضانه تر شود.

این امر روی ناشران اخبار آنلاین نیز تأثیر گذاشت. جونا پرتی مدیر ارشد اجرایی بازفید در ایمیلی به مقامات فیس بوک هشدار داد بیشتر محتوای تفرقه انگیزانه ای که ناشران در این پلتفرم منتشر می‌کنند در باز فید وایرال می‌شود.

طبق یک یادداشت داخلی مربوط به آوریل ۲۰۲۰ میلادی، پس از افزایش نگرانی‌ها درباره الگوریتم، چند اقدام جایگزین پیشنهادی به زاکربرگ ارائه شد تا با گسترش اخبار جعلی و تفرقه انگیز در پلتفرم مقابله کند. یکی از این پیشنهادات حذف الگوریتم ترویج محتوای بازنشرشده توسط زنجیره‌ای طولانی از کاربران بود. اما زاکربرگ به این ایده توجهی نشان نداد.

اما ماه جولای ۲۰۲۱ و ۱۸ ماه پس از آن فیس بوک اعلام کرد آزمایش‌ها برای محدود سازی این قابلیت را وسیع‌تر می‌کند.

کد خبر 5308448

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha