[ad_1]

هنگامی که فیس بوک سعی کرد هیئت مدیره خارج خود را در مورد ممنوعیت دائمی دونالد ترامپ تصمیم بگیرد ، هیئت مدیره منصرف شد و سیب زمینی داغ را به سمت فیس بوک انداخت و به این شرکت دستور داد تماس نهایی را ظرف شش ماه انجام دهد. اما یک نفر به طور ناخواسته یک درس حیاتی را برای تعدیل مطالب ارائه داده بود که تاکنون فیس بوک و دیگر شرکت های فناوری آن را از دست داده اند – خود ترامپ.

نحوه کار به این صورت است: برای پیش بینی تأثیر محتوای التهابی و تصمیم گیری مناسب در مورد زمان مداخله ، به نحوه واکنش افراد نسبت به آن فکر کنید.

تلاش برای قضاوت در مورد اینکه آیا این یا آن نشریه کسی را فقط به دلیل محتوای آن به خشونت تحریک می کند بی نتیجه است. انتشارات منفرد مبهم است و همچنین باعث آسیب رساندن آنها به صورت تجمعی می شود ، مانند بسیاری دیگر از مواد سمی.

به عبارت دیگر ، ارزیابی انتشارات صرفاً درباره محتوای آنها مانند مطالعه سیگار برای درک سمیت آنها است. این یک فرم مفید از داده ها است ، اما برای اینکه بفهمید چه سیگار کشیدن می تواند در ریه های افراد ایجاد کند ، ریه ها را مطالعه کنید ، نه فقط دود را.

اگر مقامات رسانه های اجتماعی در هفته های منتهی به حمله 6 ژانویه به پایتخت نشانی ، پاسخ ها به توییت ها و پست های ترامپ را تجزیه و تحلیل کنند ، آنها می بینند که برنامه های مشخصی برای هرج و مرج وجود دارد و ترامپ بیش از آنکه اتفاق بیفتد ، باعث تحریک خشونت می شود.

ساعت 1:42 بامداد 19 دسامبر بود که ترامپ در توییتر نوشت: “اعتراض بزرگ در دی ژانویه در 6 ژانویه. آنجا باش ، وحشی خواهد شد! عبارت “وحشی خواهد بود” به نوعی کد تبدیل شده است که به طور گسترده در سیستم عامل های دیگر از جمله فیس بوک ظاهر شده است. ترامپ صریحاً خواستار خشونت نبوده یا آن را با این جملات پیش بینی نکرده است ، اما هزاران نفر از پیروان او او را درک کرده اند تا به آنها دستور دهد اسلحه هایی را برای استفاده از آنها به واشنگتن بیاورند. آنها علناً این را بصورت آنلاین گفتند.

اعضای انجمن TheDonald تقریباً بلافاصله به این توییت بی خواب پاسخ دادند. در پستی آمده است: “ما سفارشات راهپیمایی داریم ، خرید می کند”. و دیگری: “او دقیقاً نمی تواند به شما بگوید که عصیان کنید. این نزدیکترین چیزی است که او به او بدست آورده است. “جواب رسید ،” پس اسلحه هایی را که می خواهیم ببریم ، بیاورید. ”

خوشبختانه برنامه های آنها برای شورش غیرمعمول بود ، اما واقعیت قابل مشاهده بودن آنها نبود. مردم همه چیز را بصورت آنلاین محو می کنند. رسانه های اجتماعی مخزنی گسترده از ارتباطات انسانی را ایجاد می کنند که شرکت های فناوری می توانند برای اثرات سمی مانند میلیاردها ریه مسموم مطالعه کنند.

برای جلوگیری بهتر از خشونت افراط گرایانه ، شرکت ها باید با ایجاد نرم افزاری شروع به جستجوی انواع خاصی از تغییرات در پاسخ به پست های چهره های قدرتمند در سراسر جهان کنند. آنها باید بر دارندگان حساب هایی که به طور مساوی ویتریول تهیه و جذب می کنند – سیاستمداران ، روحانیون ، مشاهیر رسانه ها ، دستیارانی که از طرف رئیس خود سو abuse استفاده و تهمت منتشر می کنند و انواع QAnon – تمرکز کنند.

این نرم افزار ممکن است به دنبال نشانه هایی باشد که از این افراد تأثیرگذار به عنوان حمایت یا خواستار خشونت تعبیر می شود. سازندگان الگوریتم ها در یافتن برچسب هایی که انواع رفتارهای انسان را نشان می دهند مهارت دارند. آنها این کار را برای اهدافی مانند موثرتر جلوه دادن تبلیغات انجام می دهند. آنها همچنین می توانند سیگنالهایی را پیدا کنند که نشانه خشونت است.

با این حال ، نباید فقط از طریق نرم افزار مداخله کرد. مردم باید آنچه را که سیگنال می شود بررسی کنند و تماس بگیرند تا ببینند آیا توده حیاتی پیروان به طور خطرناکی تحریک می شوند.

آنچه برای تصمیم گیری تعیین کننده تلقی می شود به شرایط و شرایط بستگی دارد. ناظران باید کسانی که طرح های خشونت آمیز جعلی ارسال می کنند را فیلتر کنند. آنها در این کار تمرین دارند. تلاش برای سیستم های تعدیل محتوای بازی معمول است.

و آنها از طریق چک لیست عوامل کار می کنند. تأثیر چقدر گسترده است؟ آیا آنها به تهدیدهای شناخته شده پاسخ می دهند؟ آیا آنها به سلاح و قربانیان مورد نظر دسترسی دارند؟ طرح های آنها چقدر خاص هستند؟

وقتی ناظران معتقدند که پستی تحریک به خشونت کرده است ، با ارسال پیامی به دارنده حساب اطلاع می دهند: “بسیاری از پیروان شما درک می کنند که شما خشونت را تأیید می کنید یا خواستار آن هستید. اگر این هدف شما نیست ، لطفاً آن را به روشنی و علنی بیان کنید. “

اگر صاحب حساب حاضر نشود یا با خونسردی از پیروان خود بخواهد استعفا دهند (همانطور که ترامپ این کار را کرد) ، بار مسئولیت مداخله به عهده شرکت فناوری است. او می تواند با علنی کردن یافته های خود و تلاش برای جلب مسئولیت دارنده حساب برای رد خشونت شروع کند. یا می تواند حساب را خاموش کند.

این روش “معاینه ریه” همیشه جواب نمی دهد. در بعضی موارد ممکن است برای جلوگیری از خشونت خیلی دیر تولید داده شود ، یا محتوا آنقدر گسترده پخش می شود که مداخله در شبکه های اجتماعی تفاوت کافی ایجاد نمی کند. اما تمرکز روی جوابها ، نه فقط پستهای اولیه ، مزایای زیادی دارد.

اول ، وقتی صحبت از این امر می شد ، شرکت ها محتوا را بر اساس تأثیرات اثبات شده بارگیری می کردند تا تفسیرهای معنادار نشریه. این امر ضمن محافظت از آزادی بیان ، شانس آنها را برای محدود کردن تحریک افزایش می دهد.

این روش همچنین به دارندگان حساب اطلاع رسانی و فرصت پاسخ می دهد. اکنون پست ها یا حساب ها اغلب به صورت مختصر و با کمترین توضیح بارگیری می شوند.

سرانجام ، فرآیندی ایجاد خواهد شد که با همه پوسترها به یک اندازه رفتار می کند ، نه اینکه شرکت های فناوری اکنون به سیاستمداران و عموم مردم سو the ظن می دهند ، که اغلب به آنها اجازه می دهد استانداردهای جامعه را نقض کرده و خشونت تحریک کنند.

به عنوان مثال ، در سپتامبر 2019 ، فیس بوک گفت که دیگر قوانین خود را در برابر سخنان نفرت در پست های سیاستمداران و نامزدهای سیاسی اعمال نخواهد کرد. نیک کلگ ، مدیر اجرایی فیس بوک و دفتر سابق انگلیس گفت: “این نقش ما نیست که هنگام صحبت سیاستمداران مداخله کنیم.” فیس بوک “در مواردی که گفتار مردم را تهدید می کند” موارد استثنایی را ایجاد می کند ، اما کلگ توضیح نداد که شرکت چگونه چنین سخنرانی را شناسایی می کند.

سیستم عامل های بزرگ مانند توییتر و فیس بوک همچنین به سیاستمداران نقشه رایگان گسترده تری با آن داده اند معافیت از “تناسب اخبار” یا “منافع عمومی”: تقریباً همه آنچه توسط شخصیتهای عمومی گفته یا نوشته شده است باید بصورت آنلاین باقی بماند. جامعه باید بداند چنین افرادی چه می گویند ، این منطق منطقی است.

قطعاً شرکت های خصوصی نباید گفتمان عمومی را خفه کنند. اما افرادی که در موقعیت های برجسته هستند همیشه می توانند بدون برنامه یا سیستم عامل به مردم دسترسی پیدا کنند. همچنین ، در شبکه های اجتماعی ، قانون “حق جامعه برای دانستن” یک اثر دایره ای دارد ، زیرا با دسترسی به موضوعات ، موضوعات افزایش می یابد و کاهش می یابد. ایجاد یک اتصال فیلتر نشده به سیاستمداران به آنها تأثیر می بخشد و سخنان آنها را شایسته اخبار می کند.

در مورد ترامپ ، شرکت های رسانه های اجتماعی به او اجازه داده اند که سالها اغلب با دروغ ، تهدید و تحریک خشونت کند. به عنوان مثال ، فیس بوک فقط زمانی مداخله کرد که سیاست ضد اطلاعات COVID-19 خود را به شدت نقض کرد تا اینکه حساب خود را در 7 ژانویه به طور دائم معلق کرد ، مدتها پس از نقض برجام توسط طرفداران خود. با پیش بینی خشونت ، شرکت ها قوانین خود را در برابر تحریک خشونت بدون دندان وضع کرده اند.

تصمیم نهایی فیس بوک برای ممنوع کردن رئیس جمهور سابق هرچه باشد خیلی دیر اتفاق خواهد افتاد تا از صدمه ای که با تحریک آنلاین و اطلاعات غلط به دموکراسی ما وارد کرده جلوگیری کند. شرکت های فنی ابزارهای قدرتمندی برای اجرای قوانین خود در برابر چنین محتوایی دارند. آنها فقط باید از آنها به طور مثر استفاده کنند.

سوزان بنز بنیانگذار و مدیر پروژه گفتار خطرناک است که ضمن دفاع از آزادی بیان ، گفتارهایی را که به خشونت بین گروهی القا می کند و راه های جلوگیری از آن را مطالعه می کند. وی همچنین استاد مرکز اینترنت و جامعه Berkman Klein در دانشگاه هاروارد است.



[ad_2]

منبع: spring-news.ir