سوءاستفاده از سوءاستفاده از رسانه های اجتماعی یک وظیفه برجسته است - اما شرکت های میلیارد دلاری باید با آن روبرو شوندReviewed by mjs on Nov 9Rating: 4.5سوءاستفاده از سوءاستفاده از رسانه های اجتماعی یک وظیفه برجسته است - اما شرکت های میلیارد دلاری باید با آن روبرو شوندسوءاستفاده از سوءاستفاده از رسانه های اجتماعی یک وظیفه برجسته است - اما شرکت های میلیارد دلاری باید با آن روبرو شوند.سوءاستفاده از سوءاستفاده از رسانه های اجتماعی یک وظیفه برجسته است - اما شرکت های میلیارد دلاری باید با آن روبرو شوندبخش عمده ای از فعالیت هایی که زندگی ما را آنلاین می سازد، به طور عمومی انجام می شود. سیستم عامل های اجتماعی غول پیکر - فیس بوک، توییتر، یوتیوب - تا حدودی در مورد اصول مشابه طراحی شده اند؛ آنها در مشارکت جهانی باز، فوری و جهانی رشد می کنند.
سوءاستفاده از سوءاستفاده از رسانه های اجتماعی یک وظیفه برجسته است – اما شرکت های میلیارد دلاری باید با آن روبرو شوندبخش عمده ای از فعالیت هایی که زندگی ما را آنلاین می سازد، به طور عمومی انجام می شود. سیستم عامل های اجتماعی غول پیکر – فیس بوک، توییتر، یوتیوب – تا حدودی در مورد اصول مشابه طراحی شده اند؛ آنها در مشارکت جهانی باز، فوری و جهانی رشد می کنند.
فرآیندهای ثبت نام، ارسال و پیدا کردن یا ایجاد جوامع برای برقراری ارتباط با حداکثر ممکن ساخته شده است. این رویکرد موجب انفجار در ارتباطات شده است و آرایه ای رنگارنگ از کانال ها، گروه ها و هشتگ های ویژه ای را ایجاد کرده است که مردم را قادر می سازد تا موضوعات مورد بحث را مورد بحث قرار دهند.
این طراحی باز و مقیاس گسترده ای که محتوای ایجاد شده و به اشتراک گذاشته می شود، هر دو کلید سیستم عامل های رسانه های اجتماعی است. آنها به تولید فعالیت های شگفت انگیز از دوستداران، retweets و نظرات مربوط به این سیستم عامل بستگی دارد.
زمان بیشتری صرف کلیک کردن، اشتراک گذاری و بحث در مورد پلتفرم می شود که تبلیغات بیشتری را مشاهده می کنید و بهتر است این تبلیغات را هدف قرار دهید. این یک مدل تجاری جدید نیست، اما ثابت شده است که بسیار موثر است. فیس بوک سه ماهه آخر سال گذشته 8.8 میلیارد دلار درآمد داشته است، بیشتر آن از طریق تبلیغات.
 کاشی برنامه توییتر بر روی یک صفحه نمایش تلفن همراه
توییتر یکی دیگر از شرکت هایی است که با انتقاد از نحوه فیلتر کردن محتوای CREDIT مواجه است: RICHARD DREW / AP PHOTO
مشکل با قرار دادن چنین حق بیمه در دسترسی فوری، این است که با محتوا که نفرت انگیز، سوءاستفاده یا غیرقانونی است، مقابله کند. عدم امنیت سنتی سردبیران و مدیران قادر به نمایش محتویات قبل از اینکه قابل دیدن عمومی باشد، شرکت های رسانه ای اجتماعی خود را در معرض تهدیدات خشونت آمیز، سخنان نفرت انگیز و در برخی موارد از سوء استفاده از سوء استفاده جنسی از کودکان قرار داده اند.
اکثر سیستم عامل ها دارای دستورالعمل های دقیق در مورد محتوای قابل قبول هستند. با این حال، سوال این است که آیا آنها به اندازه کافی برای حذف محتوا که در مقابل این موارد هستند انجام می دهند. این مسئله روز به روز روزنامه نگاران و نمایندگان مجلس افزایش می یابد و نمایندگان فیس بوک، گوگل و توییتر روز گذشته در جلسه کمیته داخلی امور داخلی حضور داشتند.
هنگامی که به حذف محتوا می آید، سیستم عامل با دو چالش متفاوت مواجه می شود. اولین مورد از این واکنش است: چگونه می توان با محتوا که به عنوان مشکلی گزارش شده است، سریع و موثر باشد. دوم فعال است: سیستم عامل ها می توانند قبل از اینکه گزارش را شناسایی و حذف محتوای خطرناکی را انجام دهند، به طور ایده آل قبل از اینکه حتی دیده شوند.
در اولین مورد از این موارد، واضح است که سیستم عاملها برای حذف محتوایی که به طور واضح غیرقانونی است یا شرایط سرویس آنها را نقض می کند، می تواند بهبود یابد. این فرآیندها اغلب طولانی و مبهم هستند، و در صورت تصمیم گیری برای حذف محتویات، همیشه روشن نیست که چرا. این نیاز به افزایش ارتباطات و شفافیت نه تنها یک مشکل برای کاربران است که محتوای آن را پررنگ کرده است، بلکه برای مقامات – در سال گذشته، گزارش از مجلس لردان کانال های ارتباطی ضعیف بین سیستم عامل ها و اجرای قانون را به عنوان یک مشکل اساسی برای حل مسئله مشخص کرد .
سوال این است که وقتی یک نظر از انتقاد یا طنز به سوء استفاده بر می آید، تصمیم گیری سخت و دشوار است. از زمان آغاز وب، منطقه خاکستری در محدوده گفتمان قابل قبول یکی است که در آن جوامع آنلاین – ترول ها، طلسم ها و تحریک کنندگان – پیشرفت کرده اند. وظیفه ایجاد پروتکل ها و دستورالعمل هایی برای حذف محتوا تنها به تنهایی نمی تواند به شرکت های رسانه ای اجتماعی منتهی شود و ضروری است که جامعه مدنی، سازمان های سخنرانی آزاد، گروه هایی که جوامع آسیب پذیر و اجرای قانون را نمایندگی می کنند و نه کاربران سیستم عامل خودشان در بحث شرکت می کنند تا تصمیم بگیرند که کدام محتوای باید پرچم گذاری شود و حذف شود. بخش عمده این کار در حال حاضر در حال انجام است – شرکت های رسانه ای اجتماعی، باید توجه داشت، از این مشکل برای سال ها آگاه بوده است، اما روشن است که بیشتر می تواند انجام شود.
مدیر عامل شرکت تویوتا کوملو: ما در معالجه با سوء استفاده قرار می گیریم
سؤال پیشگیرانه برای مقابله با آن سخت تر است. اغلب مشخص شده است که شرکت های فن آوری در استفاده از الگوریتم های خوب برای طراحی چگونگی تبلیغ بر اساس الگوهای مرور ما و حذف تصاویر نوک سینه های زن از Instagram خوب هستند. پس چرا نمی توانند از رویکرد مشابه برای خلاص شدن از سخنان نفرت و تهدید زبان استفاده کنند؟ مشکل اینجاست که زبان انسانی ذاتا کثیف است. در بسیاری از موارد، این که آیا چیزی غیرمسئولانه محسوب می شود، بستگی به زمینه مکالمه، شخص مورد نظر و معنای در حال تغییر در پشت زبان استفاده می شود (که می توانست یک سال پیش از این که “برف ریزه” اصطلاح قدرتمند؟)
در حالیکه پیشرفت های زیادی در یادگیری ماشین و پردازش زبان طبیعی صورت می گیرد، مشکلات که رایانه ها در حل مسئله خوب می شوند – برای مثال بازی شطرنج، یا یافتن سریع ترین مسیر اتوبوس از طریق مرکز لندن، به وضوح با مشکلی مواجه شده اند که نسبتا بدون تردید راه حل ها با این حال، در موارد محتوای توهین آمیز، این توافق اغلب غیرممکن است – هرچند محدودیت سخنرانی قابل قبول یک سوال ذاتی انسان است، طراحی این مرزها اغلب کارهایی است که حتی انسانها برای آن توافق ندارند.
گفتار آزاد در برابر سوء استفاده: رسانه های اجتماعی بررسی شد
البته، مشکل این کار به این معنا نیست که نباید تلاش کرد. این احتمال وجود دارد که محتوای الگوریتم شناسایی محتوای پرچم دار نقش کلیدی در اینجا بازی کند، حتی اگر تنها در موارد کمترین اختلاف نظر در مورد غیرقانونی بودن باشد. اگر کسی دانش فنی و منابع فنی برای انجام این کار را داشته باشد، این غول رسانه های اجتماعی است و افزایش فشار عمومی برای رفع این مشکل کمک می کند تا به برخی از فوریت های این کار کمک کند. با این حال، ما باید مراقب باشیم که این وظیفه صرفا در دستان خود باشد. ضروری است که این الگوریتم ها را پاسخگو و بدون تعصب نگه دارند، مخصوصا در مواردی که آنها برای سانسور گفتمان عمومی یا گزارش غیر قانونی استفاده می شوند. جامعه مدنی و عموم مردم نقشی کلیدی در نظارت آنها دارند.
موضوع اتصال این همه نیاز به گفتگو و شفافیت است. در جایی که کاربران محتوای خشونتآمیز را علامتگذاری کردهاند، باید در مورد آنچه اتفاق میافتد، ارتباط برقرار شود، زمانی که اقدام به احتمال زیاد انجام شود، و در صورت امکان، استدلال در پشت هر تصمیم گیری باشد. در جایی که مشکلات در تشخیص و یا حذف محتوا وجود دارد، از دیدگاه فنی یا اخلاقی، دولت، جامعه مدنی و شرکت های رسانه های اجتماعی باید بتوانند به طور صریح صحبت کنند و درباره چگونگی مشکالت و چگونگی حل آنها تصمیم گیری کنند. در نهایت، در صورتی که روش های اتوماتیک قرار داده شود، ما نیاز به درک نقاط قوت و ضعف خود داریم، و همچنین تصمیم هایی را که به اندازه شفاف و پاسخگویی در نظر گرفته شده اند، درک کنیم.