حمایت مالی شد
اولین پاسخ‌دهندگان دیجیتال محتوای شرورانه را به‌صورت آنلاین نمایش می‌دهند تا ما مجبور به انجام آن نباشیم.
ارائه شده توسط Teleperformance
بر کسی پوشیده نیست که شکارچیان دیجیتال با تعداد بی سابقه ای در کمین آنلاین هستند و دیگران را در معرض زبان، تصاویر، فیلم ها و فعالیت های مضر قرار می دهند. با 300 ساعت محتوای تولید شده توسط کاربر که در هر دقیقه در اینترنت آپلود می شود ، محافظت از کاربران ناآگاه به یک کار بزرگ تبدیل شده است. طبق Variety ، محتوای تولید شده توسط کاربر 39 درصد از کل زمان صرف شده با رسانه را تشکیل می دهد. بنابراین، چگونه شرکت ها می توانند از فضاهای آنلاین محافظت کنند و یکپارچگی نام تجاری را با این همه محتوا که به طور مستقل تولید می شود حفظ کنند؟
ناظران انسانی انعطاف‌پذیر (که به آنها اولین پاسخ‌دهنده دیجیتال نیز گفته می‌شود) وارد شوید که با کمال میل وظیفه چالش برانگیز اطمینان از ایمن بودن تجربیات دیجیتالی ما را می‌پذیرند.
ممکن است بپرسید که یک ناظر محتوا دقیقاً چه کاری انجام می دهد؟ برای پاسخ به این سوال، اجازه دهید از ابتدا شروع کنیم.
اگرچه اصطلاح تعدیل اغلب اشتباه تعبیر می شود، اما هدف اصلی آن مشخص است – ارزیابی محتوای تولید شده توسط کاربر از نظر پتانسیل آن برای آسیب رساندن به دیگران. وقتی صحبت از محتوا می شود، اعتدال عبارت است از جلوگیری از رفتارهای افراطی یا مخرب، مانند زبان توهین آمیز، قرار گرفتن در معرض تصاویر یا ویدیوهای گرافیکی، و کلاهبرداری یا سوء استفاده از کاربر.
رفتارهای بدخواهانه و غیرقانونی که توسط بازیگران بد انجام می شود، شرکت ها را به روش های زیر در معرض خطر جدی قرار می دهد:
با این حال، اهمیت حیاتی تعدیل محتوا فراتر از محافظت از مشاغل است. مدیریت و حذف محتوای حساس و فاحش برای هر گروه سنی مهم است.
همانطور که بسیاری از کارشناسان خدمات ایمنی و اعتماد شخص ثالث می توانند تأیید کنند، برای کاهش گسترده ترین طیف خطرات، رویکردی چند جانبه لازم است. ناظران محتوا باید از اقدامات پیشگیرانه و پیشگیرانه برای به حداکثر رساندن ایمنی کاربر و محافظت از اعتماد برند استفاده کنند. در محیط آنلاین به شدت سیاسی و اجتماعی امروزی، اتخاذ رویکرد "بدون اعتدال" منتظر و تماشا دیگر یک گزینه نیست.

بسیاری از انواع تعدیل محتوا شامل مداخله انسان در مقطعی می شود. با این حال، تعدیل واکنشی و اعتدال توزیع شده رویکردهای ایده آلی نیستند، زیرا محتوای مضر تا زمانی که در معرض دید کاربران قرار نگرفته است، مورد توجه قرار نمی گیرد. Post-Moderation یک رویکرد جایگزین ارائه می‌دهد، که در آن الگوریتم‌های مبتنی بر هوش مصنوعی محتوا را برای عوامل خطر خاص نظارت می‌کنند و سپس به یک ناظر انسانی هشدار می‌دهند تا بررسی کند که آیا برخی پست‌ها، تصاویر یا ویدیوها در واقع مضر هستند و باید حذف شوند. با یادگیری ماشینی، دقت این الگوریتم‌ها در طول زمان بهبود می‌یابد.
اگرچه رفع نیاز به ناظران محتوای انسانی ایده آل است، با توجه به ماهیت محتوایی که آنها در معرض آن هستند (از جمله مطالب سوء استفاده جنسی از کودکان، خشونت گرافیکی، و سایر رفتارهای مضر آنلاین)، بعید است که این امر هرگز امکان پذیر باشد. درک، درک، تفسیر و همدلی انسانی به سادگی نمی تواند از طریق ابزارهای مصنوعی تکرار شود. این ویژگی های انسانی برای حفظ یکپارچگی و اصالت در ارتباطات ضروری است. در واقع، 90٪ از مصرف کنندگان می گویند که اصالت در تصمیم گیری از برندهایی که دوست دارند و حمایت می کنند مهم است (از 86٪ در سال 2017).
در حالی که عصر دیجیتال ابزارهای پیشرفته و هوشمندی (مانند اتوماسیون و هوش مصنوعی) مورد نیاز برای جلوگیری یا کاهش سهم بزرگ خطرات امروزی را در اختیار ما قرار داده است، ناظران محتوای انسانی همچنان به عنوان واسطه عمل می کنند و آگاهانه خود را در معرض خطر قرار می دهند تا از کاربران محافظت کنند. و برندهای مشابه
در حالی که نقش ناظر محتوا، دنیای دیجیتال را به مکانی امن‌تر برای دیگران تبدیل می‌کند، مدیران را در معرض محتوای آزاردهنده قرار می‌دهد. آنها اساساً اولین پاسخ دهندگان دیجیتالی هستند که از کاربران بی گناه و بی خبر از محتوای ناراحت کننده عاطفی محافظت می کنند – به ویژه آن دسته از کاربرانی که آسیب پذیرتر هستند، مانند کودکان.
برخی از ارائه دهندگان خدمات ایمنی و اعتماد معتقدند که راه متفکرانه تر و کاربر محورتر برای نزدیک شدن به اعتدال این است که این موضوع را به عنوان یک والدین در نظر بگیرند که سعی دارد از فرزند خود محافظت کند – چیزی که می تواند (و شاید باید) به یک پایه برای همه مارک ها تبدیل شود. چیزی که مطمئناً به مدیران شجاع در سراسر جهان انگیزه می دهد تا در مسیر مبارزه با شر آنلاین امروزی باقی بمانند.
دفعه بعد که با رها کردن بی دغدغه در فید رسانه های اجتماعی خود پیمایش می کنید، لحظه ای به چیزی بیشتر از محتوایی که می بینید فکر کنید—محتوای ناخواسته ای را که نمی بینید در نظر بگیرید و در سکوت از مدیران خط مقدم به خاطر مطالب شخصی تشکر کنید. فداکاری هایی که هر روز انجام می دهند.
این محتوا توسط Teleperformance تولید شده است. این توسط هیات تحریریه MIT Technology Review نوشته نشده است.
Wallpaper Engine به پناهگاهی برای کاربران چینی مبتکر تبدیل شده است که از آن برای قاچاق محتوای بزرگسالان به عنوان کاغذ دیواری دسکتاپ استفاده می کنند. اما چقدر می تواند دوام بیاورد؟
در معیارهای کلیدی، یک تجربه VR پاسخی غیرقابل تشخیص را از افرادی که دوزهای متوسط LSD یا قارچ جادویی مصرف کرده بودند، به همراه داشت.
شرکت ها در حال حاضر سیستم هایی را در اختیار دارند که برای ارزیابی تأثیرات عمیق تر آنها بر بافت اجتماعی مورد نیاز است.
کاربران لینکدین توسط ارتباطات جعلی که خود را فارغ‌التحصیل دانشگاه‌های معتبر و کارمندان شرکت‌های فناوری برتر نشان می‌دهند، میلیون‌ها دلار کلاهبرداری می‌کنند.
پیشنهادهای ویژه، داستان های برتر، رویدادهای آینده و موارد دیگر را کشف کنید.
از اینکه ایمیل خود را ثبت کردید، متشکریم!
به نظر می رسد مشکلی پیش آمده است.
ما در ذخیره تنظیمات برگزیده شما با مشکل روبرو هستیم. سعی کنید این صفحه را بازخوانی کنید و یک بار دیگر آنها را به روز کنید. اگر همچنان این پیام را دریافت می‌کنید، با فهرستی از خبرنامه‌هایی که می‌خواهید دریافت کنید، با ما از طریق customer-service@technologyreview.com تماس بگیرید.
گزارش‌های عمیق ما نشان می‌دهد که در حال حاضر چه اتفاقی می‌افتد تا شما را برای اتفاقات بعدی آماده کند.
اشتراک در برای حمایت از روزنامه نگاری ما
© 2022 بررسی فناوری MIT

source

توسط techkhabari