به گزارش آیندگان
متا، اسنپچت و تیکتاک با هم همکاری میکنند تا در طرحی به نام Thrive محتواهای زیان اور درمورد خودکشی و خودآزاری را در پلتفرمهایشان تشخیص دهند. کارکرد این برنامه به این صورت است که اگر متا این چنین محتواهای مضری در پلتفرمهای خود شناسایی کرد، سیگنالی به دیگر شرکتها میفرستد تا وجود این محتوا را در اپلیکیشنهایشان بازدید کنند.
بر پایه اظهار متا، «ائتلاف سلامت روان» برای تشکیل برنامه Thrive به شرکتهای فناوری اجازه میدهد سیگنالهایی درمورد تشخیص محتوای خودکشی یا خودآزاری به دیگر پلتفرمها بفرستند تا از انتشار کردن آنها در پلتفرمهای گوناگون جلوگیری شود. متا دراینباره میگوید:
«همانند تعداد بسیاری از انواع گوناگون محتوای مشکلساز، محتوای خودکشی و خودآزاری به هیچ پلتفرمی محدود نیست… به همین علت با ائتلاف سلامت روان تلاش کردیم Thrive به وجود بیاید. این برنامه برای بهاشتراکگذاشتن سیگنالهای مربوط به نقض [قوانین درباره] محتوای خودکشی و خودآزاری است.»
نحوه کارکرد برنامه Thrive متا، اسنپچت و تیکتاک
هنگامی که شرکتی همانند متا محتوای مضری را در اپلیکیشنهای خود کشف میکند، هش (کد ناشناس مربوط به محتوای خودآزاری یا خودکشی) را با دیگر شرکتهای فناوری به اشتراک میگذارد، تا آنها بتوانند پایگاه دادههایشان را برای جستوجوی همان محتوا بازدید کنند.
آخرین مطالب
متا میگوید از آوریل تا ژوئن امسال (فروردین و خرداد)، بیشتر از ۱۲ میلیون محتوای مربوط به خودکشی و خودآزاری در فیسبوک و اینستاگرام شناسایی کرده است. این شرکت اگرچه به کاربران اجازه میدهد درمورد ازمایش ها خودکشی و خودآزاری خود سخن بگویید کنند، هنگامی این مطالب جنبه ترغیب دیگران به این چنین کاری اشکار کند، محتوایی زیان اور شناسایی میشود.
یکی از مسائل دشوار تشخیص محتوای زیان اور در شبکههای اجتماعی این است که باید دائم تحت نظارت قرار بگیرند. هوش مصنوعی مطمئناً میتواند به برچسبگذاری خودکار این محتواهای زیان اور پشتیبانی کند اما تعداد بسیاری از این محتواها جزئیات ظریفی دارند که فقط انسان میتواند جنبه زیان اور آنها را تشخیص دهد. اکنون شرکتهای فناوری در برنامه Thrive قدم مهمی برداشتهاند تا فرایند پیچیده یافتن و پاکسازی این محتواها مقداری آسانتر شود.
دسته بندی مطالب
فرهنگ وهنر