Рубрики
МЕНЮ
Павел Зинченко
Facebook оголосив у четвер, що програмне забезпечення штучного інтелекту тепер виявляє 94,7% висловлювань, що розпалюють ненависть, і які потім видаляються з його платформи.
ФОТО: CNBC
Майк Шрепфер, технічний директор Facebook, опублікував цю цифру у своєму блозі, додавши, що вона виросла з 80,5% рік тому і усього з 24% у 2017 році. Ця цифра також була опублікована в останньому звіті Facebook про дотримання стандартів спільноти.
Компанії соціальних мереж, такі як Facebook, Twitter і TikTok, раніше жорстко критикувалися за те, що вони не приховували ненависницькі висловлювання, такі як образи на расовому та релігійному грунті, на своїх платформах.
Компанії наймають тисячі модераторів контенту по всьому світу, щоб стежити за публікаціями, фотографіями і відео, які публікуються на їх платформах. У середу понад 200 модераторів Facebook заявили у відкритому листі генеральному директору Марку Цукербергу, що компанія ставить їх життя під загрозу, змушуючи їх повернутися в офіс під час пандемії коронавірусу.
Технологічні гіганти все більше покладаються на область штучного інтелекту, відому як машинне навчання, завдяки якій алгоритми автоматично поліпшуються на основі отриманого досвіду. Шрепфер зазначив, що проблеми, з якими стикається Facebook, складні, деталізовані і швидко розвиваються, додавши, що неправильна класифікація контенту, на кшталт розпалювання ненависті або дезінформації, може перешкодити людям самовиражатися.
Як повідомляло видання "Коментарі", Facebook погрожують за відмову видаляти "антидержавні" пости.
Новини