Соцмережі видаляють контент, що містить сцени насильства зі своїх платформ за допомогою штучного інтелекту. Проте ці кадри могли б допомогти суду.
Повідомляє ВВС.
Член наглядової ради Meta Алан Расбріджер вважає, що соціальні мережі є надміру обережними в модерації.
Власники соцмереж стверджують, що відео із зон бойових дій залишаються онлайн, якщо становлять суспільний інтерес. Проте коли BBC спробувала завантажити кадри вбивства цивільних в Україні, їх швидко прибрали.
Штучний інтелект програмується для автоматичного видалення шкідливого та насильницького контенту. Але, коли йдеться про модерацію відео з країн, де триває війна, він просто не може визначити, чи є ці кадри доказами порушення прав людини чи ні.
Правозахисники наполягають, щоб соцмережі терміново діяли в інтересах збереження цієї інформації.
“Штучний інтелект програмували так, щоби у момент, коли машина бачить щось, що здається важким або травматичним, одразу прибирати це”, – пояснює Расбріджер.
Рада Meta, до якої він належить, створена Марком Цукербергом та є незалежним органом, який надає керівництво компаніям Facebook та Instagram. Правозахисники наполягають на тому, щоб соціальні мережі негайно створили всесвітній резервний архів, в якому б зберігалися видалені фото та відео. При цьому правоохоронні органи та розслідувачі повинні мати доступ до цього архіву.
“Нам необхідно створити механізм, за допомогою якого цю інформацію можна зберегти для можливого притягнення до відповідальності у майбутньому. Соціальні мережі мають бути готові до взаємодії з правоохоронцями”, – погоджується Бет Ван Скок, посол США з питань правосуддя.
- intense_featured_gallery:
- intense_featured_image_type:
- standard
- intense_image_shadow:
- null
- intense_hover_effect_type:
- null
- intense_hover_effect:
- 0
- intense_featured_audio_url:
- intense_featured_video_type:
- intense_featured_color:
- intense_post_subtitle:
- intense_post_single_template: