Мета довго готувався до виборів до Європарламенту. Минулого року ми активували спеціальну команду для розробки індивідуального підходу, щоб допомогти зберегти чесність цих виборів на наших платформах.
Незважаючи на те, що кожні вибори унікальні, ця робота спиралася на ключові уроки, які ми винесли з понад 200 виборів у всьому світі з 2016 року, а також на нормативну базу, встановлену відповідно до Закону про цифрові послуги, і наші зобов’язання в Кодексі практики ЄС щодо дезінформації . Ці уроки допомагають нам зосередити наші команди, технології та інвестиції так, щоб вони мали найбільший вплив.
З 2016 року ми інвестували понад 20 мільярдів доларів у безпеку та вчетверо збільшили розмір нашої глобальної команди, яка працює в цій сфері, приблизно до 40 000 людей. Це включає 15 000 рецензентів контенту, які перевіряють контент у Facebook, Instagram і Threads більш ніж 70 мовами, включаючи всі 24 офіційні мови ЄС.
За останні вісім років ми розгорнули провідні в галузі інструменти прозорості для реклами про соціальні проблеми, вибори чи політику, розробили комплексні політики щодо запобігання втручанню у вибори та фальсифікації виборців, а також створили найбільшу серед усіх соціальних програм сторонню програму перевірки фактів. медіа-платформа для боротьби з поширенням дезінформації. Нещодавно ми взяли на себе зобов’язання відповідально підходити до нових технологій, таких як GenAI. Ми будемо використовувати всі ці ресурси напередодні виборів.
З наближенням виборів ми також активуємо Спеціальний виборчий центр ЄС, який об’єднає експертів з усієї компанії з нашої розвідки, науки про дані, інженерії, досліджень, операцій, політики щодо вмісту та юридичних команд, щоб виявити потенційні загрози та розробити конкретні пом’якшення в наших програмах і технологіях у режимі реального часу.
Ось три ключові сфери, на яких наші команди зосередяться:
Боротьба з дезінформацією
Ми видаляємо найсерйозніші види дезінформації з Facebook, Instagram і Threads, як-от вміст, який може сприяти неминучому насильству чи фізичній шкоді, або який має на меті придушити голосування.
Для вмісту, який не порушує ці правила, ми співпрацюємо з незалежними організаціями з перевірки фактів — 26 партнерами по всьому ЄС, що охоплюють 22 мови — які переглядають і оцінюють вміст. Зараз ми розширюємо програму в Європі за допомогою 3 нових партнерів у Болгарії, Франції та Словаччині.
Коли ці перевірячі фактів розвінчують вміст, ми прикріплюємо до нього попереджувальні мітки та зменшуємо його розповсюдження в стрічці, щоб люди менше його побачили. Наприклад, у період з липня по грудень 2023 року понад 68 мільйонів одиниць вмісту, які переглянули в ЄС у Facebook та Instagram, мали позначки перевірки фактів. Коли до публікації розміщується перевірена мітка, 95% людей не клацають, щоб переглянути її.
Напередодні виборів ми спростимо для всіх наших партнерів із перевірки фактів у всьому ЄС пошук і оцінку вмісту, пов’язаного з виборами, оскільки ми розуміємо, що швидкість особливо важлива під час екстрених новин. Ми використовуватимемо визначення ключових слів, щоб згрупувати пов’язаний вміст в одному місці, щоб спеціалісти з перевірки фактів могли його легко знайти. Наші партнери з перевірки фактів також підключаються до нашого нового дослідницького інструменту, Meta Content Library , який має потужні можливості пошуку, щоб допомогти їм у їхній роботі.
Ми не дозволяємо рекламу, яка містить розвінчаний вміст. Ми також не дозволяємо рекламу, націлену на ЄС, яка перешкоджає людям голосувати на виборах; поставити під сумнів легітимність виборів; містять передчасні заяви про перемогу на виборах; та ставлять під сумнів легітимність методів і процесів виборів, а також їх результати. Наш процес перевірки оголошень складається з кількох рівнів аналізу та виявлення як до, так і після публікації оголошення, про що ви можете прочитати більше тут .
Ми працюємо з Європейською мережею стандартів перевірки фактів (EFCSN) над проектом, який допоможе навчити спеціалістів із перевірки фактів у всій Європі щодо найкращого способу оцінки створених штучним інтелектом і цифрових змінених медіа, а також над кампанією медіаграмотності для підвищення обізнаності громадськості про те, як щоб виявити такий тип вмісту. Ми почнемо приймати сертифікацію EFCSN як передумову для участі в програмі перевірки фактів Meta в Європі, на знак визнання жорстких стандартів, які вона встановила для європейської спільноти перевірки фактів. Meta також підтримує Європейський форум інвалідів у проведенні кампанії медіаграмотності перед виборами в ЄС, зосереджуючись на інклюзії.
Боротьба з операціями впливу
Ми визначаємо операції впливу як скоординовані зусилля з маніпулювання або псування публічних дебатів заради досягнення стратегічної мети – те, що деякі можуть називати дезінформацією – і які можуть включати або не включати дезінформацію як тактику. Вони можуть варіюватися від прихованих кампаній, які спираються на підроблені особи (те, що ми називаємо скоординованою неавтентичною поведінкою), до відкритих зусиль контрольованих державою засобів масової інформації.
Щоб протистояти операціям таємного впливу, ми створили спеціалізовані глобальні команди, щоб зупинити скоординовану неавтентичну поведінку, а також дослідили та знищили понад 200 таких ворожих мереж з 2017 року, про що ми публічно ділимося в рамках наших Квартальних звітів про загрози . Це надзвичайно ворожий простір, де оманливі кампанії, які ми припиняємо, продовжують намагатися повернутися та уникнути виявлення нами та іншими платформами, тому ми постійно вживаємо заходів, коли виявляємо нові порушення. Під час підготовки ми провели сесію, щоб зосередитися на загрозах, пов’язаних саме з виборами до Європейського парламенту.
Ми також позначаємо контрольовані державою ЗМІ у Facebook, Instagram і Threads, щоб люди знали, коли вміст походить від публікації, яка може перебувати під редакційним контролем уряду. Після того, як ми застосували нові та суворіші заходи щодо російських державних ЗМІ, зокрема блокували їх у ЄС і понизили їхні публікації в усьому світі, останнє дослідження Graphika показує, що кількість публікацій на їхніх сторінках зменшилася на 55%, а рівень залученості впав на 94% порівняно з цим. до довоєнного рівня, тоді як «більше половини всіх російських державних ЗМІ взагалі припинили публікацію».
Протидія ризикам, пов’язаним зі зловживанням технологіями GenAI
Наші стандарти спільноти та рекламні стандарти застосовуються до всього вмісту, включно з вмістом, створеним штучним інтелектом, і ми вживатимемо заходів проти цього типу вмісту, якщо він порушує ці правила. Вміст, створений штучним інтелектом, також може бути перевірений і оцінений нашими незалежними партнерами з перевірки фактів. Одним із варіантів рейтингу є Altered , який включає «підроблені, маніпульовані або трансформовані аудіо, відео чи фотографії». Коли його оцінюють як такий, ми позначаємо його та знижуємо рейтинг у стрічці, щоб менше людей бачили його. Ми також не дозволяємо показувати рекламу, якщо її було спростовано.
Щодо вмісту, який не порушує нашу політику, ми вважаємо, що людям важливо знати, коли фотореалістичний вміст, який вони бачать, створено за допомогою штучного інтелекту. Ми вже позначаємо фотореалістичні зображення, створені за допомогою Meta AI, і створюємо інструменти для позначення згенерованих штучним інтелектом зображень із Google, OpenAI, Microsoft, Adobe, Midjourney і Shutterstock, які користувачі публікують у Facebook, Instagram і Threads.
Ми також додамо функцію, за допомогою якої люди зможуть повідомляти, коли вони діляться створеним штучним інтелектом відео чи аудіо, щоб ми могли додати до них мітку, і ми можемо застосовувати штрафи, якщо вони цього не зроблять. Якщо ми визначимо, що цифровий або змінений зображення, відео чи аудіовміст створює особливо високий ризик матеріального введення громадськості в оману щодо важливого питання, ми можемо додати більш помітну позначку, щоб люди мали більше інформації та контексту.
Рекламодавці, які розміщують рекламу, пов’язану з соціальними проблемами, виборами чи політикою, за допомогою Meta також повинні повідомляти, чи використовують вони фотореалістичне зображення чи відео чи реалістичне звучання аудіо, які були створені чи змінені цифровим способом, зокрема за допомогою ШІ, у певних випадках. Це на додаток до нашої найкращої в галузі прозорості реклами, яка включає процес перевірки, щоб довести, що рекламодавець є тим, ким він себе видає, і що він живе в ЄС; відмова від відповідальності «Оплачено», щоб показати, хто стоїть за кожною рекламою; і наша бібліотека оголошень , де кожен може побачити, які оголошення показуються, переглянути інформацію про націлювання та дізнатися, скільки на них було витрачено. У період з липня по грудень 2023 року ми видалили 430 000 оголошень у всьому ЄС через відсутність застереження.
Оскільки контент, створений штучним інтелектом, з’являється в Інтернеті, ми також працюємо з іншими компаніями в нашій галузі над загальними стандартами та рекомендаціями. Наприклад, ми є членом Партнерства з штучного інтелекту , і нещодавно підписали технічну угоду , спрямовану на боротьбу з розповсюдженням оманливого вмісту штучного інтелекту під час виборів 2024 року. Ця робота більша, ніж будь-яка окрема компанія, і вимагатиме величезних зусиль у галузі, уряді та громадянському суспільстві.
Щоб дізнатися більше про те, як Meta підходить до виборів, відвідайте нашу сторінку «Підготовка до виборів» .