Як компанію, яка вже більше десяти років є передовою у розробці штучного інтелекту, було надзвичайно приємно спостерігати за вибухом творчості людей, які використовують наші нові генеративні інструменти штучного інтелекту, як-от наш генератор зображень Meta AI, який допомагає людям створювати зображення за допомогою простих текстові підказки.
Оскільки різниця між людським і синтетичним вмістом стає розмитою, люди хочуть знати, де проходить межа. Люди часто вперше стикаються зі створеним штучним інтелектом контентом, і наші користувачі сказали нам, що вони цінують прозорість цієї нової технології. Тому важливо, щоб ми допомагали людям знати, коли фотореалістичний контент, який вони бачать, створений за допомогою ШІ. Ми робимо це, застосовуючи мітки «Imagined with AI» до фотореалістичних зображень, створених за допомогою нашої функції Meta AI, але ми хочемо також мати можливість робити це з вмістом, створеним за допомогою інструментів інших компаній.
Ось чому ми співпрацюємо з галузевими партнерами, щоб узгодити загальні технічні стандарти, які сигналізують про те, коли вміст було створено за допомогою ШІ. Можливість виявити ці сигнали дасть нам змогу позначати створені штучним інтелектом зображення, які користувачі публікують у Facebook, Instagram і Threads. Зараз ми створюємо цю можливість, а в найближчі місяці ми почнемо застосовувати мітки всіма мовами, які підтримуються кожною програмою. Ми використовуємо цей підхід протягом наступного року, протягом якого в усьому світі відбудеться низка важливих виборів. За цей час ми очікуємо дізнатися набагато більше про те, як люди створюють і діляться вмістом штучного інтелекту, яку прозорість люди вважають найціннішою та як ці технології розвиваються. Те, що ми дізнаємося, буде інформувати про найкращі практики галузі та наш власний підхід у майбутньому.
Новий підхід до ідентифікації та маркування контенту, створеного ШІ
Коли фотореалістичні зображення створюються за допомогою нашої функції Meta AI, ми робимо кілька речей, щоб переконатися, що люди знають про задіяність AI, зокрема розміщуємо видимі маркери , які ви бачите на зображеннях, а також невидимі водяні знаки та метадані, вбудовані у файли зображень. Використання невидимих водяних знаків і метаданих таким чином покращує надійність цих невидимих маркерів і допомагає іншим платформам їх ідентифікувати. Це важлива частина нашого відповідального підходу до створення генеративних функцій ШІ .
Оскільки створений штучним інтелектом контент з’являється в Інтернеті, ми співпрацюємо з іншими компаніями в галузі, щоб розробити загальні стандарти його ідентифікації на форумах, як-от Partnership on AI (PAI). Невидимі маркери, які ми використовуємо для зображень Meta AI – метадані IPTC і невидимі водяні знаки – відповідають найкращим практикам PAI.
Ми створюємо провідні в галузі інструменти, які можуть ідентифікувати невидимі маркери в масштабі – зокрема, інформацію, «генеровану штучним інтелектом» у технічних стандартах C2PA та IPTC – щоб ми могли позначати зображення з Google, OpenAI, Microsoft, Adobe, Midjourney і Shutterstock коли вони реалізують свої плани щодо додавання метаданих до зображень, створених їхніми інструментами.
Для цього слайд-шоу потрібен JavaScript.
Незважаючи на те, що компанії починають включати сигнали у свої генератори зображень, вони ще не почали включати їх у інструменти штучного інтелекту, які генерують аудіо та відео в однаковому масштабі, тому ми ще не можемо виявити ці сигнали та позначити цей вміст від інших компаній. Поки індустрія працює над цією можливістю, ми додаємо функцію, за допомогою якої люди можуть повідомляти, коли вони діляться створеним штучним інтелектом відео чи аудіо, щоб ми могли додати до них мітку. Ми вимагатимемо, щоб люди використовували цей інструмент для розголошення та позначення, коли вони публікують звичайний вміст із фотореалістичним відео чи аудіо з реалістичним звучанням, створеним або зміненим цифровим способом, і ми можемо застосувати штрафи, якщо вони цього не зроблять. Якщо ми визначимо, що створене цифровим способом або змінене зображення, відео чи аудіовміст створює особливо високий ризик матеріального введення громадськості в оману щодо важливого питання, ми можемо додати більш помітну позначку, якщо це необхідно, щоб люди мали більше інформації та контексту.
Цей підхід представляє передовий край того, що технічно можливо прямо зараз. Але поки що неможливо ідентифікувати весь контент, створений ШІ, і є способи, якими люди можуть видалити невидимі маркери. Тому ми шукаємо низку варіантів. Ми наполегливо працюємо над розробкою класифікаторів, які можуть допомогти нам автоматично виявляти створений штучним інтелектом контент, навіть якщо у вмісті відсутні невидимі маркери. У той же час ми шукаємо способи ускладнити видалення або зміну невидимих водяних знаків. Наприклад, дослідницька лабораторія Meta AI FAIR нещодавно поділилася дослідженням технології невидимих водяних знаків, яку ми розробляємо під назвою Stable Signature . Це інтегрує механізм водяних знаків безпосередньо в процес генерації зображень для деяких типів генераторів зображень, що може бути цінним для моделей з відкритим кодом, тому водяні знаки не можна вимкнути.
Ця робота особливо важлива, оскільки в наступні роки це, ймовірно, стане все більш ворожим простором. Люди та організації, які активно хочуть обдурити людей за допомогою контенту, створеного штучним інтелектом, будуть шукати способи обійти засоби захисту, які застосовуються для його виявлення. У нашій галузі та суспільстві загалом нам потрібно буде продовжувати шукати способи бути на крок попереду.
Тим часом важливо, щоб люди враховували кілька речей, визначаючи, чи контент створено штучним інтелектом, як-от перевірка надійності облікового запису, який надає спільний доступ до вмісту, або пошук деталей, які можуть виглядати або звучати неприродно.
Це перші дні для поширення контенту, створеного ШІ. Оскільки в наступні роки це стане більш поширеним, у суспільстві будуть дискусії про те, що слід і не слід робити, щоб ідентифікувати як синтетичний, так і несинтетичний вміст. Індустрія та регулятори можуть перейти до способів автентифікації контенту, який не був створений за допомогою штучного інтелекту, а також контенту, який створено. Те, що ми пропонуємо сьогодні, — це кроки, які, на нашу думку, підходять для вмісту, яким зараз ділиться на наших платформах. Але ми продовжуватимемо спостерігати та вчитися, а також постійно переглядатимемо наш підхід. Ми продовжуватимемо співпрацювати з колегами з галузі. І ми будемо продовжувати діалог з урядами та громадянським суспільством.
ШІ — це і меч, і щит
Наші стандарти спільноти застосовуються до всього вмісту, опублікованого на наших платформах, незалежно від способу його створення. Що стосується шкідливого контенту, найважливіше, щоб ми могли його виловити та вжити заходів незалежно від того, чи був він створений за допомогою ШІ. І використання штучного інтелекту в наших системах перевірки цілісності є значною частиною того, що дозволяє нам це вловити.
Протягом кількох років ми використовуємо системи ШІ, щоб захистити наших користувачів. Наприклад, ми використовуємо штучний інтелект, щоб допомогти нам виявляти та усувати ворожі висловлювання та інший вміст, який порушує нашу політику. Це значною мірою причина, чому нам вдалося скоротити поширеність мови ненависті у Facebook лише до 0,01–0,02% (станом на 3 квартал 2023 року). Іншими словами, на кожні 10 000 переглядів вмісту, за нашими оцінками, лише один або два містять ворожі висловлювання.
Хоча ми використовуємо технологію штучного інтелекту для забезпечення дотримання нашої політики, використання генеративних інструментів штучного інтелекту для цієї мети було обмеженим. Але ми оптимістично налаштовані, що генеративний штучний інтелект може допомогти нам швидше й точніше видаляти шкідливий вміст. Це також може бути корисним для забезпечення виконання нашої політики в моменти підвищеного ризику, наприклад під час виборів. Ми розпочали тестування великих мовних моделей (LLM), навчаючи їх нашим стандартам спільноти, щоб допомогти визначити, чи порушує частина вмісту нашу політику. Ці початкові тести показують, що LLM можуть працювати краще, ніж існуючі моделі машинного навчання. Ми також використовуємо LLM для видалення вмісту з черг перевірки за певних обставин, коли ми дуже впевнені, що він не порушує нашу політику. Це звільняє можливості для наших рецензентів, щоб зосередитися на вмісті, який, швидше за все, порушить наші правила.
Вміст, створений за допомогою штучного інтелекту, також придатний для перевірки фактів нашими незалежними партнерами з перевірки фактів, і ми позначаємо розвінчаний вміст, щоб люди мали точну інформацію, коли вони стикаються з подібним вмістом в Інтернеті.
Meta була піонером у розробці ШІ вже більше десяти років. Ми знаємо, що прогрес і відповідальність можуть і повинні йти рука об руку. Інструменти генеративного штучного інтелекту пропонують величезні можливості, і ми вважаємо, що ці технології можливо і необхідно розробляти прозоро та підзвітно. Ось чому ми хочемо допомогти людям знати, коли фотореалістичні зображення були створені за допомогою штучного інтелекту, і чому ми відкрито говоримо про межі можливого. Ми продовжуватимемо вивчати те, як люди використовують наші інструменти, щоб покращувати їх. І ми продовжуватимемо співпрацювати з іншими через такі форуми, як PAI, щоб розробити загальні стандарти та огорожі.