image 546.png

Нова некомерційна організація прагне вирішити проблему авторського права на ШІ

Минулого року Ед Ньютон-Рекс публічно подав у відставку зі своєї виконавчої посади у відомій компанії штучного інтелекту через розбіжності зі своїм керівництвом щодо їх підходу до авторського права.

Stability AI, розробники популярної моделі генерації зображень штучного інтелекту Stable Diffusion, навчили модель, заповнивши її мільйонами зображень, які були «зіскоблені» з Інтернету без згоди їхніх творців. Як і багато інших провідних компаній зі штучного інтелекту, Stability стверджувала, що ця техніка не порушує закон про авторське право, оскільки є формою «добросовісного використання» роботи, захищеної авторським правом.

Ньютон-Рекс, керівник аудіогрупи Stability, не погодився. «Компанії вартістю мільярди доларів без дозволу навчають генеративні моделі ШІ на роботах творців, які потім використовуються для створення нового контенту, який у багатьох випадках може конкурувати з оригінальними роботами. Я не розумію, як це може бути прийнятним у суспільстві, яке налагодило економіку творчого мистецтва таким чином, що творці покладаються на авторське право», – написав він у листопадовій публікації , оголосивши про свою відставку на X, платформі, раніше відомій як Twitter. .

Це був один із перших залпів у битві, яка зараз точиться через використання творів, захищених авторським правом, для навчання систем ШІ. У грудні New York Times подала позов до суду на Манхеттені з OpenAI, стверджуючи, що творець ChatGPT незаконно використав мільйони статей газети для навчання систем ШІ, які мають конкурувати з Times як надійне джерело інформації. Тим часом у липні 2023 року комік Сара Сільверман та інші автори подали до суду на OpenAI і Meta, звинувативши компанії у використанні їхніх творів для навчання моделей ШІ без їхнього дозволу. Раніше того ж року художниці Келлі МакКернан , Сара Андерсен і Карла Орті подали до суду на Midjourney, Stability AI і DeviantArt, які розробляють моделі ШІ для створення зображень, стверджуючи, що компанії навчали свої моделі ШІ на роботах художників. Деякі художники також відбиваються, використовуючи нові інструменти , які пропонують «отруїти» моделі ШІ, навчені на них без згоди, змушуючи їх ламатися непередбачуваними способами або протистояти спробам скопіювати їхній художній стиль.

OpenAI заявив, що вважає позов New York Times проти нього «безпідставним», додавши, що, хоча він вважає, що навчання даних, зібраних з Інтернету, є добросовісним використанням , він надає видавцям можливість відмовитися від участі, «оскільки це правильно». .” Stability AI не відразу відповів на запит про коментар.

Докладніше: Експерти попереджають Конгрес про небезпеку, яку становить ШІ для журналістики

17 січня Newton-Rex оголосила про новий тип зусиль, щоб заохотити компанії ШІ поважати творців. Він заснував некомерційну організацію під назвою «Fairly Trained», яка пропонує сертифікацію компаніям зі штучним інтелектом, які навчають свої моделі лише на даних, автори яких дали згоду. Він сподівається, що піднесення компаній із кращими практиками щодо отримання їхніх навчальних даних стимулюватиме всю екосистему до більш справедливого ставлення до творців. «Ця галузь має справді етичний бік, і мета цієї сертифікації — підкреслити це», — каже Ньютон-Рекс TIME.

Дев’ять моделей були сертифіковані Fairly Trained, щоб збігтися з його запуском — багато з них виготовлені компаніями штучного інтелекту в музичному просторі. Серед них моделі від Endel , компанії «звукового оздоровлення», яка співпрацювала з такими артистами, як Граймс і Джеймс Блейк. Сертифікація вказує на те, що компанії юридично ліцензували дані, на основі яких навчалися їхні моделі, а не просто заявляли про добросовісне використання.

Окрім роботи над ШІ, Ньютон-Рекс також є класичним композитором, який пише хорову музику. Каже, що творча практика спонукала його стати на захист творців. «Ця проблема завжди була дуже близькою для мене, і я впевнений, що багато в чому це пов’язано з тим, що я сам музикант», – каже він. «Важко зрозуміти, що насправді відчуває бути творцем, доки ти фактично не пройшов через процес вливання своєї роботи в щось і побачив, як це виходить у світ». Образа від того, що він бачить лише мізерні гонорари, які отримують за його мистецтво, тоді як компанії зі штучним інтелектом обертають мільярди доларів, на його думку, є загальним почуттям для митців усіх мастей. «Я вклав у це величезну роботу, і ось що я отримую назад. Чи хочу я, щоб [моя робота] використовувалася компанією без будь-якої подальшої оплати для створення власних моделей, від яких вона отримує прибуток?»

Він продовжує: «Багато творців, у тому числі й я, сказали б цьому «ні». [Але] якщо є можливість погодитись, поговорити про умови та зрештою заробити трохи грошей, це може бути дуже добре».

Докладніше: Музиканти використовують штучний інтелект для створення неможливих нових пісень

Fairly Trained не просить компанії, які бажають отримати сертифікат, надавати свої набори даних для аудиту. Замість цього він просить компанії заповнювати письмові документи, в яких докладно вказується, що включають їхні набори даних і звідки надходять дані, які процеси належної обачності вони мають і чи ведуть вони належні записи, згідно з Newton-Rex. «Тут явно присутній елемент довіри», — каже він. «Про це потрібно обговорити, і чи потрібно більше. Але я відчуваю… принаймні на початку, насправді система, заснована на довірі, працює. І люди будуть перешкоджати надавати неточну інформацію, особливо тому, що це може призвести до десертифікації». Більшість компаній, які заявляють про винятки щодо добросовісного використання, додає він, «досить відверті» у своїй думці, що вони мають законне право дотримуватися цієї стратегії.

Тим не менш, вірити компаніям на слово щодо вмісту та походження їхніх наборів даних — це підхід із очевидною лазівкою. «Нам потрібно фактично побачити ці набори даних, щоб перевірити, чи вони все ще містять проблемний вміст», — говорить Абеба Бірхане , учений, який вивчає вміст великих наборів даних, які використовуються для навчання систем ШІ. «Дійсно важко сказати, достатньо цього чи ні, не бачачи самих наборів даних».

Більшість найбільших компаній зі штучного інтелекту, включаючи OpenAI, Google DeepMind, Meta та Anthropic, не розголошують вміст або навіть багато деталей про набори даних, які використовуються для навчання їхніх найбільших моделей. Це часто було перешкодою для творців, які намагалися дізнатися, чи використовувалися їхні дані для навчання моделей без їхньої згоди.

OpenAI уклав угоди з кількома редакціями, включаючи Associated Press і Axel Springer, про ліцензування статей новин для використання в якості навчальних даних. Повідомляється , що він веде подальші обговорення з кількома іншими, включаючи CNN, Fox і TIME.