image 606.png

Що стосується ШІ, прогрес і пильність можуть йти рука об руку

Штучний інтелект домінував у дискусії, коли політичні лідери, бізнесмени та лідери громадянського суспільства зібралися в Давосі на Всесвітньому економічному форумі цього тижня – від можливостей і ризиків, які створює ШІ, до того, що можуть зробити уряди та технологічні компанії, щоб забезпечити його відповідальну розробку та розгортання у спосіб що приносить користь більшості людей.

Я відвідав конференцію разом із провідним світовим ученим зі штучного інтелекту Янном Лекуном та іншими колегами Meta, де ми мали можливість викласти деякі погляди компанії на ці питання.

Як компанія, яка більше десяти років була в авангарді розвитку ШІ, ми віримо, що прогрес і пильність можуть іти пліч-о-пліч. Ми впевнені, що технології штучного інтелекту можуть принести величезну користь суспільству – від підвищення продуктивності до прискорення наукових досліджень. І ми вважаємо, що ці технології можливо і необхідно розробляти відповідально, прозоро та підзвітно, із запобіжними заходами, вбудованими в продукти штучного інтелекту, щоб пом’якшити багато потенційних ризиків, а також співпрацею між урядом і промисловістю для встановлення стандартів і огорож. .

Ми бачили певний прогрес на власні очі, оскільки дослідники використовували інструменти ШІ, які ми розробили та надали їм доступ. Наприклад, лабораторія інтелектуальних глобальних технологій охорони здоров’я Yale та EPFL використала нашу останню модель великої мови, Llama 2, для створення Meditron , найефективнішого у світі LLM з відкритим вихідним кодом, адаптованого до галузі медицини, щоб допомогти приймати клінічні рішення. Meta також співпрацює з Нью-Йоркським університетом у дослідженні штучного інтелекту , щоб розробити швидші сканування МРТ. І ми співпрацюємо з Університетом Карнегі-Меллона в проекті , який використовує штучний інтелект для розробки форм зберігання відновлюваної енергії.

Відкритий підхід до інновацій ШІ

Серед політиків одним із великих дебатів навколо розвитку штучного інтелекту в минулому році було питання про те, чи краще для компаній зберігати свої моделі штучного інтелекту власними силами чи зробити їх доступними більш відкрито. Як сильні прихильники технологічних компаній, які дотримуються широко відкритого підходу, було приємно відчути чіткий зсув на користь відкритості серед делегатів у Давосі цього року.

Як зазначив Марк Цукерберг цього тижня , наше довгострокове бачення полягає в тому, щоб створювати загальну інформацію, відповідально відкривати її вихідний код і робити її широкодоступною, щоб усі могли отримати вигоду. Meta має довгу історію відкритого обміну технологіями ШІ. Llama 2 доступна безкоштовно для більшості людей на нашому веб-сайті, а також через партнерство з Microsoft, Google Cloud, AWS тощо. Ми випустили такі технології, як PyTorch , провідний фреймворк машинного навчання, наші моделі No Language Left Behind , які можуть перекладати до 200 мов, і наш безперервний набір моделей мовного перекладу AI, який може перекладати ваш голос на 36 мов. із затримкою близько двох секунд.

Хоча ми усвідомлюємо, що іноді для деяких запатентованих моделей доречно не випускати відкрито, загалом ми вважаємо, що відкритість є найкращим способом поширення переваг цих технологій. Надання компаніям, стартапам і дослідникам доступу до найсучасніших інструментів штучного інтелекту створює можливості для всіх, а не лише для невеликої групи великих технологічних компаній. Звичайно, Мета вважає, що це також і в наших інтересах. Це веде до кращих продуктів, швидшого впровадження інновацій і процвітання ринку, що приносить користь нам, як і багатьом іншим.

Відкритих інновацій не варто боятися. Інфраструктура Інтернету працює на відкритому вихідному коді, як і веб-браузери та багато програм, якими щодня користуються мільярди людей. Індустрія кібербезпеки була побудована на технології відкритого коду. Відкритий підхід створює безпечніші продукти, забезпечуючи безперервну ретельну перевірку моделей і стрес-тестування на наявність вразливостей тисячами розробників і дослідників, які можуть виявити та вирішити проблеми, на вирішення яких командам, що ховаються всередині компанії, знадобиться набагато більше часу. І, спостерігаючи за тим, як ці інструменти використовують інші, внутрішні команди можуть вчитися на них і застосовувати їх.

Зрештою, відкритість є найкращою протиотрутою від страхів навколо ШІ. Це дозволяє співпрацювати, перевіряти та ітерувати у спосіб, який особливо підходить для технологій, що зароджуються. Він забезпечує підзвітність, дозволяючи вченим, дослідникам і журналістам оцінювати моделі штучного інтелекту та оскаржувати заяви великих компаній замість того, щоб вірити їм на слово, що вони роблять правильні речі.

https://about.fb.com/wp-content/uploads/2024/01/01_Yann_Open-Source-2.mp4

Генеративний ШІ та вибори

Однією з проблем, яку ми дуже серйозно ставимося в Meta, є можливість зловживання генеративними інструментами штучного інтелекту під час виборів, які відбудуться по всьому світу цього року. Ми говорили з експертами про те, що означатиме розвиток штучного інтелекту з наближенням до цьогорічних виборів, і ми маємо політику, яку ми дотримуємося незалежно від того, створюється контент штучним інтелектом чи людьми. Детальніше дивіться наш підхід до цьогорічних виборів .

Хоча ми не чекаємо встановлення офіційних галузевих стандартів, перш ніж самостійно вживати заходів у таких сферах, як допомога людям зрозуміти, коли зображення створюються за допомогою наших функцій штучного інтелекту, ми співпрацюємо з іншими компаніями через форуми, як-от Partnership on AI, щоб розробити ці стандарти.

Я мав нагоду поговорити про те, як штучний інтелект допомагає Meta боротися з ненавистю в Інтернеті під час панельної дискусії на Всесвітньому економічному форумі в четвер:

https://about.fb.com/wp-content/uploads/2024/01/02_NC_Clip.mp4

Розробка ШІ відповідально

Хоча сучасні інструменти штучного інтелекту здатні на дивовижні речі, вони не наближаються до рівня суперінтелекту, який уявляють фантасти. Це системи розпізнавання образів: величезні бази даних із гігантською ємністю автозаповнення, які можуть створювати відповіді, об’єднуючи речення або створюючи зображення чи аудіо. Важливо враховувати й готуватися до потенційних ризиків, які можуть створити технології в майбутньому, але ми не повинні дозволяти цьому відволікати увагу від викликів, які потрібно вирішувати сьогодні.

Багаторічний досвід Meta у розробці моделей та інструментів штучного інтелекту допомагає нам із самого початку вбудовувати засоби безпеки в продукти штучного інтелекту. Ми навчаємо та налаштовуємо наші моделі відповідно до наших інструкцій щодо безпеки та відповідальності. І, що важливо, ми гарантуємо, що вони проходять ретельне стрес-тестування, проводячи так звану «червону команду» із зовнішніми експертами та внутрішніми командами, щоб виявити вразливості на базовому рівні та допомогти пом’якшити їх у прозорий спосіб. Наприклад, ми представили Llama 2 на конференцію DEFCON, де її могли протестувати понад 2500 хакерів.

Ми також вважаємо важливим бути прозорими щодо моделей та інструментів, які ми випускаємо. Ось чому, наприклад, ми публікуємо системні та модельні картки, у яких надано докладну інформацію про те, як працюють наші системи, доступні без глибоких технічних знань, і чому разом із Llama 2 ми поділилися дослідницькою статтею , яка описує наш підхід до безпеки та конфіденційності, червоний об’єднання зусиль і оцінювання моделі за галузевими стандартами безпеки. Ми також випустили Посібник з відповідального використання , щоб допомогти іншим відповідально впроваджувати інновації. І нещодавно ми анонсували Purple Llama , новий проект, розроблений, щоб допомогти розробникам і дослідникам відповідально створювати генеративні моделі штучного інтелекту, використовуючи інструменти відкритої довіри та безпеки та оцінювання.

Ми також вважаємо, що надзвичайно важливо співпрацювати між галуззю, урядом, науковими колами та громадянським суспільством. Наприклад, Meta є членом-засновником Partnership on AI і бере участь у його Рамковій програмі колективних дій щодо синтетичних носіїв, що є важливим кроком у забезпеченні встановлення огорожі навколо контенту, створеного штучним інтелектом.

Уряди також відіграють велику роль. Останні кілька місяців я зустрічався з регуляторами та політиками з Великобританії, ЄС, США, Індії, Японії та інших країн. Надихає те, що стільки країн розглядають власні рамки для забезпечення відповідального розвитку та розгортання штучного інтелекту – наприклад, добровільні зобов’язання Білого дому, які ми підписали минулого року – але життєво важливо, щоб уряди, особливо демократичні, працювали разом, щоб встановити загальні стандарти ШІ та моделі управління.

Для цього слайд-шоу потрібен JavaScript.

Попереду є великі можливості та значні виклики, які необхідно подолати, але найбільше надихає в Давосі те, що лідери уряду, бізнесу та громадянського суспільства активно залучені до цих питань. Дебати навколо штучного інтелекту є значно розвиненішими та складнішими, ніж вони були лише кілька місяців тому, і це добре для всіх.