Meta вірить, що відкритий підхід до технологій може призвести до більшої кількості інновацій, більшої відповідальності та кращих результатів для всіх. Ось чому ми запровадили інноваційні рішення з управління, починаючи з 2020 року з Наглядовою радою, яка забезпечує незалежну підзвітність наших рішень щодо контенту, і розширивши у 2022 році на форуми спільноти, включаючи наш нещодавній форум спільноти щодо Generative AI .
Ці форуми спільноти об’єднують представницькі групи людей з усього світу для обговорення та дебатів один з одним та експертами в цій галузі, а потім обмінюються своїми поглядами. Ми почали з пілотної програми щодо кліматичної дезінформації, перш ніж запустити наш перший повноцінний форум спільноти про залякування та переслідування в метавсесвіті . У ньому взяли участь понад 6000 учасників із 32 країн, що, на нашу думку, було найбільшим обговоренням за всю історію. Протягом останнього року інші платформи досліджували обговорювальні механізми для управління штучним інтелектом, що є позитивним кроком у напрямку стандартизації більш відкритого підходу в галузі.
Сьогодні Стенфордська лабораторія Deliberative Democracy Lab, Behavioural Insights Team (BIT) і Meta оприлюднюють результати нещодавнього форуму спільноти з Generative AI , у якому взяли участь понад 1500 людей у Бразилії, Німеччині, Іспанії та Сполучених Штатах. Форум був розроблений, щоб отримати відгуки громадськості, щоб доповнити внесок, який ми отримуємо від експертів, науковців та інших зацікавлених сторін у процесі розробки нашої політики. Він охоплював два головних питання щодо типів принципів, які мають бути відображені в генеративних чат-ботах ШІ, зокрема про те, як вони мають взаємодіяти з людьми та надавати вказівки та поради. Ми публічно ділимося результатами цих форумів, щоб більше компаній, дослідників і урядів могли скористатися тим, чим поділилися учасники.
Ключові висновки Форуму спільноти
Форум виявив, що люди відкриті до генеративних чат-ботів штучного інтелекту, але хочуть переконатися, що розробники будують з урахуванням функцій прозорості та контролю. У повному звіті міститься докладна інформація про погляди учасників на кожну пропозицію – ось деякі з ключових висновків:
- Більшість учасників з кожної країни вважали, що штучний інтелект мав позитивний вплив, і ця думка зросла під час обговорень.
- Більшість вважає, що чат-боти ШІ повинні мати можливість використовувати минулі розмови для покращення відповідей, якщо люди поінформовані. У результаті обговорення згода з цією пропозицією виникла.
- Після обговорення більшість учасників вважали, що чат-боти штучного інтелекту можуть бути схожими на людину, якщо люди поінформовані.
- В результаті обговорення точки зору учасників змінилися на 20,5% щодо деяких питань і часто в бік консенсусу щодо деяких найактуальніших тем Форуму. Це показує, що процес обговорення один з одним і залучення експертів допоміг учасникам краще зрозуміти пропозиції та компроміси.
Ми розробляємо форуми спільноти, які ґрунтуються на принципах і здатні інформувати про наші довгострокові підходи, особливо враховуючи мінливий і швидкий характер технологій. Наші команди перевіряли ці висновки, оскільки вони можуть допомогти спланувати майбутню роботу.
Заглядаючи вперед, ми проведемо подібний Форум спільноти з генеративного штучного інтелекту в інших регіонах світу, щоб продовжувати отримувати додаткові відгуки від людей щодо принципів, якими повинні керуватися підходи до ШІ таких компаній, як наша, урядів і суспільства. Ми також розглядаємо додаткові методи демократизації вкладів у розробку нашого продукту. Ми плануємо поділитися їх результатами в Центрі прозорості .