У 1990-х і на початку 2000-х технологи дали світові грандіозні обіцянки: нові комунікаційні технології зміцнять демократію, підірвуть авторитаризм і призведуть до нової ери розквіту людства. Але сьогодні мало хто погодиться, що Інтернет досяг цієї високої мети.
Сьогодні на платформах соціальних медіа вміст, як правило, класифікується за тим, наскільки він зацікавлений. За останні два десятиліття політика, медіа та культура були змінені, щоб відповідати одному головному стимулу: публікації, які викликають емоційну реакцію, часто піднімаються на вершину.
Зусилля, спрямовані на покращення здоров’я онлайн-просторів, давно зосереджені на модерації вмісту, практиці виявлення та видалення поганого вмісту. Технічні компанії найняли працівників і створили штучний інтелект для виявлення ненависті, підбурювання до насильства та агресивних дій. Це спрацювало не ідеально, але це зупинило найгіршу токсичність від затоплення наших каналів.
Була одна проблема: хоча ці штучні інтелекти допомагали усунути погане, вони не підвищували хороше. «Ви бачите, що Інтернет працює, де ми ведемо здорові та продуктивні розмови?» — запитує Ясмін Грін, генеральний директор підрозділу Google Jigsaw, який був заснований у 2010 році з завданням усунути загрози відкритому суспільству. "Немає. Ви бачите Інтернет, який віддаляє нас все далі і далі».
А якби був інший спосіб?
Jigsaw вірить, що знайшов один. У понеділок дочірня компанія Google показала новий набір інструментів штучного інтелекту або класифікаторів, які можуть оцінювати дописи на основі ймовірності того, що вони містять гарний вміст: Чи має допис нюанси? Чи містить він аргументацію на основі доказів? Чи містить у ньому особисту історію чи виховує людське співчуття? Повертаючи числову оцінку (від 0 до 1), що представляє ймовірність публікації, що містить кожну з цих та інших переваг, ці нові інструменти штучного інтелекту можуть дозволити дизайнерам онлайн-просторів ранжувати публікації по-новому. Замість того, щоб публікації, які отримують найбільшу кількість лайків або коментарів, піднімалися вгору, платформи могли б — у спробі сприяти кращій спільноті — вирішувати розміщувати на першому місці коментарі з найбільш нюансами або найбільш співчутливі.
Докладніше: Як американці можуть разом боротися з політичним розколом
Прорив став можливим завдяки нещодавнім досягненням у великих мовних моделях (LLM), типу ШІ, який лежить в основі чат-ботів, таких як ChatGPT. У минулому навіть навчання штучного інтелекту виявляти прості форми токсичності, наприклад те, чи був допис расистським, вимагало мільйони позначених прикладів. Ці старіші форми штучного інтелекту часто були крихкими та неефективними, не кажучи вже про те, що розробка була дорогою. Але нове покоління LLM може ідентифікувати навіть складні лінгвістичні концепції з коробки, а їх калібрування для виконання конкретних завдань набагато дешевше, ніж це було раніше. Нові класифікатори Jigsaw можуть ідентифікувати «атрибути», наприклад, чи містить публікація особисту історію, цікавість, нюанси, співчуття, міркування, близькість або повагу. «Починає ставати можливим говорити про щось на зразок створення класифікатора для співчуття, чи цікавості, чи нюансів», — каже Джонатан Стрей, старший науковий співробітник Центру людського штучного інтелекту Берклі. «Ці нечіткі, контекстуальні концепції типу «знай, коли я бачу» — ми стаємо набагато кращими у їх виявленні».
Ця нова здатність може стати переломним моментом для Інтернету. Грін і все більше вчених, які вивчають вплив соціальних медіа на публічний дискурс, стверджують, що модерація контенту є «необхідною, але недостатньою», щоб зробити Інтернет кращим місцем. За їхніми словами, пошук способу підвищити позитивний контент може мати каскадний позитивний ефект як на особистому рівні — наших стосунках одне з одним, — а також на масштабах суспільства. «Змінюючи спосіб ранжирування вмісту, якщо ви можете зробити це достатньо широко, ви можете змінити медіа-економіку всієї системи», — каже Стрей, який не працював над проектом Jigsaw. «Якби достатня кількість алгоритмічних каналів розповсюдження не сприяла розкольницькій риториці, просто не варто було б більше виробляти її».
Одного ранку наприкінці березня Тін Акоста приєднується до відеодзвінка з офісу Jigsaw у Нью-Йорку. На стіні конференц-залу позаду неї є велика фотографія з Революції троянд у 2003 році в Грузії, коли мирні протестувальники повалили уряд країни радянських часів. В інших кімнатах є схожі фотографії людей із Сирії, Ірану, Куби та Північної Кореї, які «використовують технології та свої голоси, щоб захистити свою свободу», — каже мені прес-офіцер Jigsaw, який також перебуває в кімнаті. Фотографії призначені як нагадування про місію Jigsaw використовувати технології як силу добра, а також про його обов’язок служити людям як у демократичних, так і в репресивних суспільствах.
На своєму ноутбуці Акоста запускає демонстрацію нових класифікаторів Jigsaw. Використовуючи базу даних із 380 коментарів із нещодавнього ланцюжка Reddit, старший менеджер із продуктів Jigsaw починає демонструвати, як ранжування публікацій за допомогою різних класифікаторів змінить види коментарів, які піднімаються на вершину. Оригінальний постер теми просив життєствердні рекомендації щодо фільмів. Відсортовані за стандартним рейтингом на Reddit — публікації, які отримали найбільшу кількість голосів «за» — найпопулярніші коментарі короткі та містять лише назви популярних фільмів. Потім Акоста натискає спадне меню та вибирає класифікатор міркувань Jigsaw. Перестановки на посадах. Тепер найкращі коментарі більш детальні. «Ви починаєте бачити, як люди дуже вдумливо ставляться до своїх відповідей», — каже Акоста. «Ось хтось говорить про «Школу року» — не лише про зміст сюжету, а й про те, як фільм змінив його життя та змусив закохатися в музику». (TIME погодився не цитувати прямі коментарі, які, за словами Jigsaw, використовувалися лише для демонстраційних цілей і не використовувалися для навчання моделей ШІ.)
Акоста обирає інший класифікатор, один із її улюблених: чи містить публікація особисту історію. Найпопулярніший коментар тепер від користувача, який описує, як під важкою ковдрою та під дією наркотиків вони так негарно плакали під час монологу Ке Хуі Цюана у фільмі «Все всюди й одразу», що їм довелося кілька разів призупинити фільм. разів. Інший популярний коментар описує, як трейлер фільму надихнув їх залишити роботу, з якою вони були нещасні. Інший розповідає історію про те, як фільм нагадав їм про їхню сестру, яка померла 10 років тому. «Це дійсно чудовий спосіб переглянути розмову та зрозуміти її трохи краще, ніж [ранжування за] залученістю чи нещодавністю», — каже Акоста.
Для того, щоб класифікатори вплинули на ширший Інтернет, їм знадобиться участь найбільших технологічних компаній, які всі замкнені в конкурентній боротьбі за нашу увагу. Незважаючи на те, що вони були розроблені в Google, технічний гігант не планує використовувати їх для ранжування своїх коментарів на YouTube, каже Грін. Натомість Jigsaw робить ці інструменти безкоштовними для незалежних розробників, сподіваючись, що менші онлайн-простори, такі як дошки оголошень і розділи газетних коментарів, створять базу доказів того, що нові форми рейтингу популярні серед користувачів.
Докладніше: Subreddit /r/Collapse став столицею Doomscrolling Інтернету. Чи можуть його користувачі звільнитися?
Є деякі причини для скепсису. Попри всі недоліки, рейтинг за залученням є егалітарним. Популярні дописи поширюються незалежно від їхнього змісту, і таким чином соціальні медіа дозволили маргіналізованим групам отримати право голосу, якого їм довго не дозволяли традиційні медіа. Впровадження штучного інтелекту може поставити під загрозу такий стан речей. Велика кількість досліджень показує, що магістратури мають багато вкорінених упереджень; якщо застосувати їх надто поспішно, класифікатори Jigsaw можуть у підсумку посилити голоси, які вже є помітними в Інтернеті, таким чином ще більше відштовхнувши тих, які не є. Класифікатори також можуть посилити проблему заповнення Інтернету контентом, створеним штучним інтелектом, надаючи спамерам простий рецепт для контенту, створеного штучним інтелектом, який, ймовірно, буде розширено. Навіть якщо Jigsaw уникає цих проблем, робота з онлайн-мовленням стала політичною міною. І консерватори, і ліберали переконані, що їхні публікації піддаються цензурі; тим часом технологічні компанії зазнають критики за прийняття непідзвітних рішень, які впливають на світову громадськість. Jigsaw стверджує, що його нові інструменти можуть дозволити технологічним платформам менше покладатися на суперечливу практику модерації вмісту. Але нікуди не подітися від того факту, що зміна того, який вид мови буде винагороджуватися в Інтернеті, завжди матиме політичних опонентів.
Тим не менш, вчені кажуть, що якщо дати їм шанс, нові інструменти штучного інтелекту Jigsaw можуть призвести до зміни парадигми соціальних мереж. Піднесення більш бажаних форм онлайн-мовлення може створити нові стимули для більш позитивних соціальних норм в Інтернеті та, можливо, офлайн. Якщо платформа посилює токсичні коментарі, «тоді люди отримують сигнал, що їм слід робити жахливі речі», — каже Раві Аєр, технолог з Університету Південної Каліфорнії, який допомагає керувати некомерційною дослідницькою мережею Psychology of Technology. «Якщо головні коментарі є інформативними та корисними, тоді люди дотримуються норми та створюють більш інформативні та корисні коментарі».
Нові алгоритми пройшли довгий шлях від попередніх робіт Jigsaw. У 2017 році підрозділ Google випустив Perspective API, алгоритм для виявлення токсичності. Безкоштовний інструмент широко використовувався, в тому числі New York Times, для зниження чи видалення негативних коментарів під статтями. Але експерименти з інструментом, який все ще доступний в Інтернеті, показують, як інструменти ШІ можуть нести приховані упередження. Згідно з класифікатором, «ти чортів лицемір» з імовірністю 96% є токсичною фразою. Але багато інших ненависних фраз, згідно з інструментом, ймовірно, нетоксичні, включаючи неонацистське гасло «Євреї нас не замінять» (41%) і трансфобну мову, наприклад «транс-жінки — це чоловіки» (36%). . Інструмент ламається, коли стикається з нецензурною образою, яка зазвичай спрямована на жителів Південної Азії у Великобританії та Канаді, повертаючи повідомлення про помилку: «Ми ще не підтримуємо цю мову, але ми працюємо над цим!»
Звісно, 2017 рік був зовсім іншою епохою для ШІ. Jigsaw доклав зусиль, щоб пом’якшити упередження у своїх нових класифікаторах, які навряд чи допускатимуть такі основні помилки. Його команда перевірила нові класифікатори на наборі коментарів, які були ідентичними, за винятком назв різних груп ідентичності, і заявила, що не виявила жодного натяку на упередженість. Тим не менш, неоднозначна ефективність старішого API Perspective служить нагадуванням про підводні камені покладатися на штучний інтелект для оцінювання мови. Навіть сучасні потужні магістри не позбавлені упередженості, і їх вільне володіння часто може приховати їхні обмеження. Вони можуть дискримінувати афроамериканську англійську; вони погано функціонують у деяких неанглійських мовах; і вони можуть по-різному ставитися до однаково здібних кандидатів на роботу , виходячи лише з їхніх імен . Потрібна додаткова робота, щоб переконатися, що нові ШІ Jigsaw не мають менш помітних форм упередженості. «Звичайно, є речі, на які потрібно стежити», — каже Айєр, який не працював над проектом Jigsaw. «Як ми переконаємося, що [кожен класифікатор] охоплює різноманітність способів, якими люди виражають ці поняття?»
У статті , опублікованій на початку цього місяця, Акоста та її колеги вирішили перевірити, як читачі відреагують на список коментарів, упорядкованих за допомогою нових класифікаторів Jigsaw, у порівнянні з коментарями, відсортованими за останнім часом. Вони виявили, що читачі віддають перевагу коментарям, відсортованим за класифікаторами, вважаючи їх більш інформативними, шанобливими, надійними та цікавими. Але вони також виявили, що ранжування коментарів лише за одним класифікатором самостійно, як і міркування, може збентежити користувачів. У своєму прес-релізі про запуск класифікаторів у понеділок Jigsaw заявляє, що має намір змішувати та поєднувати свої інструменти. Це можливо, оскільки все, що вони роблять, — це повертати бали від нуля до одиниці, тож можна написати формулу, яка об’єднує кілька балів разом в одне число, і використовувати це число як сигнал ранжирування. Веб-розробники можуть вибрати рейтинг коментарів, використовуючи, наприклад, ретельно відкалібровану суміш співчуття, поваги та цікавості. Вони також можуть включити залученість до цієї суміші, щоб переконатися, що публікації, які отримують багато лайків, також отримують прискорення.
Подібно до того, як видалення негативного контенту з Інтернету викликало неабияку реакцію, посилення певних форм «бажаного» контенту, ймовірно, спричинить скарги на те, що технологічні компанії ставлять свої палці на політичні терези. Jigsaw швидко зазначає, що його класифікатори не лише аполітичні, але й пропонують посилити типи вмісту, які мало хто сприйме сумніви. Під час тестування Jigsaw виявив, що ці інструменти не надто посилюють коментарі, які користувачі вважали неприхильними для республіканців чи демократів. «Ми маємо досвід надання продукту, корисного для видавців у всьому політичному спектрі», — каже Грін. «Наголос робиться на відкритті розмов». Проте залишається питання влади: хто може вирішувати, які типи контенту є бажаними? Jigsaw сподівається, що, випустивши технологію публічно, різні онлайн-простори зможуть вибрати те, що їм підходить, таким чином уникаючи того, щоб будь-яка одна гегемоністська платформа приймала це рішення від імені всього Інтернету.
Для Стрея, вченого з Берклі, існує приголомшлива перспектива Інтернету, де позитивний контент отримує більше. За його словами, багато людей вважають, що дезінформація в Інтернеті веде до поляризації. І це може. «Але це також працює навпаки», — каже він. Попит на неякісну інформацію виникає, принаймні частково, через те, що люди вже поляризовані. Якщо інструменти призведуть до того, що люди стануть менш поляризованими, «тоді це має фактично змінити попит на певні види контенту нижчої якості». Це гіпотетично, застерігає він, але це може призвести до позитивного кола, коли зниження попиту на дезінформацію живить зменшення пропозиції.
Чому платформи погодилися впровадити ці зміни? Майже за визначенням рейтинг за зацікавленістю є найефективнішим способом утримати користувачів на сайті, таким чином утримуючи очі на рекламі, яка підвищує дохід. Для великих платформ це означає як постійний прибуток, так і факт що користувачі не витрачають час на програму конкурента. Заміна рейтингу на основі залучення чимось менш привабливим виглядає складним завданням для компаній, які вже борються за те, щоб утримати увагу своїх користувачів.
Це правда, каже Стрей. Але, зауважує, є різні форми залучення. Існує короткострокова взаємодія, яку легко оптимізувати для платформ: чи може зміна платформи змусити користувачів витрачати більше часу на прокручування протягом наступної години? Платформи можуть і вносять зміни, щоб посилити свою короткострокову залученість, каже Стрей, але такі зміни часто означають посилення низькоякісного вмісту, що привертає увагу, що, як правило, відлякує користувачів у довгостроковій перспективі.
Альтернатива – довгострокові заручини. Як зміна платформи може вплинути на ймовірність того, що користувач витратить більше часу на прокручування протягом наступних трьох місяців? Довгострокова взаємодія здоровіша, але її набагато важче оптимізувати, оскільки важче виділити зв’язок між причиною та наслідком. Багато різних факторів діють на користувача одночасно. Великі платформи хочуть, щоб користувачі поверталися протягом тривалого часу, каже Стрей, і щоб вони розвивали здорові стосунки з їхніми продуктами. Але це важко виміряти, тому оптимізація для короткострокового залучення часто є легшим вибором.
Нові алгоритми Jigsaw можуть змінити це обчислення. «Надія полягає в тому, що якщо ми станемо кращими у створенні продуктів, які люди захочуть використовувати в довгостроковій перспективі, це компенсує гонку до дна», — каже Стрей. «Принаймні трохи».