У неділю, головний науковець Meta зі штучного інтелекту, Янн ЛеКун , отримав ще одну нагороду, щоб додати до свого довгого списку нагород , коли він отримав нагороду TIME100 Impact Award за внесок у світ штучного інтелекту.
Напередодні церемонії нагородження в Дубаї ЛеКун поспілкувався з TIME, щоб обговорити перешкоди для досягнення «штучного загального інтелекту» (AGI), переваги підходу Meta з відкритим кодом і те, що він вважає «абсурдним» твердженням про те, що ШІ може становлять ризик існування для людства.
TIME поспілкувався з Лекуном 26 січня. Цю розмову було скорочено та відредаговано для ясності.
Сьогодні багато людей у світі технологій вважають, що навчання великих мовних моделей (LLM) більшій обчислювальній потужності та більшій кількості даних призведе до загального штучного інтелекту. Ви згодні?
Дивно, як [LLM] працюють, якщо навчати їх у масштабі, але це дуже обмежено. Сьогодні ми бачимо, що ці системи галюцинують, вони насправді не розуміють реальний світ. Їм потрібна величезна кількість даних, щоб досягти рівня інтелекту, який зрештою не є таким високим. І вони не можуть міркувати. Вони не можуть планувати нічого, окрім того, чому їх навчили. Отже, вони не є дорогою до того, що люди називають «AGI». Я ненавиджу цей термін. Вони корисні, без сумніву. Але вони не є шляхом до інтелекту людського рівня.
Ви згадали, що ненавидите абревіатуру «AGI». Це термін, який Марк Цукерберг використав у січні, коли оголосив, що Meta орієнтується на створення загального штучного інтелекту як одну з головних цілей організації.
Там багато непорозумінь. Отже, місія FAIR [групи Meta Fundamental AI Research] — інтелект людського рівня. Цей корабель відплив, це битва, яку я програв, але я не люблю називати це AGI, тому що людський інтелект зовсім не є загальним. Є характеристики, якими володіють розумні істоти, яких сьогодні не мають жодні системи штучного інтелекту, як-от розуміння фізичного світу; планування послідовності дій для досягнення мети; міркування способами, які можуть зайняти у вас багато часу. Люди, тварини, мають особливу частину нашого мозку, яку ми використовуємо як робочу пам’ять. У LLM цього немає.
Дитина дізнається, як влаштований світ, у перші кілька місяців життя. Ми не знаємо, як це зробити [за допомогою ШІ]. Коли ми матимемо методи вивчення «моделей світу», просто спостерігаючи, як світ проходить, і поєднаємо це з техніками планування, і, можливо, поєднаємо це з системами короткочасної пам’яті, тоді ми зможемо знайти шлях не до загального інтелекту, але давайте скажімо, інтелект на рівні кота. Перш ніж перейти до людського рівня, нам доведеться пройти через простіші форми інтелекту. А нам до цього ще дуже далеко.
Докладніше: ШІ вчиться говорити як дитина
У певному сенсі ця метафора має сенс, тому що кіт може дивитися на світ і вивчати те, чого сучасний магістр права просто не може. Але вся узагальнена історія людських знань недоступна коту. Якою мірою ця метафора обмежена?
Отже, ось дуже простий розрахунок. Велика мовна модель навчається більш-менш на всьому тексті, доступному в загальнодоступному Інтернеті. Як правило, це 10 трильйонів токенів. Кожен маркер має приблизно два байти. Отже, це два рази на 10 у [ступені] 13 байтів для навчальних даних. І ви кажете: «Боже мій, це неймовірно, людині знадобиться 170 000 років, щоб це прочитати». Це просто шалена кількість даних. Але потім ви поговорите з психологами розвитку, і вони вам скажуть, що 4-річна дитина не спала 16 000 годин у своєму житті. А потім ви можете спробувати кількісно визначити, скільки інформації потрапило в його зорову кору за чотири роки. А зоровий нерв — близько 20 мегабайт на секунду. Отже, 20 мегабайт на секунду, помножити на 60 000 годин, помножити на 3600 секунд на годину. І це 10 у [ступені] 15 байт, що в 50 разів більше, ніж текст, який вартує 170 000 років.
Так, але текст кодує всю історію людських знань, тоді як візуальна інформація, яку отримує 4-річна дитина, кодує лише базову тривимірну інформацію про світ, базову мову тощо.
Але те, що ви говорите, неправильно. Переважна більшість людських знань не виражена в тексті. Це в підсвідомій частині вашого розуму, про що ви дізналися в перший рік життя, перш ніж ви могли говорити. Більшість знань насправді пов’язана з нашим досвідом світу та того, як він працює. Це те, що ми називаємо здоровим глуздом. LLM цього не мають, тому що не мають до нього доступу. І тому вони можуть робити дуже дурні помилки. Ось звідки галюцинації. Речі, які ми сприймаємо як належне, виявляються надзвичайно складними для відтворення комп’ютерами. Отже, AGI, або штучний інтелект на рівні людини, не за горами, він вимагатиме деяких досить глибоких змін сприйняття.
Поговоримо про відкритий код. У своїй кар’єрі ви були великим прихильником відкритих досліджень, і Meta прийняла політику ефективного відкритого використання своїх найпотужніших великих мовних моделей, нещодавно Llama 2 . Ця стратегія відрізняє Meta від Google і Microsoft, які не оприлюднюють так званих ваг своїх найпотужніших систем. Як ви думаєте, чи буде підхід Meta доцільним, оскільки її штучний інтелект стає дедалі потужнішим і навіть наближається до людського рівня інтелекту?
Відповідь першого порядку – так. І причина цього полягає в тому, що в майбутньому взаємодія кожного з цифровим світом і світом знань загалом відбуватиметься за допомогою систем ШІ. Вони, по суті, гратимуть роль помічників, які завжди будуть з нами. Ми не будемо використовувати пошукові системи. Ми просто будемо задавати запитання нашим помічникам, і це допоможе нам у повсякденному житті. Таким чином, уся наша інформаційна дієта забезпечуватиметься цими системами. Вони стануть сховищем усіх людських знань. І ви не можете мати такої залежності від власної, закритої системи, особливо зважаючи на різноманітність мов, культур, цінностей, центрів інтересів у всьому світі. Це як якщо б ви сказали, чи можете ви мати комерційну організацію десь на Західному узбережжі США, яка створюватиме Вікіпедію? Ні. Вікіпедія є краудсорсингом, тому що вона працює. Так само буде і з системами штучного інтелекту, їх потрібно буде навчити або принаймні налаштувати за допомогою всіх у всьому світі. І люди зроблять це, лише якщо вони зможуть зробити свій внесок у загальнодоступну відкриту платформу. Вони не збираються робити це для власної системи. Отже, майбутнє має бути з відкритим кодом, якщо ні з чого іншого, з міркувань культурної різноманітності, демократії та різноманітності. Нам потрібен різноманітний помічник ШІ з тієї ж причини, чому потрібна різноманітна преса.
Одна критика, яку ви часто чуєте, полягає в тому, що відкрите програмне забезпечення може дозволити дуже потужним інструментам потрапити в руки людей, які зловживатимуть ними. І якщо існує певна асиметрія між силою нападу та силою захисту, то це може бути дуже небезпечним для суспільства в цілому. Чому ви впевнені, що цього не станеться?
Про це говорять багато речей, які в основному є повною фантазією. Насправді є звіт , який щойно опублікувала корпорація RAND, де вони досліджували, наскільки з поточними системами легше [це] людям із злими намірами придумувати рецепти біологічної зброї? І відповідь: ні. Причина в тому, що поточні системи насправді не такі розумні. Вони навчені відкритим даним. Тож, по суті, вони не можуть винаходити щось нове. Вони збираються відригнути приблизно все, на чому їх навчали, із загальнодоступних даних, а це означає, що ви можете отримати їх від Google. Люди казали: «Боже мій, нам потрібно регулювати LLMs, тому що вони будуть такими небезпечними». Це просто неправда.
Тепер системи майбутнього – це інша історія. Тож, можливо, коли ми отримаємо потужну, надрозумну систему, вона допоможе науці, медицині, бізнесу, зітре культурні бар’єри, дозволивши синхронний переклад . Тож є багато переваг. Отже, існує аналіз співвідношення ризиків і переваг, а саме: чи продуктивно намагатися тримати технологію в таємниці в надії, що погані хлопці не заволодіють нею? Або стратегія полягає в тому, щоб, навпаки, відкрити його якомога ширше, щоб прогрес був якнайшвидшим, щоб погані хлопці завжди йшли позаду? А я переважно належу до другої категорії мислення. Що потрібно зробити, так це для того, щоб суспільство в цілому, хороші хлопці, залишалися попереду, прогресуючи. І тоді це мій хороший ШІ проти вашого поганого ШІ.
Ви назвали «абсурдною» ідею про те, що штучний інтелект створює ризик для існування людства. чому
Там є ряд помилок. Перша помилка полягає в тому, що, оскільки система є розумною, вона хоче взяти контроль. Це просто абсолютно неправда. Це навіть хибно в межах людського роду. Найрозумніші з нас не хочуть домінувати над іншими. Зараз у нас є приклади на міжнародній політичній арені – не найрозумніші з нас є начальниками.
звичайно Але при владі опиняються люди, які прагнуть домінувати.
Я впевнений, що ви знаєте багато неймовірно розумних людей, які дійсно вміють вирішувати проблеми. У них немає бажання бути чиїмось начальником. Я один із них. Бажання домінувати зовсім не співвідноситься з інтелектом.
Але це співвідноситься з пануванням.
Гаразд, але прагнення деяких людей до домінування чи, принаймні, впливу, закладене в нас еволюцією, тому що ми є соціальним видом з ієрархічною організацією. Подивіться на орангутангів. Вони не соціальні тварини. У них немає цього бажання домінувати, тому що це їм абсолютно марно.
Ось чому люди є домінуючим видом, а не орангутанги.
Справа в тому, що системи штучного інтелекту, якими б розумними вони не були, підкорятимуться нам. Ми ставимо їм цілі, і вони не мають жодної внутрішньої цілі, яку б ми вбудували в них, щоб домінувати. Будувати це було б справді нерозумно. Це теж було б марно. Все одно ніхто б не купив.
Що, якщо людина, яка має бажання домінувати, запрограмує цю мету в ШІ?
Знову ж таки, це мій хороший ШІ проти вашого поганого ШІ. Якщо у вас є поганий штучний інтелект, чи то через поганий дизайн, чи навмисно, у вас будуть розумніші, хороші штучні інтелекти, які їх знищать. Так само у нас є поліція чи армія.
Але поліція та армія мають монополію на застосування сили, чого у світі ШІ з відкритим кодом ви б не мали.
Що ви маєте на увазі? У США ви можете купити рушницю будь-де. Навіть у більшості США поліція має законну монополію на застосування сили. Але багато людей мають доступ до шалено потужної зброї.
І це добре йде?
Я вважаю, що це набагато більша небезпека для життя жителів Північної Америки, ніж ШІ. Але ні, я маю на увазі, ми можемо уявити будь-які сценарії катастроф. Існують мільйони способів створення ШІ, які були б поганими, небезпечними, марними. Але питання не в тому, чи є способи, як це може зіпсуватися. Питання полягає в тому, чи є спосіб, який піде правильно.
Це буде довгий, важкий процес проектування систем, які будуть все більш і більш потужними з огорожами безпеки, щоб вони були надійними, безпечними і корисними. Це не станеться за один день. Це не те, що одного дня ми створимо якийсь гігантський комп’ютер і ввімкнемо його, а наступної хвилини він захопить світ. Це абсурдний сценарій.
Останнє запитання. Чого нам очікувати від Llama 3?
Ну, краща продуктивність, швидше за все. Мультимодальність відео тощо. Але його ще тренують.