image 601.png

Коли штучний інтелект може нас перехитрити? Це залежить від того, кого ви запитуєте

У 1960 році Герберт Саймон, який отримав Нобелівську премію з економіки та премію Тюрінга з інформатики, написав у своїй книзі «Нова наука про управлінські рішення» , що «машини будуть здатні протягом 20 років виконувати будь-яку роботу. що людина може зробити».

Історія наповнена рясними технологічними прогнозами, які не справдилися. У галузі штучного інтелекту найсміливіші прогнози стосувалися появи систем, які можуть виконувати будь-яке завдання, яке може виконати людина, часто називають штучним загальним інтелектом або AGI.

Тому, коли Шейн Легг, співзасновник Google DeepMind і головний науковець AGI, вважає , що ймовірність того, що AGI буде розроблено до 2028 року, становить 50%, може виникнути спокуса списати його з рахунків як ще одного піонера штучного інтелекту, який не засвоїв уроків історії.

Тим не менш, ШІ, безумовно, швидко прогресує. GPT-3.5, мовна модель, яка є основою для OpenAI's ChatGPT, була розроблена в 2022 році та отримала 213 балів із 400 на Єдиному іспиті юристів, стандартизованому іспиті, який мають скласти майбутні юристи, що помістило його в найнижчі 10% учасників тестування. GPT-4, розроблений лише кілька місяців потому, набрав 298 балів, увійшовши до 10% найкращих. Багато експертів очікують, що цей прогрес продовжиться.

Докладніше: 4 діаграми, які показують, чому розвиток ШІ навряд чи сповільниться

Погляди Легга поширені серед керівництва компаній, які зараз створюють найпотужніші системи ШІ. У серпні Даріо Амодей , співзасновник і генеральний директор Anthropic, заявив , що очікує, що ШІ «людського рівня» можна буде розробити за два-три роки. Сем Альтман, генеральний директор OpenAI, вважає, що AGI може бути досягнуто протягом наступних чотирьох-п’яти років.

Але в нещодавньому опитуванні більшість із 1712 експертів зі штучного інтелекту, які відповіли на запитання про те, коли, на їхню думку, штучний інтелект зможе виконувати кожне завдання краще та дешевше, ніж люди, були менш оптимістичними. Окреме опитування елітних прогнозистів із винятковим досвідом показує, що вони все ще менш оптимістичні.

Ставки для того, щоб віщувати, хто правий, високі. Легг, як і багато інших піонерів штучного інтелекту, попередив , що потужні системи штучного інтелекту майбутнього можуть призвести до вимирання людства. І навіть тих, хто менш стурбований сценаріями Термінатора , деякі попереджають, що система ШІ, яка могла б замінити людей у ​​будь-якому завданні, може повністю замінити людську працю .

Гіпотеза масштабування

Багато хто з тих, хто працює в компаніях, які створюють найбільші та найпотужніші моделі штучного інтелекту, вважають, що поява AGI неминуча. Вони підтримують теорію, відому як гіпотеза масштабування: ідея про те, що навіть якщо на цьому шляху знадобиться кілька додаткових технічних удосконалень, продовження навчання моделей штучного інтелекту, використовуючи все більшу кількість обчислювальної потужності та даних, неминуче призведе до AGI.

Є деякі докази, які підтверджують цю теорію. Дослідники спостерігали дуже чіткі та передбачувані зв’язки між тим, скільки обчислювальної потужності, також відомої як «обчислення», використовується для навчання моделі ШІ, і тим, наскільки добре вона виконує поставлене завдання. У випадку великих мовних моделей (LLM) — систем штучного інтелекту, які працюють із чат-ботами, такими як ChatGPT — закони масштабування передбачають, наскільки добре модель може передбачити пропущене слово в реченні. Генеральний директор OpenAI Сем Альтман нещодавно сказав TIME, що у 2019 році він зрозумів, що AGI може з’явитися набагато раніше, ніж більшість людей думає, після того, як дослідники OpenAI виявили закони масштабування.

Докладніше: Генеральний директор 2023 року: Сем Альтман

Ще до того, як закони масштабування були помічені, дослідники давно зрозуміли, що навчання системи штучного інтелекту, що використовує більше обчислень, робить її більш спроможною. Обсяг обчислень, які використовуються для навчання моделей штучного інтелекту, відносно передбачувано зріс за останні 70 років, оскільки витрати впали.

Ранні прогнози, засновані на очікуваному зростанні обчислювальної техніки, використовувалися експертами, щоб передбачити, коли штучний інтелект зможе зрівнятися (а потім, можливо, перевершити) людей. У 1997 році комп’ютерний науковець Ганс Моравек стверджував , що недороге апаратне забезпечення зрівняється з людським мозком за обчислювальною потужністю у 2020-х роках. Напівпровідниковий чіп Nvidia A100, який широко використовується для навчання штучному інтелекту, коштує близько 10 000 доларів і може виконувати приблизно 20 трильйонів FLOPS, а чіпи, розроблені пізніше цього десятиліття, матимуть ще вищу продуктивність. Однак оцінки обсягу обчислень, які використовуються людським мозком, варіюються в широких межах від приблизно одного трильйона операцій з плаваючою комою в секунду (FLOPS) до понад одного квінтильйона FLOPS, що ускладнює оцінку прогнозу Моравека. Крім того, навчання сучасних систем штучного інтелекту вимагає значно більше обчислень, ніж їхня робота, і цей факт не враховано у прогнозі Моравека.

Нещодавно дослідники некомерційної організації Epoch створили більш складну модель на основі обчислень. Замість того, щоб оцінювати, коли моделі штучного інтелекту будуть навчені обсягами обчислень, подібними до людського мозку, підхід Epoch безпосередньо використовує закони масштабування та робить спрощене припущення: якщо модель штучного інтелекту, навчена заданим обсягом обчислень, може точно відтворити даний частини тексту — залежно від того, чи закони масштабування передбачають, що така модель може багаторазово передбачати наступне слово майже бездоганно — тоді вона може виконати роботу зі створення цього тексту. Наприклад, система AI, яка може ідеально відтворити книгу, може замінити авторів, а система AI, яка може безпомилково відтворювати наукові статті, може замінити вчених.

Дехто може стверджувати, що лише тому, що системи штучного інтелекту можуть створювати результати, схожі на людські, це не обов’язково означає, що вони будуть мислити як людина. Зрештою, Рассел Кроу грає математика, лауреата Нобелівської премії Джона Неша у фільмі 2001 року «Прекрасний розум» , але ніхто не стане стверджувати, що чим краща його акторська гра, тим вражаючішими повинні бути його математичні здібності. Дослідники з Epoch стверджують , що ця аналогія базується на неправильному розумінні того, як працюють мовні моделі. Розширюючись, LLM набувають здатності міркувати як люди, а не просто поверхнево наслідувати людську поведінку. Однак деякі дослідники стверджують, що незрозуміло, чи є поточні моделі ШІ насправді міркуваннями.

Підхід Epoch є одним із способів кількісного моделювання гіпотези масштабування, каже Тамай Бесіроглу, заступник директора Epoch, який зазначає, що дослідники Epoch схильні вважати, що ШІ розвиватиметься менш швидко, ніж передбачає модель. Модель оцінює 10% ймовірність трансформаційного штучного інтелекту , який визначається як «штучний інтелект, який у разі широкого розгортання спричинить зміни, порівнянні з промисловою революцією», — який буде розроблено до 2025 року, і 50% ймовірність його розвитку до 2033 року. Різниця Розбіжність між прогнозами моделі та прогнозами таких людей, як Легг, ймовірно, значною мірою зводиться до того, що трансформаційний ШІ досягти важче, ніж AGI, каже Бесіроглу.

https://datawrapper.dwcdn.net/88iLY/3/

Запитання в експертів

Хоча багато хто на керівних посадах у найвідоміших компаніях ШІ вважають, що поточний шлях прогресу ШІ незабаром призведе до розвитку AGI, вони є винятками. Щоб більш систематично оцінити думку експертів щодо майбутнього штучного інтелекту, AI Impacts, проект безпеки ШІ некомерційного Інституту дослідження машинного інтелекту, восени 2023 року опитав 2778 експертів, усі з яких опублікували рецензоване дослідження в престижних журналів і конференцій зі штучного інтелекту за останній рік.

Серед іншого, експертів запитали, коли вони вважають, що «машинний інтелект високого рівня», визначений як машини, які можуть «виконувати будь-яке завдання краще та дешевше, ніж люди» без сторонньої допомоги, буде можливим. Незважаючи на те, що окремі прогнози сильно відрізнялися, середнє значення передбачає 50% шансів, що це станеться до 2047 року, і 10% шансів до 2027 року.

Як і багато людей, експерти, схоже, були здивовані швидким прогресом штучного інтелекту за останній рік і відповідно оновили свої прогнози. Коли AI Impacts проводив таке ж опитування в 2022 році, дослідники оцінили 50% ймовірність досягнення високого рівня машинного інтелекту. до 2060 року та 10% шанс до 2029 року.

Дослідників також запитали, коли, на їхню думку, різні окремі завдання можуть виконувати машини. Вони оцінили 50% шансів того, що штучний інтелект зможе скласти топ-40 хітів до 2028 року та написати книгу, яка потрапить у список бестселерів New York Times до 2029 року.

https://datawrapper.dwcdn.net/kwYTC/5/

Суперсиноптики налаштовані скептично

Тим не менш, є багато доказів того, що експерти не є хорошими прогнозистами. Між 1984 і 2003 роками соціолог Філіп Тетлок зібрав 82 361 прогноз від 284 експертів, ставлячи їм такі запитання, як: чи буде радянський лідер Михайло Горбачов скинутий у результаті державного перевороту? Чи виживе Канада як політичний союз? Тетлок виявив, що прогнози експертів часто були не кращими за випадковість, і чим відомішим був експерт, тим менш точними були їхні прогнози.

Потім Тетлок і його співробітники вирішили визначити, чи може хтось робити точні прогнози. У конкурсі прогнозів, започаткованому Управлінням передових дослідницьких проектів розвідки США в 2010 році, команда Тетлока, проект «Добре судження» (GJP), домінувала над іншими, створюючи прогнози, які, як повідомляється, були на 30% точнішими, ніж аналітики розвідки, які мали доступ до секретної інформації. У рамках конкурсу GJP визначила «суперпрогнозистів» — осіб, які постійно робили прогнози з точністю вище середнього. Однак, незважаючи на те, що суперпрогнозисти виявилися досить точними для прогнозів із часовим горизонтом у два роки або менше, незрозуміло, чи вони також точні для довготермінових питань, наприклад, коли може бути розроблений AGI, говорить Езра Каргер, економіст Федерального резервного банку Чикаго та директор з досліджень Інституту прогнозування Тетлока.

Коли, на думку суперпрогнозистів, прибуде AGI? У рамках турніру з прогнозування , який проводився з червня по жовтень 2022 року Дослідницьким інститутом прогнозування, 31 суперпрогнозистів запитали, чи вони думають, що Нік Бостром — суперечливий філософ і автор основоположного трактату про екзистенціальний ризик штучного інтелекту «Суперінтелект» — підтвердить існування AGI. Середній суперпрогнозист вважав, що ймовірність того, що це станеться до 2030 року, становить 1%, до 2050 року – 21%, а до 2100 року – 75%.

https://datawrapper.dwcdn.net/X3iN3/6/

Хто правий?

Усі три підходи до прогнозування того, коли може бути розроблений AGI — модель гіпотези масштабування Epoch та опитування експертів і суперпрогнозистів — мають одну спільну рису: існує багато невизначеності. Зокрема, думки експертів дуже розрізняються: 10% вважають, що AGI буде розроблено до 2030 року як ніби ймовірно, а 18% вважають, що AGI буде досягнуто лише після 2100 року.

Проте в середньому різні підходи дають різні відповіді. Модель Epoch оцінює 50% ймовірність появи трансформаційного штучного інтелекту до 2033 року, середній експерт оцінює 50% ймовірність AGI до 2048 року, а суперпрогнозисти набагато далі – 2070.

Існує багато розбіжностей, які підживлюють дебати щодо того, коли можна розробити AGI, каже Катя Грейс, яка організувала опитування експертів як провідний дослідник AI Impacts. По-перше, чи буде достатнім поточних методів побудови систем штучного інтелекту, підкріплених більшою кількістю обчислювальних ресурсів і надаючи більше даних, з кількома налаштуваннями алгоритмів? Відповідь на це запитання частково залежить від того, наскільки вражаючими, на вашу думку, є нещодавно розроблені системи ШІ. Чи є GPT-4, за словами дослідників Microsoft, іскрами AGI ? Або це, за словами філософа Губерта Дрейфуса, «схоже на твердження, що перша мавпа, яка залізла на дерево, йшла до висадки на Місяць?»

По-друге, навіть якщо сучасних методів достатньо для досягнення мети розробки AGI, незрозуміло, наскільки далекий фініш, каже Грейс. Також можливо, що щось може перешкодити прогресу на шляху, наприклад, брак навчальних даних.

Нарешті, на тлі цих більш технічних дебатів вимальовуються більш фундаментальні переконання людей про те, наскільки і як швидко може змінитися світ, каже Грейс. Ті, хто працює зі штучним інтелектом, часто занурені в технології та відкриті до ідеї, що їхні творіння можуть кардинально змінити світ, тоді як більшість людей відкидає це як нереалістичне.

Ставки вирішення цієї суперечки є високими. На додаток до запитань експертів, як швидко, на їх думку, ШІ досягне певних етапів, AI Impacts запитав їх про наслідки технології для суспільства. З 1345 респондентів, які відповіли на запитання про вплив штучного інтелекту на суспільство, 89% сказали, що вони суттєво або надзвичайно стурбовані глибокими фейками, створеними штучним інтелектом, а 73% також були стурбовані тим, що штучний інтелект може розширити можливості небезпечних груп, наприклад, дозволяючи їм створювати віруси. Середній респондент вважав 5% вірогідності того, що AGI призводить до «надзвичайно поганих» результатів, таких як вимирання людей.

Враховуючи ці занепокоєння та той факт, що 10% опитаних експертів вважають, що до 2030 року ШІ зможе виконувати будь-яке завдання, яке під силу людині, Грейс стверджує, що політики та компанії повинні підготуватися зараз.

Підготовка може включати інвестиції в дослідження безпеки, обов’язкове тестування безпеки та координацію між компаніями та країнами, що розробляють потужні системи ШІ, каже Грейс. Багато з цих заходів також були рекомендовані в статті , опублікованій експертами зі штучного інтелекту минулого року.

«Якщо уряди діятимуть зараз, рішуче, є ймовірність, що ми навчимося робити системи штучного інтелекту безпечними, перш ніж навчимося робити їх настільки потужними, що вони стануть неконтрольованими», — Стюарт Рассел, професор інформатики Каліфорнійського університету. , Берклі та один із авторів газети, сказав TIME у жовтні.