Кей Ферт-Баттерфілд понад десять років працювала над взаємозв’язком підзвітності та штучного інтелекту та з нетерпінням чекає майбутнього. «Я не песиміст ШІ. Я вважаю, що якщо ми зробимо це правильно, це може відкрити багато корисних дверей», – каже вона. Але вона все одно обережна. Після того, як минулого року лікарі діагностували у неї рак молочної залози, вона була вдячна, що вони не надто покладалися на штучний інтелект, хоча він все частіше використовується для оцінки мамографії та МРТ і навіть для планування лікування. У той час як Ферт-Баттерфілд, яка зараз вилікувалася, менше хвилювалася про те, чи машина зчитує її мамографію, вона зазначила, що надмірна залежність від поточних моделей штучного інтелекту може бути проблематичною, оскільки іноді вони надають невірну інформацію. Її хірурги погодилися, каже вона.
Колишній суддя та професор, Ферт-Баттерфілд став одним із провідних світових експертів із відповідального штучного інтелекту, формуючи зусилля для забезпечення підзвітності та прозорості цих систем. У квітні минулого року вона завершила п’яти з половиною років перебування на посаді керівника відділу штучного інтелекту та машинного навчання на Всесвітньому економічному форумі, де вона створила рамки та посібники для компаній, країн та інших організацій, щоб відповідально керувати розробкою та використанням штучного інтелекту. . Її робота з консультування Великобританії та Бразилії щодо створення таких систем штучного інтелекту потрапила в закон. «Якщо ви є урядом і використовуєте штучний інтелект зі своїми громадянами, ви повинні мати можливість пояснити своїм громадянам, як він використовується», — каже вона. У 2016 році Ферт-Баттерфілд стала співзасновницею Інституту відповідального штучного інтелекту, який надає організаціям інструменти для створення безпечних і надійних систем штучного інтелекту, а також є членом ради, що консультує Управління звітності уряду США з питань ШІ, пов’язаних з наукою та технологіями, а також з консультативна рада Міжнародного центру досліджень штучного інтелекту ЮНЕСКО.
Зараз вона також керує Good Tech Advisory — співпрацює з корпораціями, урядами, неурядовими організаціями та засобами масової інформації для відповідального впровадження ШІ. Це означає допомогу в розробці вказівок щодо використання технології штучного інтелекту, щоб мінімізувати потенційну шкоду, максимізуючи переваги та забезпечуючи відповідність законодавству.
Як генеральний директор Good Tech Advisory, Ферт-Баттерфілд допомагав лікарням у США орієнтуватися у потенційному застосуванні штучного інтелекту, зокрема для читання медичних зображень і встановлення діагнозів. Багато хто не має чітких вказівок щодо того, як персонал може використовувати такі програми, як ChatGPT, хоча Ферт-Баттерфілд зазначає, що ці інструменти часто можуть надавати неточну інформацію. «Ці компанії борються з серйозним відповідальним вибором ШІ», — каже вона. Лікарі, які використовують штучний інтелект для ефективного друку нотаток і виконання адміністративних завдань, можуть мати більше часу для догляду за пацієнтами. Але покладатися на ШІ для встановлення діагнозу в ситуаціях високого тиску може бути небезпечно. І якщо пацієнт захворіє чи помре, то постає питання про відповідальність.
Коли штучний інтелект використовується невідповідально, люди можуть постраждати, і це непропорційно жінки та кольорові люди, зазначає Ферт-Баттерфілд. Упереджені алгоритми можуть перешкодити працівникові отримати роботу, несправедливо відхилити заявки на іпотеку або прийняти неправильні рішення щодо загроз безпеці на основі, наприклад, розпізнавання обличчя.
В основі пропагандистської діяльності Ферт-Баттерфілда лежить розуміння того, як штучний інтелект впливає на найбільш вразливих членів суспільства. У WEF вона працювала з ЮНІСЕФ над дослідженням використання штучного інтелекту з дітьми та організувала премію Smart Toy Award, яка закликала до продуманого впровадження. «Ми дозволяємо нашим дітям гратися іграшками, які створені за допомогою штучного інтелекту, але ми не розуміємо, чого навчаються наші діти… або куди йдуть їхні дані», — каже вона.
Заборона використання штучного інтелекту в іграшках або класних кімнатах як спосіб захисту дітей від його потенційних ризиків не є відповіддю, каже Ферт-Баттерфілд. «Нам потрібно, щоб діти використовували ШІ в освіті, тому що вони використовуватимуть його у своїй роботі. Тож ми маємо знайти відповідальний спосіб дозволити таку взаємодію між машиною та людиною», – каже вона. Але вчителі повинні залишатися відповідальними. «Ми не можемо просто навчати ШІ; ми повинні тримати людей в курсі», — каже вона. Викладачі можуть покладатися на штучний інтелект для внутрішнього адміністрування, звільняючи час, щоб більше зосередитися на допомозі своїм учням.
Дуже важливо звернути пильну увагу на те, як побудовані системи, але Ферт-Баттерфілд також стурбований тим, хто бере участь. Хоча більше 100 мільйонів людей використовують ChatGPT, майже 3 мільярди людей все ще не мають доступу до Інтернету. «Ми величезними темпами збільшуємо цифровий розрив — не лише між глобальною Північчю та глобальним півднем, але й усередині країн», — каже вона. Незважаючи на те, що штучний інтелект може революціонізувати навчання в школах і лікування пацієнтів, більша частина світу може не відчути його наслідків. «Ми зазвичай сидимо в своїх вежах зі слонової кістки, розмовляючи про те, як ШІ збирається робити все блискуче, і ми не пам’ятаємо, що більша частина світу не була частиною інтернет-революції», — каже вона.
Наше майбутнє поставлене на карту в цих рішеннях про те, як люди використовують і покладаються на штучний інтелект, каже вона: «Йдеться про те, чи ми як люди будуємо суспільство, якого хочемо».
Цей профіль опубліковано в рамках ініціативи TIME100 Impact Awards , яка відзначає лідерів з усього світу, які рухають змінами у своїх спільнотах і галузях. Наступна церемонія нагородження TIME100 Impact Awards відбудеться 11 лютого в Дубаї.