Чому ШІ робить помилки?

AI mistakes

ШІ вже перевершив людей у багатьох видах діяльності, які вимагають ретельності, точності та терпіння. Що не заважає йому займатися такими елементарними речами, як відрізнити черепаху від гвинтівки. З огляду на наслідки, які це може мати (і іноді вже має: від підозри у кримінальному правопорушенні до смертельних випадків на дорогах), деякі експерти навіть вагаються, чи варто більше боятися штучного інтелекту чи штучної дурості. Чому ШІ робить такі дивні помилки і як це можна виправити?

Недавня аварія, під час якої безпілотний автомобіль Uber збив жінку, проливає світло на головну причину, чому штучний інтелект стає таким безпорадним у певних ситуаціях. І ось: яким би розумним воно не було - воно мислить не так, як ми, люди. Тому замість єдиного стійкого миттєвого рішення в такій ситуації - спочатку зробити все, щоб запобігти зіткненню - він витрачав довгі секунди на те, щоб визначити, що за об'єкт попереду. І ось як це працює.

Це божевільний, божевільний, божевільний, божевільний світ

Приймаючи рішення, ШІ покладається на вбудовані алгоритми та величезну кількість даних, які він обробляє, щоб прийти до певних «висновків». Ерік Бріньольфссон і Том Мітчелл зазначають, що для того, щоб забезпечити штучний інтелект надійним підґрунтям для прийняття належних рішень, ми повинні встановити чітко визначені входи та результати, чітко визначити цілі та показники, давати короткі та точні інструкції та усунути довгі ланцюжки міркувань, покладаючись на здоровий глузд. . Тобто створити середовище максимально однозначне і передбачуване.

Але такі ідеальні умови важко знайти в реальному світі. Не можна чекати від усіх учасників дорожнього руху бездоганного дотримання ПДР. Або що всі почерки будуть розбірливими. Або що всі ситуації будуть зрозумілі і недвозначні. Людський мозок налаштований на роботу в невизначеному, постійно мінливому середовищі, що часто саме по собі викликає цю невизначеність і двозначність. І щоб мати можливість успішно діяти в цьому світі, ШІ повинен навчитися думати більше як людина.

AI in real world

Навчання, людський спосіб

І як ми, люди, навчимося приймати рішення? Більшість досвіду, який ми отримуємо з самого дитинства, приходить шляхом проб і помилок. Але покладатися лише на емпіричні знання, враховуючи безпорадність людських нащадків і кількість небезпек, які таїть у собі навколишній світ, було б занадто бездумно. Тому, крім проб і помилок, з перших днів життя дитини відбувається цілеспрямоване навчання та інструктаж. І ми повинні сказати, що сама природа подбала про нас, наділивши нас набором вроджених інстинктів.

Сьогодні вчені намагаються застосувати те, що ми знаємо про те, як люди навчаються, до машинного навчання. Таким чином, Open AI розробив алгоритм, який дозволяє ШІ вчитися на власних помилках так само, як це роблять діти. Їхня нова технологія під назвою Hindsight Experience Replay (або просто HER) дозволяє ШІ переглядати свої попередні дії під час виконання певного завдання. Процес навчання подібний до людського, включаючи підкріплення. Коли ми освоюємо якусь дію, результати рідко відразу відповідають поставленим цілям. Але ми також вчимося на цих поганих результатах і згодом можемо використати їх для досягнення інших цілей. Таким чином, можна сказати, що хоча наші спроби не досягли успіху, їх результат все одно позитивний. Для нашого мозку таке навчання відбувається як якийсь фоновий підсвідомий процес. HER формалізує це для машинного навчання, переформатувавши невдачі як успіхи.

Розробка нейронних мереж

Нові алгоритми штучного інтелекту нагадують розробку людських нейронних мереж, де крихітні нейрони передають сигнали один одному, створюючи таким чином наші спогади про різні об’єкти та їхні властивості та одержуючи доступ до них. Пізніше ці спогади використовуються як основа для міркувань, передбачень і прийняття рішень.

Подібним чином прості обчислювальні елементи штучного інтелекту (ноди) створюють сильніші чи слабші зв’язки, постійно регулюючи зв’язки, коли вони приймають навчальні дані. З часом система визначає найкращі шаблони з’єднання та приймає їх як стандартні, формуючи те, що ми називаємо автоматичною реакцією, коли говоримо про людську поведінку. Пізніше він може застосувати отримані знання до нових ситуацій, передбачаючи результат на основі статистики попередніх спроб. Чим більший обсяг тренувальних даних, тим «розумнішою» стає ваша нейронна мережа і тим точнішими є її передбачення.

Звичайно, треба розуміти, що про абсолютну схожість не йдеться. Людський мозок містить близько 100 мільярдів нейронів, які утворюють близько 1000 трильйонів зв’язків. І сама його природа інша: він покладається на електрохімічний, а не на цифровий сигнал. На відміну від машинного «мозку», людський мозок потребує в рази менше даних для створення зв’язків і може застосовувати знання до нових ситуацій незрівнянно легше та швидше (те, що є основою для творчості). Отже, у випадку з комп’ютерними нейронними мережами вони є лише дуже грубою копією того, що відбувається в наших головах.

Запечатана таємниця

Складна сторона самоосвіти ШІ полягає в тому, що чим більше він стає схожим на людину, тим менш зрозумілими та контрольованими стають процеси, які відбуваються в його «мозку». У цьому сенсі прислів’я, яке ми більше звикли застосовувати до людей, «комусь в голову не влізеш», справедливе і для сучасних штучних нейронних мереж, які навчаються самоучки. Як це сталося з чат-ботами Facebook, які, надані самі собі, швидко виробили свою мову , незрозумілу для людей.

З чат-ботами, які є досить простими програмами, насправді нічого небезпечного немає. Тим не менш, це навчило вчених бути більш обережними при роботі зі складнішими рішеннями. Не те, що завтра ви зустрінете Термінатора за рогом свого будинку. Але уявіть собі саму самокеровану машину, яка приймає рішення про те, що краще: розвернути чи переїхати вас.

«Погане міркування» є найчастішою причиною дурних помилок ШІ. І що найгірше, машина не може пояснити, чому вона так вирішила, тому дуже важко з’ясувати, що і на якому етапі пішло не так. Нещодавно вчені подолали цю проблему, створивши програмне забезпечення, яке може налагоджувати системи штучного інтелекту шляхом зворотного проектування процесу навчання. Він перевіряє нейронну мережу за допомогою великої кількості вхідних даних — кожен «нейрон» один за іншим — і повідомляє їй, де її відповіді неправильні, щоб вона могла виправити себе.

Покладаючись на вчителів-людей

Метод самонавчання методом проб і помилок найменше виправданий у ризикованих або неоднозначних ситуаціях. У таких випадках, коли діти отримують користь від інструкцій дорослих, штучний інтелект також може отримати користь від людей-вчителів. Певні кроки в цьому напрямку вже зроблено. Так, в одному з експериментів ШІ навчився розрізняти людське волосся на фотографіях (це завдання дуже складне для машини), слідуючи попереднім інструкціям тренерів. В іншому дослідженні ШІ навчили грати в гру «Помста Монтесуми», дотримуючись інструкцій простою англійською мовою.

Результати цих експериментів дійсно багатообіцяючі, але все ще є багато перешкод на шляху до безперебійного спілкування між людиною та ШІ. Сьогодні штучний інтелект може розуміти лише прості прямі команди, що далеко від того, як люди спілкуються щодня. Ніколаос Маврідіс визначає 10 аспектів інтерактивної комунікації між людиною та роботом, які ще мають бути досягнуті, включаючи численні мовні акти, діалоги зі змішаною ініціативою, невербальне спілкування тощо.

Інша справа, щоб щось пояснити, ми повинні самі це чітко розуміти. Що рідко буває правдою щодо людей. Модель, описана ще в 1950-х роках філософом і вченим Майклом Полані, вказує на те, що, приймаючи рішення, ми лише частково покладаємося на очевидні, явні знання. Більшість знань, якими ми користуємося щодня, є неявними, тобто ми не усвідомлюємо, що володіємо ними та застосовуємо їх. Ми отримуємо його під час взаємодії один з одним і навколишнім світом підсвідомим практичним шляхом. Тому його важко перенести, особливо коли мова йде про навчання машини.

Дізнайтеся, як налаштовується взаємодія людини та ШІ в масштабі розумного міста.

Міркування VS Інстинкти

Що ще відрізняє наші психічні процеси від процесів машини, це те, що ще до народження світу людський мозок не є tabula rasa. У нас є набір вроджених основних інстинктів, якесь базове знання, яке допомагає нам розуміти предмети, дії, числа та простір — і розвивати здоровий глузд. У випадку з машинами роль таких інстинктів відіграють функції активації.

Чи такі «інстинкти» (у формі вроджених механізмів) мають бути вбудовані в ШІ? Деякі вчені наполягають. Список включає поняття причинно-наслідкового зв’язку, аналізу витрат і вигод, трансляційної інваріантності, контекстуалізації тощо. Серед вчених ведуться запеклі суперечки щодо того, чи доречно включати такі вроджені алгоритми в ШІ та які наслідки це може мати. Дійсно, потрібні були мільйони років, щоб наші інстинкти еволюціонували. Чи можна ефективно стиснути цей тривалий процес? Один із способів, який пропонують вчені, — це зворотній аналіз того, що насправді відбувається, коли ми поводимося інстинктивно чи інтуїтивно.

Ось що зробили дослідники з Массачусетського технологічного інституту, щоб зрозуміти алгоритм інтуїтивного прийняття рішень при вирішенні складних завдань. Вони попросили групу найрозумніших студентів знайти рішення для оптимізації мережі авіакомпаній. Потім підходи до проблеми були проаналізовані та закодовані в машиночитану форму.

Що далі?

Досі ми зупинялися на здатності ШІ міркувати та приймати логічні рішення. Але логіко-математичний інтелект — лише один із багатьох, які ми використовуємо щодня. Психологи нараховують щонайменше 9 різних типів людського інтелекту, включаючи музичний, екзистенціальний, міжособистісний, кінестетичний тощо. Побудова цих типів інтелекту особливо важлива для загального призначення ШІ, але поки що це переважно сфера майбутнього, а також здатність ШІ враховувати контекст і вирішувати моральні дилеми.

Важко передбачити, скільки часу знадобиться ШІ, щоб еволюціонувати до стадії вуглецевого мозку, і чи отримаємо ми користь від результатів, але до цього часу ми повинні бути готові до того, що ШІ буде робити ще дивні помилки. Зрештою, цитуючи «Злочин і покарання» Достоєвського, «щоб діяти розумно, потрібне щось більше, ніж розум», і штучний інтелект не є винятком.

AI moral reasoning

Давайте разом подивимося, що чекає на нас у майбутньому. А ще краще - давайте створимо це майбутнє разом. Stfalcon.com запрошує вас до співпраці!