AI mistakes

ИИ уже превзошел человека во многих видах деятельности, требующих тщательности, точности и терпения. Что не мешает ему справляться с такими элементарными вещами, как отличить черепаху от винтовки. Учитывая последствия, которые это может иметь (а иногда уже имеет: от подозрения в совершении уголовного преступления до дорожно-транспортных происшествий), некоторые эксперты даже колеблются, чего нам следует опасаться больше: искусственного интеллекта или искусственной глупости. Почему ИИ совершает такие странные ошибки и как это можно исправить?

Недавняя авария, в которой беспилотный автомобиль Uber сбил женщину, проливает свет на главную причину, по которой ИИ становится настолько беспомощным в определенных ситуациях. И вот оно: каким бы оно ни было умным – оно думает не так, как мы, люди. Именно поэтому вместо единственного устойчивого немедленного решения в такой ситуации – сначала сделать все, чтобы предотвратить столкновение – тратились долгие секунды на определение того, что за объект находится впереди. И вот как это работает.

Это безумный, безумный, безумный, безумный мир

Принимая решение, ИИ опирается на встроенные алгоритмы и огромное количество данных, которые он обрабатывает, чтобы прийти к определенным «выводам». Эрик Бриньолфссон и Том Митчелл отмечают, что для того, чтобы предоставить ИИ прочную основу для правильного принятия решений, мы должны установить четко определенные входные и выходные данные, четко определить цели и показатели, давать короткие и точные инструкции и исключить длинные цепочки рассуждений, опираясь на здравый смысл. . То есть создать среду максимально однозначную и предсказуемую.

Но такие идеальные условия трудно найти в реальном мире. Нельзя ожидать от всех участников дорожного движения, что они будут безупречно соблюдать правила дорожного движения. Или что все почерки будут разборчивы. Или что все ситуации будут ясны и однозначны. Человеческий мозг приспособлен работать в неопределенной, постоянно меняющейся среде, что часто само по себе вызывает эту неопределенность и двусмысленность. И чтобы иметь возможность успешно действовать в этом мире, ИИ должен научиться мыслить больше как человек.

AI in real world

Обучение, человеческий путь

И как мы, люди, учимся принимать решения? Большая часть опыта, который мы получаем с самого детства, приходит методом проб и ошибок. Но было бы слишком легкомысленно полагаться только на эмпирические знания, учитывая беспомощность человеческих отпрысков и количество опасностей, которые таит в себе окружающий мир. Именно поэтому, помимо метода проб и ошибок, целенаправленное обучение и инструктирование происходит с самых первых дней жизни ребенка. И надо сказать, что сама природа позаботилась о нас, наделив набором врожденных инстинктов.

Сегодня ученые пытаются применить то, что мы знаем о том, как люди учатся, к машинному обучению. Таким образом, Open AI разработала алгоритм, который позволяет ИИ учиться на собственных ошибках так же, как это делают младенцы. Их новая технология под названием Hindsight Experience Replay (или просто HER) позволяет ИИ просматривать свои предыдущие действия при выполнении конкретной задачи. Процесс обучения аналогичен человеческому, включая подкрепление. Когда мы осваиваем какое-то действие, результаты редко сразу соответствуют поставленным целям. Но мы учимся и на этих плохих результатах и позже можем использовать их для достижения других целей. Таким образом, можно сказать, что хотя наши попытки и не увенчались успехом, их результат все равно положительный. Для нашего мозга такое обучение происходит как своего рода фоновый подсознательный процесс. HER формализует это для машинного обучения, превращая неудачи в успехи.

Развитие нейронных сетей

Новые алгоритмы искусственного интеллекта напоминают развитие человеческих нейронных сетей, в которых крошечные нейроны передают друг другу сигналы, тем самым создавая и получая доступ к нашим воспоминаниям о различных объектах и их свойствах. Позже эти воспоминания используются как основа для рассуждений, ожиданий и принятия решений.

Подобным же образом простые вычислительные элементы ИИ (ноды) создают более сильные или слабые связи, неоднократно корректируя связи по мере приема обучающих данных. Со временем система определяет лучшие шаблоны подключения и принимает их по умолчанию, формируя то, что мы называем автоматической реакцией, когда говорим о человеческом поведении. Позже он может применить полученные знания к новым ситуациям, предвидя результат на основе статистики предыдущих попыток. Чем больше объем обучающих данных, тем «умнее» становится ваша нейронная сеть и тем точнее ее прогнозы.

Конечно, надо понимать, что об абсолютном сходстве речь не идет. Человеческий мозг содержит около 100 миллиардов нейронов, которые образуют около 1000 триллионов связей. И сама его природа иная: она основана на электрохимическом, а не на цифровом сигнале. В отличие от «мозга» машины, человеческому мозгу требуется в разы меньше данных для построения связей и он может применять знания к новым ситуациям несравненно проще и быстрее (что и составляет основу творчества). Итак, в случае с компьютерными нейронными сетями они представляют собой лишь очень грубую копию того, что происходит в наших головах.

Запечатанный секрет

Сложность самообразования ИИ заключается в том, что чем больше он становится похожим на человека, тем менее понятными и контролируемыми становятся процессы, происходящие в его «мозге». В этом смысле пословица, которую мы больше привыкли применять к людям: «Нельзя залезть кому-то в голову», применима и к современным искусственным нейронным сетям-самообучающимся. Как это произошло с чат-ботами Facebook, которые, будучи предоставлены сами себе, быстро выработали свой непонятный для человека язык.

С чат-ботами, которые представляют собой довольно простые программы, по сути, ничего опасного нет. Тем не менее, это преподало ученым урок, что им следует быть более осторожными при поиске более сложных решений. Не то чтобы завтра вы встретите Терминатора за углом своего дома. Но только представьте себе тот самый беспилотный автомобиль, который принимает решение, лучше ли вас свернуть или сбить.

«Плохие рассуждения» — наиболее частая причина глупых ошибок ИИ. И что хуже всего, машина не может объяснить, почему она так решила, поэтому очень сложно выяснить, что и на каком этапе пошло не так. Недавно ученые преодолели эту проблему, создав программное обеспечение, которое может отлаживать системы искусственного интеллекта путем обратного проектирования процесса их обучения. Он тестирует нейронную сеть с большим количеством входных данных — каждый «нейрон» один за другим — и сообщает ей, где ее ответы неверны, чтобы она могла исправить себя.

Опираясь на учителей-людей

Метод самонавчання методом проб і помилок найменше виправданий у ризикованих або неоднозначних ситуаціях. У таких випадках, коли діти отримують користь від інструкцій дорослих, штучний інтелект також може отримати користь від людей-вчителів. Певні кроки в цьому напрямку вже зроблено. Так, в одному з експериментів ШІ навчився розрізняти людське волосся на фотографіях (це завдання дуже складне для машини), слідуючи попереднім інструкціям тренерів. В іншому дослідженні ШІ навчили грати в гру «Помста Монтесуми», дотримуючись інструкцій простою англійською мовою.

Метод самообучения методом проб и ошибок наименее оправдан в рискованных или неоднозначных ситуациях. В таких случаях, когда дети получают пользу от указаний взрослых, ИИ также может извлечь выгоду из учителей-людей. Некоторые шаги в этом направлении уже сделаны. Так, в одном из экспериментов ИИ научился различать человеческие волосы на фотографиях (очень сложная для машины задача), следуя предварительным инструкциям тренеров. В другом исследовании ИИ научили играть в игру «Месть Монтесумы»,следуя инструкциям на простом английском языке.

Результаты этих экспериментов действительно многообещающие, но на пути к налаживанию взаимодействия человека и ИИ все еще существует множество препятствий. Сегодня ИИ может понимать только простые прямые команды, что далеко от того, как люди общаются ежедневно. Николаос Мавридис выделяет 10 аспектов интерактивного общения человека и робота, которые еще предстоит достичь, включая множественные речевые акты, диалоги со смешанной инициативой, невербальное общение и т. д.

Другое дело, что чтобы что-то объяснить, мы должны сами это ясно понимать. Что редко бывает правдой в отношении людей. Закономерность, описанная еще в 1950-х годах философом и ученым Майклом Поланьи, указывает на то, что, принимая решения, мы лишь частично полагаемся на очевидное, явное знание. Большая часть знаний, которыми мы пользуемся каждый день, является неявной, то есть мы не осознаем, что обладаем ими и не применяем их. Мы получаем его в ходе взаимодействия друг с другом и с окружающим миром подсознательным практическим путем. Поэтому его трудно передать, особенно когда речь идет об обучении машины.

Узнайте, как взаимодействие человека и искусственного интеллекта оптимизируется в масштабах умного города .

Рассуждения против инстинктов

Что еще отличает наши мыслительные процессы от процессов машины, так это то, что еще до рождения мира человеческий мозг не является tabula rasa. У нас есть набор врожденных основных инстинктов, своего рода базовые знания, которые помогают нам понимать объекты, действия, числа и пространство — и развивать здравый смысл. В случае машин роль таких инстинктов играют функции активации.

Должны ли такие «инстинкты» (в форме врожденных механизмов) быть встроены в ИИ? Некоторые учёные настаивают. В этот список входят понятия причинности, анализа затрат и выгод, трансляционной инвариантности, контекстуализации и т. д. Среди учёных идут ожесточенные споры о том, уместно ли включать такие врожденные алгоритмы в ИИ и какие последствия это может иметь. Действительно, нашим инстинктам потребовались миллионы лет, чтобы эволюционировать. Можно ли эффективно сократить этот длительный процесс? Один из способов, предлагаемых учеными, — это обратный анализ того, что на самом деле происходит, когда мы ведем себя инстинктивно или интуитивно.

Именно это сделали исследователи из Массачусетского технологического института, чтобы понять алгоритм интуитивного принятия решений при решении сложных задач. Они попросили группу самых умных студентов найти решение по оптимизации сети авиакомпаний. Затем подходы к проблеме были проанализированы и закодированы в машиночитаемом виде.

Что дальше?

До сих пор мы останавливались на способности ИИ рассуждать и принимать логические решения. Но логико-математический интеллект — лишь один из многих, которые мы используем каждый день. Психологи насчитывают как минимум 9 различных типов человеческого интеллекта, включая музыкальный, экзистенциальный, межличностный, кинестетический и т. д. Построение этих типов интеллекта особенно важно для ИИ общего назначения, но пока это по большей части вопрос будущего, а также способность ИИ учитывать контекст и решать моральные дилеммы.

Трудно предсказать, сколько времени понадобится ИИ, чтобы развиться до стадии углеродного мозга, и получим ли мы пользу от результатов, но до этого времени мы должны быть готовы к тому, что ИИ будет совершать еще более странные ошибки. В конце концов, цитируя «Преступление и наказание» Достоевского, «чтобы действовать разумно, нужно нечто большее, чем интеллект» — и искусственный интеллект не является исключением.

AI moral reasoning

Давайте вместе посмотрим, что нас ждет в будущем. Но лучше давайте создадим это будущее вместе. Stfalcon.com приглашает к сотрудничеству!