• Музей-заповедник Ф.И. Тютчева «Овстуг» присоединится ко Всероссийской акции «Ночь искусств»

    Музей-заповедник Ф.И. Тютчева «Овстуг» присоединит...

    03.11.24

    0

    10773

Искусственный интеллект далеко не такой умный, каким вы и Илон Маск его считаете

Искусственный интеллект далеко не такой умный, каким вы и Илон Маск его считаете
  • 26.07.17
  • 0
  • 8351
  • фон:

В марте 2016 года компьютерный алгоритм AlphaGo компании DeepMind смог одержать победу над Ли Седолем, на тот момент лучшим в мире игроком в сложную логическую го. Это событие стало одним из тех определяющих моментов в истории технологической индустрии, коими в свое время стали и победа компьютера Deep Blue компании IBM над чемпионом мира по шахматам Гарри Каспаровым, и победа суперкомпьютера Watson от той же IBM в викторине для эрудитов Jeopardy в 2011 году.

Но все же, несмотря на эти победы, какими бы впечатляющими они ни были, здесь речь в большей степени идет о тренировочных алгоритмах и использовании грубой вычислительной мощности, нежели о реальном искусственном интеллекте. Бывший профессор робототехники Массачусетского технологического института Родни Брукс, являющийся одним из основателей компании iRobot, а позже Rethink Robotics, говорит, что обучение алгоритма игре в сложную стратегическую головоломку – это не интеллект. По крайней мере не такой, каким мы его представляем для человека.

Эксперт объясняет, что каким бы сильным AlphaGo ни показал себя при выполнении поставленной перед ним задачи, на самом деле он не способен ни на что другое. Более того, он настроен таким образом, что может играть в го только на стандартном поле 19 x 19. В интервью порталу TechCrunch Брукс рассказал, как недавно имел возможность пообщаться с командой из DeepMind и выяснить одну интересную деталь. На вопрос о том, что случилось бы, поменяй организаторы соревнования размер доски го и увеличив ее до 29 x 29 клеток, команда AlphaGo призналась ему, что даже легкое изменение игрового поля привело бы к тому, что «нам настал конец».

«Я думаю, что люди видят, насколько хорошо алгоритм справляется с одной задачей, и, видимо, тут же считают, что он способен так же эффективно выполнять другие. Но дело в том, что он не может», — прокомментировал Брукс.

Грубый интеллект

В мае этого года в интервью Дэвину Колдвею на мероприятии TechCrunch Disrupt Каспаров отметил, что разработка компьютера, способного играть в шахматы на мировом уровне, – это одно, но совсем другое назвать такой компьютер чистым искусственным интеллектом, так как он им не является. Это просто машина, которая бросает всю свою вычислительную мощность на решение проблемы, с которой она привыкла справляться лучше всего.

«В шахматах машины побеждают из-за возможности глубокого вычислительного расчета. Они могут стать совершенно непобедимыми при наличии огромной базы данных, очень быстрых аппаратных средств и более логичных алгоритмов. Однако они лишены понимания. Они не распознают стратегические шаблоны. У машин нет цели», — заявил Каспаров.

Гил Пратт, генеральный директор Toyota Institute, отдела компании Toyota, занимающегося вопросами и проектами, связанными с искусственным интеллектом и его использованием в домашних роботах и беспилотных автомобилях, тоже принял участие в интервью TechCrunch в рамках мероприятия Robotics Session. По его мнению, тот страх, который мы слышим от широкого круга людей, включая Илона Маска, недавно назвавшего искусственный интеллект «экзистенциальной угрозой человечеству», может быть обусловлен не более чем теми антиутопичными описаниями мира, которые нам предлагает научная фантастика.

«Наши нынешние системы глубинного обучения хороши в выполнении поставленных перед ними задач лишь настолько, насколько мы их сами создали. Но на самом деле они довольно узкоспециализированы и крошечны по своим масштабам. Поэтому я считаю важным каждый раз в контексте этой темы упоминать и то, насколько они хороши, и то, насколько они на самом деле малоэффективны. А также то, как далеки мы от того момента, когда эти системы смогут начать представлять ту угрозу, о которой говорит Илон Маск и остальные», — прокомментировал Пратт.

Брукс, в свою очередь, на TechCrunch Robotics Session отметил, что среди людей вообще наблюдается тенденция считать, что если алгоритм способен справляться с задачей «икс», то он, видимо, такой же умный, как человек.

«Я думаю, что причина, по которой люди, включая Илона Маска, совершают эту ошибку, заключается в следующем. Когда мы видим человека, очень хорошо справляющегося с поставленной перед ним задачей, мы понимаем, что он обладает высокой компетенцией в этом деле. Мне кажется, что ту же самую модель люди пытаются применить и к машинному обучению. И в этом как раз и заключается главная ошибка», — говорит Брукс.

Глава компании Facebook Марк Цукерберг провел в минувшее воскресенье прямую трансляцию, в ходе которой тоже выступил с критикой комментариев Илона Маска, назвав их «довольно безответственными». По мнению Цукерберга, ИИ будет способен существенно улучшить нашу жизнь. Маск в свою очередь решил не отмалчиваться и ответил Цукербергу, что у того «ограниченное понимание» об ИИ. Тема еще не закрыта, и Маск пообещал чуть позже более подробно ответить на нападки со стороны коллег в IT-индустрии.

К слову, Маск не единственный, кто считает, что ИИ может нести потенциальную угрозу. Физик Стивен Хокинг и философ Ник Бостром тоже выражают свою озабоченность о потенциале проникновения искусственного интеллекта в уклад жизни человечества. Но, скорее всего, они говорят о более генерализированном искусственном интеллекте. О том, который изучают в таких лабораториях, как Facebook AI Research, DeepMind и Maluuba, нежели о более узкоспециализированном ИИ, первые зачатки которого мы можем видеть уже сегодня.

Брукс также отмечает, что многие из критиков ИИ даже не работают в этой сфере, и предположил, что эти люди просто не понимают, насколько сложным бывает поиск решения каждой отдельной задачи в этой области.

«На самом деле людей, считающих ИИ экзистенциальной угрозой, не так много. Стивен Хокинг, британский астрофизик и астроном Мартин Рис… и еще несколько человек. Ирония в том, что большинство из них объединяет одна особенность – они даже не работают в сфере искусственного интеллекта», — сказал Брукс.

«Для тех же нас, кто работает с ИИ, вполне очевидно, насколько сложным бывает добиться работы чего-то на уровне готового продукта».

Неправильное представление ИИ

Часть проблемы исходит еще и из того факта, что мы называем все это «искусственным интеллектом». Правда в том, что этот «интеллект» совсем не похож на человеческий интеллект, который в справочниках и лексических словарях обычно описывается как «способность к обучению, пониманию и приспосабливаемости к новым ситуациям».

Паскаль Кауфман, генеральный директор Starmind, стартапа, предлагающего помощь другим компаниям в использовании коллективного человеческого интеллекта в поисках решений проблем в сфере бизнеса, в течение 15 последних лет изучал нейробиологию. Человеческий мозг и компьютер, отмечает Кауфман, работают совсем по-разному, и было бы очевидной ошибкой их сравнивать.

«Аналогия – мозг работает как компьютер – очень опасна и стоит препятствием в прогрессе развития ИИ», — говорит Кауфман.

Эксперт также считает, что мы не продвинемся в понимании человеческого интеллекта, если будем рассматривать его в технологическом плане.

«Это заблуждение, что алгоритмы работают как человеческий мозг. Людям просто нравятся алгоритмы, и поэтому они думают, что мозг можно описать с их помощь. Я же считаю, что это в корне неверно», — добавляет Кауфман.

Если что-то пойдет не так

Есть множество примеров, когда ИИ-алгоритмы оказываются далеко не так умны, как мы привыкли о них думать. И одним из, пожалуй, самых бесславных может служить ИИ-алгоритм Тэй (Tay), созданный командой разработки ИИ-систем компании Microsoft и вышедший из-под контроля в прошлом году. Потребовалось менее одного дня, чтобы превратить бота в настоящего расиста. Эксперты говорят, что это может произойти с любой ИИ-системой, когда ей предлагают плохие примеры для подражания. В случае с Тэй, она попала под влияние расистских и других оскорбительных лексических словоформ. А так как она была запрограммирована на «обучение» и «зеркальное поведение», то вскоре вышла из-под контроля исследователей.

В рамках получившего широкое распространение исследования специалистов Корнеллского и Вайомингского университетов было установлено, что очень легко обмануть алгоритмы, натренированные на идентификацию цифровых изображений. Специалисты обнаружили, что изображение, которое выглядело как «скремблированная бессмыслица» для людей, алгоритмом определялось как изображение какого-нибудь повседневного объекта вроде «школьного автобуса».

Согласно статье, опубликованной в MIT Tech Review и описывавшей этот проект, не до конца понятно, почему алгоритм можно обмануть тем образом, которым это делали исследователи. Что удалось выяснить, так это то, что люди научились распознавать, что перед ними находится – либо самодостаточная картинка, либо некое непонятное изображение. Алгоритмы же, в свою очередь, анализирующие пиксели, легче поддаются манипуляции и обману.

Что же касается самоуправляемых автомобилей, то здесь оказывается все гораздо сложнее. Есть некоторые вещи, которые человек понимает, когда готовится столкнуться с определенными ситуациями. Машину же этому обучить будет очень сложно. В большой статье, опубликованной в одном из автомобильных блогов Родни Бруксом в январе этого года, приводятся несколько примеров таких ситуаций, включая ту, в которой описывается, как беспилотный автомобиль приближается к дорожному знаку «Стоп», расположенному рядом с пешеходным переходом в городе, в самом начале которого стоят и общаются взрослый с ребенком.

Алгоритм, вероятнее всего, будет настроен так, чтобы дождаться перехода пешеходов через дорогу. Но что, если у этих пешеходов и в мыслях не было переходить дорогу, так как они стоят и ждут, скажем, школьный автобус? Водитель-человек в этом случае мог бы посигналить пешеходам, которые в ответ могли бы помахать ему рукой, сообщая о том, что тот может проезжать. Беспилотный же автомобиль в такой ситуации может просто застрять намертво, бесконечно ожидая перехода людей через дорогу, потому что алгоритм не обладает пониманием таких уникальных человеческих сигналов, пишет Брукс.

Каждый из таких примеров показывает нам, насколько далеко нам еще предстоит продвинуться в развитии алгоритмов искусственного интеллекта. Насколько сильно смогут преуспеть разработчики генерализованного ИИ – это еще вопрос. Существуют вещи, с которыми человек способен запросто справиться, однако для обучения алгоритма это будет настоящей пыткой. Почему? Потому что мы, люди, не ограничены в нашем обучении набором определенных задач.

Источник