• Музей-заповедник Ф.И. Тютчева «Овстуг» присоединится ко Всероссийской акции «Ночь искусств»

    Музей-заповедник Ф.И. Тютчева «Овстуг» присоединит...

    03.11.24

    0

    10778

DeepMind учит свой ИИ думать по-человечески

DeepMind учит свой ИИ думать по-человечески
  • 05.07.17
  • 0
  • 8378
  • фон:

В прошлом году искусственный интеллект AlphaGo впервые победил чемпиона мира в игре го. Эта победа стала беспрецедентной и неожиданной, учитывая высокую сложность китайской настольной игры. Хотя победа AlphaGo была определенно впечатляющей, этот искусственный интеллект, с тех пор обыгравший и других чемпионов го, все еще считается «узким» типом ИИ — который может превзойти человека лишь в ограниченном поле задач.

Так что хотя мы уже вряд ли сможем обыграть компьютер в го или шахматы, не прибегая к помощи другого компьютера, положиться на них в рутинных задачах мы тоже пока не можем. ИИ не сделает вам чай и не запланирует ТО для вашего авто.

Вопреки этому, ИИ часто изображается в научной фантастике как «общий» искусственный интеллект. То есть искусственный интеллект с тем же уровнем и разнообразием, что и человек. Хотя у нас уже есть искусственные интеллекты разного типа, которые могут делать все, от диагностики болезней до управления нашими автомобилями, выяснить, как интегрировать их на более общем уровне, мы пока не смогли.

На прошлой неделе исследователи DeepMind представили несколько работ, в которых заложили, как утверждают, основы для общего искусственного интеллекта. Хотя выводов пока никаких нет, первые результаты обнадеживают: в некоторых сферах ИИ уже превзошел человека в способностях.

Предметом обеих работ DeepMind стало относительное рассуждение, критическая когнитивная способность, позволяющая людям проводить сравнения между разными объектами или идеями. Например, сравнивать, какой объект больше или меньше, какой находится слева, а какой справа. Люди прибегают к относительным (или реляционным) рассуждениям всякой раз, когда пытаются решить проблему, но ученые пока не выяснили, как наделить ИИ этой обманчиво простой способностью.

Ученые из DeepMind выбрали два разных маршрута. Одни обучали нейронную сеть — типа архитектуры ИИ, смоделированной по типу мозга человека — взяв за основу базу данных из простых, статичных 3D-объектов, под названием CLEVR. Другую нейронную сеть учили понимать, как меняется двухмерный объект со временем.

В CLEVR нейронной сети представляли набор простых проектов, таких как пирамиды, кубы и сферы. Ученые затем задавали вопросы естественным языком искусственному интеллекту, такие как «состоит ли куб из того же материала, что и цилиндр?». Поразительно, но нейронная сеть смогла правильно оценить реляционные атрибуты CLEVR в 95,5% случаев, превзойдя по этому параметру даже человека с его 92,6% точности.

Во втором испытании исследователи DeepMind создали нейронную сеть Visual Interaction Network (VIN), которую обучили предсказывать будущие состояния объекта на видео, в зависимости от его предыдущих движений. Для этого ученые сперва скормили VIN три последовательных кадра видео, которые сеть перевела в код. В этом коде был список векторов — скорость или положение объекта — для каждого объекта в кадре. Затем VIN скормили последовательность других кодов, которые в сочетании позволили спрогнозировать код для следующего кадра.

Для обучения VIN ученые использовали пять разных типов физических систем, в которых 2D-объекты двигались на фоне «природных изображений» и сталкивались с различными силами. Например, в одной физической системе моделируемые объекты взаимодействовали между собой в соответствии с законом тяготения Ньютона. В другой — нейронной сети представили бильярд и заставили предсказать будущее положение шаров. По данным ученым, сеть VIN успешно справилась с прогнозированием поведения объектов на видео.

Эта работа представляет собой важный шаг по направлению к общему ИИ, но еще много работы необходимо проделать, прежде чем искусственный интеллект сможет захватить мир. И кроме того, сверхчеловеческая производительность не подразумевает сверхчеловеческого интеллекта.

Пока нет, во всяком случае.

Источник