Facebook собирается распознавать лица почти так же хорошо, как и вы Печать
Новости науки
19.03.2014
Если вас, читатель, попросить сравнить на двух разных снимках лицо одного человека, то в 97,53% случаев вы не ошибётесь. А вот новое ПО, разработанное в исследовательских лабораториях небезызвестной сети Facebook, то же самое задание выполняет с точностью в 97,25%! Причём независимо от освещения и расположения лица. Иначе говоря, сфотографированный может даже не смотреть в камеру.

Это серьёзное достижение для программ-«распознавателей», а ещё демонстрация успешности нового подхода к искусственному интеллекту (ИИ), которым сеть Facebook и её конкуренты увлеклись в прошлом году. Называется всё это «Глубокое обучение» (Deep Learning). Говоря коротко, это программное обеспечение, использующее сети моделируемых нейронов для того, чтобы научиться распознавать шаблоны в больших объёмах данных.

Кем только не был Слай! А теперь его лицо работает демонстрационной моделью: изображение (a) показывает оригинал, а (g) — уже отредактированную версию.


«Обычно вы не замечаете такого рода улучшения, — говорит Янив Тейгман (Yaniv Taigman), член команды Facebook по улучшению ИИ, группа которого создана в 2013-м для оценки того, как ПО Deep Learning способно помочь интернет-компании. — Мы же почти достигли человеческих возможностей». Исследователь сообщает, что частота ошибок была снижена более чем на четверть по сравнению с другими программами, выполняющими ту же задачу .

Новое Facebook-ПО, получившее название DeepFace, занято тем, что исследователи называют «проверкой лица» (то есть оно убеждается, что два изображения показывают одну и ту же физиономию), но не распознаванием. Впрочем, некоторые из его основных методик, конечно же, пригодятся и при распознавании, что в будущем, возможно, скажется на точности определения лиц на загруженных в Facebook снимках.

И всё-таки пока DeepFace — чисто исследовательский проект. На прошлой неделе социальная сеть опубликовала соответствующую работу, а участники проекта представят свои результаты на конференции по компьютерному зрению и распознаванию образов IEEE в июне. «Мы обнародовали свои показатели, чтобы получить обратную связь от научного сообщества», — говорит Янив Тейгман, создавший DeepFace вместе с Facebook-коллегами Мин Ян (Ming Yang) и Марком-Аурелио Ранцато (Marc’Aurelio Ranzato), а также с профессором Тель-Авивского университета (Израиль) Лиором Вольфом (Lior Wolf).

DeepFace обрабатывает изображение лица в два этапа. Сначала ПО корректирует угол так, чтобы человек на картинке был обращён лицом вперёд. Для этого используется 3D-шаблон «среднего» лица анфас. Далее в дело включается Deep Learning, симулирующий нейронную сеть, которая и анализирует переориентированное лицо. Если DeepFace находит достаточное количество совпадений в двух разных изображениях — значит, это одно и то же лицо.

Производительность финальной версии ПО была испытана на стандартном наборе лиц, который использовался для проверки людей.

Нираж Кумар (Neeraj Kumar), исследователь из Вашингтонского университета (США), работающий над проблемой автоматического распознавания лиц, рассуждает так: если найти достаточно данных для большой нейронной сети, это позволит значительно улучшить ПО машинного обучения. «Держу пари, что основное улучшение происходит за счёт глубокого обучения ПО, — поясняет специалист, познакомившийся с результатами Facebook-программы. — Причиной этому — возможности по использованию огромного количества внешних данных в модели обучения».

Часть DeepFace, которая отвечает за глубокое обучение, состоит из девяти слоёв простых моделируемых нейронов с более чем 120 млн связей между ними. Для натаскивания этой сети исследователи Facebook использовали крошечный кусочек данных из массива пользовательских изображений социальной сети: 4 млн фотографий лиц, принадлежащих почти 4 000 человек. «Имея доступ к такому количеству данных, разработчики, конечно, смогут обучить свою модель», — заключает г-н Кумар.

Подготовлено по материалам Technology Review.

Источник - http://compulenta.computerra.ru/tehnika/security/10012051/