Версия для слабовидящих
Когда машина лучше Печать Email
Новости об инновациях
19.05.2016

Въезжая в эпоху полной замены человека машиной, мы всё чаще становимся свидетелями и участниками нравственного спора: имеет ли машина «право» отбирать у нас рабочие места? Но будьте готовы и к дискуссии вокруг обратного вопроса: почему человек всё ещё не уступил место там, где очевидно должен. Отдельные примеры уже были (вспомните авиацию), но никогда ещё страсти не достигали такого накала, как в последние две недели — когда спор «машина против человека» привлёк крупнейшие СМИ, политиков, предпринимателей в таком немаленьком государстве как США.

Я говорю о скандале, порождённом так называемым разделом Trending Topics в социальной сети Facebook. Хоть краем уха вы наверняка об этом слышали, но я всё же повторю ключевые детали, чтобы быть уверенным, что мы отталкиваемся от общих вводных. За последние пару недель в результате утечки документов и бесед с пожелавшими остаться анонимными бывшими сотрудниками компании (точнее, наёмными работниками, но это не так важно), получило подтверждение высказывавшееся и ранее подозрение, что крупнейшая соцсеть, подавая контент своим пользователям, скажем так, не совсем беспристрастна.

Trending Topics (он же «Популярное») это небольшой текстовый блок, помещённый в правом верхнем углу сайта Facebook.com, содержащий список самых ярких новостей текущего момента. Предполагается — и компания это предположение всегда поддерживала — что список составляется автоматически. Грубо говоря, берётся энное количество наиболее популярных тем в соцсети, из них выбираются потенциально интересные конкретному пользователю и печатаются в правом углу. Скандал же разразился когда обнаружилось, что схема отбора тем принципиально отличается от идеала и, в частности, предполагает участие человека.

170516-1

Об этом догадывались и раньше, потому что замечались отклонения TT от картины дня, которую рисуют, например, ведущие СМИ. Однако теперь это подтверждено утечками и рассказами бывших сотрудников. С их слов, машина выполняет лишь первоначальный сбор данных. Потом за дело берётся человек — штат профессиональных журналистов, которые прорабатывают темы в соответствии со служебной инструкцией.

Во-первых, они отсеивают явный мусор (скажем, темы с тегом «распродажа» не должны попасть в топ). Во-вторых, перепроверяют актуальность: популярная тема должна быть актуальной, её должны упомянуть минимум три из десяти авторитетнейших изданий страны. И это бы ещё ничего, но редакторам приказано также: 3) включать в TT темы по желанию работодателя (так были искусственно включены в «Популярное» сюжеты о расовой беспристрастности Facebook, беспорядках в Фергюсоне и др.), 4) удалять темы по приказу работодателя (в «Популярное» обычно не должны попадать сюжеты, связанные с Facebook), 5) корректировать список, основываясь на собственном понимании актуальности (в результате, например, из-за того, что в команде редакторов было мало сочувствующих политикам-консерваторам, в «Популярном» возник дефицит соответствующих тем).

Вспыхнувший скандал выплеснулся на первые полосы и в прайм-тайм, от Цукерберга потребовал разъяснений сенатский комитет, а высшие чины Facebook были вынуждены писать открытые объяснительные и обещать разобраться. Но в чём же проблема?

Тут надо понимать, что как всякое частное лицо или компания, Facebook и её сотрудники имеют право на свободу слова. Они могут высказывать личное мнение и рисовать картину дня такой, какой сочтут нужной и/или полезной — ради мира во всём мире, победы конкретного претендента на выборах, хорошего настроения Марка или пользы компании. Проблема в том, что Facebook всегда позиционировала себя как нейтральную площадку, одинаково открытую для всех. И тут вдруг оказывается, что она не только искажает картину дня в угоду своим интересам (что ставит её в один ряд с фермами контента), но что у неё есть собственная точка зрения!

Будь она мелкой, ей бы простили. Но Trending Topics мозолят глаза одному миллиарду человек каждые сутки — поэтому, пусть и правая формально, компания не имеет на свою точку зрения права нравственного! Любое отклонение от идеальной прямой (которой она сама же обещала держаться) будет расцениваться как попытка манипулировать общественным мнением — да и является таковым в самом деле.

170516-2

Каким боком здесь машины? Всё очень просто: скандала не случилось бы, если б вместо редакторов, составлением «Популярного» занимался только компьютер (как и было в первые месяцы работы сервиса, после его запуска в 2014-м). Так для чего Facebook наняла живых специалистов? Оказалось, что машине, которая составляет список трендовых тем, тоже присущ некоторый «перекос взглядов»: она, в частности, бывало, упускала серьёзные темы и предпочитала несерьёзные, что создавало впечатление развлекательной направленности Facebook (а это уже не нравилось Цукербергу).

Понятно, почему так происходило: большой аудитории свойственна инерция, до неё не сразу «доходит» важность некоторых событий. Поэтому сейчас, если верить рассказам бывших редакторов, Facebook пытается убить двух зайцев одним выстрелом: она использует живых редакторов не только для составления списка популярных тем, но и для одновременного обучения своего искусственного интеллекта решению той же задачи. Когда этот процесс будет завершён, людей уволят, а Facebook вернёт бразды правления машине — и с этого момента сможет с чистой совестью заявлять, что действует абсолютно нейтрально!

Это кажется идеальным решением и именно его от компании ждёт большинство. Ведь только избавившись от человека можно гарантировать отсутствие чисто человеческих недостатков, верно? И лишь редкие скептики уточняют: заменив живой интеллект на искусственный, компания не решит проблему, а усугубит её!

Откуда взялась эта странная идея? Дело в том, что ни фантазии, ни способности осмыслять информацию у машин пока нет. И именно поэтому быть беспристрастной ИИ не сможет: научившись у своих тренеров, он неизбежно будет повторять их ошибки — недооценивая одни темы и переоценивая другие. Да, критикам «укусить» его будет сложней, но манипулировать общественным мнением машина продолжит, причём на этот раз регулировать перекосы будет трудно даже самим фейсбуковцам: для ИИ недостаточно написать инструкцию, его придётся постоянно доучивать.

И получается, что идеального решения для такой пустяковой задачи не существует. Человек — плохо, но и машина тоже не слава богу. Есть ли третий вариант?

P.S. В статье использованы графические работы Christopher Dombres.

Источник - http://www.computerra.ru/148794/no-human-no-cry/

 
Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта