Версия для слабовидящих
«Мы должны предотвратить апокалипсис роботов» Печать Email
Новости об инновациях
19.11.2017

Фото: EAST NEWS Фото: EAST NEWS

Бывший советник президента Обамы по техническим вопросам Меган Смит, выступая на саммите Fortune, заявила, что, прежде чем вооружать роботов, человечество должно понять, как их контролировать.

В июле Илон Маск заявил, что искусственный интеллект представляет риск для человеческой цивилизации. Это привело его к словесной пикировке с гораздо более оптимистичным Марком Цукербергом. Однако, бывший советник президента Обамы по техническим вопросам Меган Смит считает, что Маск может быть прав. И она собирается сделать все, чтобы этого не случилось.

«Я надеюсь, что нам удастся избежать апокалипсиса роботов, о котором все говорят. Но нужно определиться с тем, какие ценности мы будем прививать искусственному интеллекту. Уже сейчас мы пытаемся вооружить роботов, как вооружаем свои армии. Человечество должно решить, нужно ли это делать, а если да — как мы собираемся их контролировать? Будет ли это в принципе возможно? Это серьезные вопросы, которые не должны на свое усмотрение решать несколько программистов в Кремниевой долине», — заявила Смит на саммите Fortune.

Сейчас бывший советник президента стала CEO компании shift7, которая стремится к распространению научного знания и технического образования среди широкой общественности. Компания уверена, что технологии могут решить такие серьезные социально-экономические проблемы человечества, как торговля людьми и массовое насилие.

ИИ может сыграть в этом ключевую роль. Но загвоздка в том, что мы делаем его чересчур гомогенным. Коды для ИИ пишут едва ли 10 000 человек из 7 стран мира, в то время, как население Земли — 7 миллиардов. Большинство разработчиков — белые мужчины, как, впрочем, и во всей технологической индустрии. По мнению Смит, коды и данные, на которых обучают ИИ, напрямую отражают предвзятое отношение их создателей.

С этим утверждением согласен глава поискового бизнеса Google Джон Джаннандреа. Он считает, что проблема наличия в машинном обучении систематической ошибки становится тем значительнее, чем больше технология проникает в такие области, как медицина или юриспруденция, и чем больше людей без технического образования начинают ее использовать. Некоторые эксперты считают, что алгоритмические ошибки уже наносят вред многим областям, и что почти никто не обращает на это внимания и не исправляет их.

Источник - http://www.nanonewsnet.ru/news/2017/my-dolzhny-predotvratit-apokalipsis-robotov

 

Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта