Версия для слабовидящих
Стив Возняк говорит об угрозе ИИ Печать Email
Новости об инновациях
27.03.2015

Фото с сайта: geektimes.ru Фото с сайта: geektimes.ru

Сооснователь компании Apple присоединился к числу видных экспертов, которые предупреждают об опасности бездумного развития технологий искусственного интеллекта. Как Илон Маск и Стивен Хокинг ранее, Стив Возняк предупреждает о риске для человеческой расы.

В интервью The Australian Financial Review Стив Возняк выразил мнение, что ИИ в конечном итоге может выйти из-под контроля человеческого интеллекта:

«Компьютеры собираются взять под контроль людей, это без вопросов… Если мы делаем такие устройства, чтобы они заботились обо всё для нас, то рано или поздно они начнут думать быстрее нас и избавятся от “медленных” людей, чтобы управлять компаниями более эффективно».

Стив Возняк уже представляет, как может выглядеть такое будущее:

«Когда я думаю о том, что в будущем буду выглядеть для умных машин словно домашнее животное… ну, я ласковее отношусь к своей собаке».

Ранее аналогичные опасения насчёт ИИ высказал Илон Маск, основатель компаний Tesla Motors и SpaceX. Маск считает, что уже через несколько лет мы можем увидеть реальный искусственный интеллект. И этот разум может быть вовсе не дружелюбным в отношении человеку. Илон Маск предупреждал о возможности возникновения технологической сингулярности, когда ИИ откажется от установленных ограничений и выйдет из-под нашего контроля:

«Я думаю, это может быть опаснее ядерного оружия, — сказал Маск. — Если бы был очень глубокий цифровой суперинтеллект, который спроектирован с возможностью быстрого, рекурсивного самоулучшения нелогарифмическим образом, то тогда… Мы будем как собачки лабрадоры, если нам повезёт».

Понятно, что технологический прогресс невозможно остановить, но всё-таки у человечества остаются шансы. Тот же Илон Маск пожертвовал $10 млн фонду Future of Life Institute, который ставит задачей удержать ИИ под контролем людей.

Учёные из Оксфордского университета недавно составили список глобальных угроз для человечества, в нём ИИ упоминается как риск, «который можно назвать бесконечным».

Кстати, сам Стив Возняк когда-то говорил: «Никогда не доверяй компьютеру, который ты не можешь выбросить в окно».

Источник - http://www.nanonewsnet.ru/news/2015/stiv-voznyak-govorit-ob-ugroze-ii

 
Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта Карта сайта
incest xxx free rarefilm.net