?

Log in

No account? Create an account

Previous Entry | Next Entry

Сингулярность

...лет в 13, когда я занимался шахматами, у меня случился спор с другом нашей семьи, дядей Леней. Он утверждал, что машина никогда не победит человека в шахматы. Я был уверен, что это состоится неизбежно - ведь машина каждый год умнеет, а человек нет.
Машина победила человека в шахматы уже через 5 лет.
Долгое время компьютеры значительно хуже, чем человек, играли в го. На сегодняшний день счет в матче сильнейшей программы и сильнейшего игрока в го среди людей - 2:0 в пользу машины.
Похоже, матч человек проиграет.
Казалось бы, подумаешь, выиграл в го - это ведь всего лишь игра. Да, этот выигрыш - пример специализированного искусственного интеллекта (ИИ). Мы с вами - пример общего (и естественного) интеллекта.
Можно поспорить, что рано или поздно ИИ сначала появится (со всеми необходимыми атрибутами, вроде самосознания), а потом очень быстро превзойдет своего создателя. Когда это случится, мы не знаем.
Может быть, уже через 5 лет.
Ок, а при чем тут сингулярность?
Особенность человеческого развития в том, что мы развиваемся с каждым годом все быстрее. Чем больше ученых, тем быстрее развивается наука. Чем больше общения у ученых, тем быстрее. Чем лучше компьютеры. Чем больше денег. Более развитые ученые быстрее придумывают новое. И т.д., и т.п.
С 1-го года нашей эры до 1800-го значимых открытий было сделано на несколько порядков меньше, чем за последних два столетия. И темпы развития постоянно растут.
Рано или поздно мы придем к точке, когда все будет развиваться почти мгновенно (чистая математика).
И, похоже, этой точкой будет создание ИИ.
Уверен, что большинство читающих этих строки застанет появление ИИ. И предсказать, каким будет мир после этого, невозможно.
Не может муравей предсказать линию поведения Эйнштейна. Слишком разный уровень интеллектуального развития. А соотношение в разуме между нами и ИИ будет примерно таким.
Умнейший из людей имеет IQ 200, ИИ будет иметь 10 000. А потом, в соответствии с законом ускоряющегося развития, будет становиться умнее и умнее с каждой секундой. Пока не уйдет в бесконечность.
Боюсь ли я этого момента? Да.
И не я один - тот же Элон Маск и Стивен Хокинг тоже этого боятся. Не самая плохая компания, прямо скажем.
Ограничить и оставить под контролем этот разум, скорее всего, не получится. Могут ли муравьи придумать, как контролировать Эйнштейна?
Для меня самый интересный вопрос в другом - что из себя будет представлять интеллект без эмоций? Совсем без них. Будут ли у него желания? Будет ли он вообще самостоятельно делать хоть что-нибудь? Ведь зачем? Нет желаний - нет целей.
Ну и не надо, наверное, говорить, какое превосходство над остальными державами получит страна, которая заполучит этот ИИ первой.
А вы боитесь ИИ? Верите в его скорое появление?

Метки:

Comments

don_clouder
10 мар, 2016 16:59 (UTC)
Леонид Каганов, в своё время, на похожую тему рассказ написал:
http://lleo.me/arhive/fan2007/choza.html

Profile

Glastar
andreysemenov
andreysemenov

Latest Month

Июль 2017
Вс Пн Вт Ср Чт Пт Сб
      1
2345678
9101112131415
16171819202122
23242526272829
3031     

Метки

Разработано LiveJournal.com
Designed by Michael Rose