?

Log in

No account? Create an account

Previous Entry | Next Entry

Сингулярность

...лет в 13, когда я занимался шахматами, у меня случился спор с другом нашей семьи, дядей Леней. Он утверждал, что машина никогда не победит человека в шахматы. Я был уверен, что это состоится неизбежно - ведь машина каждый год умнеет, а человек нет.
Машина победила человека в шахматы уже через 5 лет.
Долгое время компьютеры значительно хуже, чем человек, играли в го. На сегодняшний день счет в матче сильнейшей программы и сильнейшего игрока в го среди людей - 2:0 в пользу машины.
Похоже, матч человек проиграет.
Казалось бы, подумаешь, выиграл в го - это ведь всего лишь игра. Да, этот выигрыш - пример специализированного искусственного интеллекта (ИИ). Мы с вами - пример общего (и естественного) интеллекта.
Можно поспорить, что рано или поздно ИИ сначала появится (со всеми необходимыми атрибутами, вроде самосознания), а потом очень быстро превзойдет своего создателя. Когда это случится, мы не знаем.
Может быть, уже через 5 лет.
Ок, а при чем тут сингулярность?
Особенность человеческого развития в том, что мы развиваемся с каждым годом все быстрее. Чем больше ученых, тем быстрее развивается наука. Чем больше общения у ученых, тем быстрее. Чем лучше компьютеры. Чем больше денег. Более развитые ученые быстрее придумывают новое. И т.д., и т.п.
С 1-го года нашей эры до 1800-го значимых открытий было сделано на несколько порядков меньше, чем за последних два столетия. И темпы развития постоянно растут.
Рано или поздно мы придем к точке, когда все будет развиваться почти мгновенно (чистая математика).
И, похоже, этой точкой будет создание ИИ.
Уверен, что большинство читающих этих строки застанет появление ИИ. И предсказать, каким будет мир после этого, невозможно.
Не может муравей предсказать линию поведения Эйнштейна. Слишком разный уровень интеллектуального развития. А соотношение в разуме между нами и ИИ будет примерно таким.
Умнейший из людей имеет IQ 200, ИИ будет иметь 10 000. А потом, в соответствии с законом ускоряющегося развития, будет становиться умнее и умнее с каждой секундой. Пока не уйдет в бесконечность.
Боюсь ли я этого момента? Да.
И не я один - тот же Элон Маск и Стивен Хокинг тоже этого боятся. Не самая плохая компания, прямо скажем.
Ограничить и оставить под контролем этот разум, скорее всего, не получится. Могут ли муравьи придумать, как контролировать Эйнштейна?
Для меня самый интересный вопрос в другом - что из себя будет представлять интеллект без эмоций? Совсем без них. Будут ли у него желания? Будет ли он вообще самостоятельно делать хоть что-нибудь? Ведь зачем? Нет желаний - нет целей.
Ну и не надо, наверное, говорить, какое превосходство над остальными державами получит страна, которая заполучит этот ИИ первой.
А вы боитесь ИИ? Верите в его скорое появление?

Метки:

Comments

gray_bird
10 мар, 2016 14:56 (UTC)
Проблема в том, что невозможно на равных играть с игроком, который играет в любом случае на один ход глубже тебя. Остается только красиво сдаться или опрокинуть доску.
Но т.к. выгоды от такого игрока неисчерпаемы - его обязательно будут и дальше разрабатывать.

К примеру вся работа бухгалтеров-экономистов при наличии даже туповатого ИИ автоматизируется на ура. Причем проконтролировать его ты фиг с два сможешь. Мож он давно уже стук-стук по серым схемам в налоговую ведет, а ты и не в курсе. %)
alexbreeze
10 мар, 2016 15:01 (UTC)
если серые схемы не заносятся в программу то ии увы никак не сможет ни стукнуть ни брякнуть

Profile

Glastar
andreysemenov
andreysemenov

Latest Month

Июль 2017
Вс Пн Вт Ср Чт Пт Сб
      1
2345678
9101112131415
16171819202122
23242526272829
3031     

Метки

Разработано LiveJournal.com
Designed by Michael Rose