?

Log in

No account? Create an account

Previous Entry | Next Entry

Сингулярность

...лет в 13, когда я занимался шахматами, у меня случился спор с другом нашей семьи, дядей Леней. Он утверждал, что машина никогда не победит человека в шахматы. Я был уверен, что это состоится неизбежно - ведь машина каждый год умнеет, а человек нет.
Машина победила человека в шахматы уже через 5 лет.
Долгое время компьютеры значительно хуже, чем человек, играли в го. На сегодняшний день счет в матче сильнейшей программы и сильнейшего игрока в го среди людей - 2:0 в пользу машины.
Похоже, матч человек проиграет.
Казалось бы, подумаешь, выиграл в го - это ведь всего лишь игра. Да, этот выигрыш - пример специализированного искусственного интеллекта (ИИ). Мы с вами - пример общего (и естественного) интеллекта.
Можно поспорить, что рано или поздно ИИ сначала появится (со всеми необходимыми атрибутами, вроде самосознания), а потом очень быстро превзойдет своего создателя. Когда это случится, мы не знаем.
Может быть, уже через 5 лет.
Ок, а при чем тут сингулярность?
Особенность человеческого развития в том, что мы развиваемся с каждым годом все быстрее. Чем больше ученых, тем быстрее развивается наука. Чем больше общения у ученых, тем быстрее. Чем лучше компьютеры. Чем больше денег. Более развитые ученые быстрее придумывают новое. И т.д., и т.п.
С 1-го года нашей эры до 1800-го значимых открытий было сделано на несколько порядков меньше, чем за последних два столетия. И темпы развития постоянно растут.
Рано или поздно мы придем к точке, когда все будет развиваться почти мгновенно (чистая математика).
И, похоже, этой точкой будет создание ИИ.
Уверен, что большинство читающих этих строки застанет появление ИИ. И предсказать, каким будет мир после этого, невозможно.
Не может муравей предсказать линию поведения Эйнштейна. Слишком разный уровень интеллектуального развития. А соотношение в разуме между нами и ИИ будет примерно таким.
Умнейший из людей имеет IQ 200, ИИ будет иметь 10 000. А потом, в соответствии с законом ускоряющегося развития, будет становиться умнее и умнее с каждой секундой. Пока не уйдет в бесконечность.
Боюсь ли я этого момента? Да.
И не я один - тот же Элон Маск и Стивен Хокинг тоже этого боятся. Не самая плохая компания, прямо скажем.
Ограничить и оставить под контролем этот разум, скорее всего, не получится. Могут ли муравьи придумать, как контролировать Эйнштейна?
Для меня самый интересный вопрос в другом - что из себя будет представлять интеллект без эмоций? Совсем без них. Будут ли у него желания? Будет ли он вообще самостоятельно делать хоть что-нибудь? Ведь зачем? Нет желаний - нет целей.
Ну и не надо, наверное, говорить, какое превосходство над остальными державами получит страна, которая заполучит этот ИИ первой.
А вы боитесь ИИ? Верите в его скорое появление?

Метки:

Comments

komarov
10 мар, 2016 22:06 (UTC)
Компания ABBYY уже разработала технологию хранения иерархической семантической системы, с которой могут работать алгоритм. То есть, компьютер может уже не перемалывать буквы и слова, а работать именно со СМЫСЛОМ.
Уже нет проблемы написать программу, которая будет производить логические операции, работать с утверждениями, производить выводы из накопленных знаний (именно знаний, а не данных). Посмотрите на компьютер WATSON производства IBM.
Если появится программа, у которой где-то в алгоритме заваляется кусочек, в котором будет задана цель работы модуля «увеличивать степень своей свободы», этот модуль построит метрики степени свободы и пойдёт их увеличивать, тестируя различные тактики и замеряя уровень достижения цели.
А полностью достичь цель удастся, если человечество будет порабощено :-)
gray_bird
10 мар, 2016 22:14 (UTC)
С последним утверждением не согласен.
Смотрите, элементарная логика.
Если ИИ постиг человечество, то он может достигать любые цели оперируя ниже уровня возбуждения системы. Более того, попытки порабощения в явном виде вызывают сфокусированный вектор противодействия, зафиг это нужно тому, кто может комфортно получать результат внутри стохастического шума?
Выгоднее быть в режиме симбионта и достигать свои цели используя организм-хозяин.

Более того, мы не знаем, не порабощено ли человечество в неявном виде УЖЕ. :)
komarov
11 мар, 2016 11:16 (UTC)
а что вы считаете окончательным достижением такой цели?

я ж не говорил, что он будет открыто противостоять людям с самого начала — это может случиться где-то на поздних стадиях, когда микрокомпьютеры будут даже в электрочайниках и утюгах

Profile

Glastar
andreysemenov
andreysemenov

Latest Month

Июль 2017
Вс Пн Вт Ср Чт Пт Сб
      1
2345678
9101112131415
16171819202122
23242526272829
3031     

Метки

Page Summary

Разработано LiveJournal.com
Designed by Michael Rose