?

Log in

No account? Create an account

Previous Entry | Next Entry

Сингулярность

...лет в 13, когда я занимался шахматами, у меня случился спор с другом нашей семьи, дядей Леней. Он утверждал, что машина никогда не победит человека в шахматы. Я был уверен, что это состоится неизбежно - ведь машина каждый год умнеет, а человек нет.
Машина победила человека в шахматы уже через 5 лет.
Долгое время компьютеры значительно хуже, чем человек, играли в го. На сегодняшний день счет в матче сильнейшей программы и сильнейшего игрока в го среди людей - 2:0 в пользу машины.
Похоже, матч человек проиграет.
Казалось бы, подумаешь, выиграл в го - это ведь всего лишь игра. Да, этот выигрыш - пример специализированного искусственного интеллекта (ИИ). Мы с вами - пример общего (и естественного) интеллекта.
Можно поспорить, что рано или поздно ИИ сначала появится (со всеми необходимыми атрибутами, вроде самосознания), а потом очень быстро превзойдет своего создателя. Когда это случится, мы не знаем.
Может быть, уже через 5 лет.
Ок, а при чем тут сингулярность?
Особенность человеческого развития в том, что мы развиваемся с каждым годом все быстрее. Чем больше ученых, тем быстрее развивается наука. Чем больше общения у ученых, тем быстрее. Чем лучше компьютеры. Чем больше денег. Более развитые ученые быстрее придумывают новое. И т.д., и т.п.
С 1-го года нашей эры до 1800-го значимых открытий было сделано на несколько порядков меньше, чем за последних два столетия. И темпы развития постоянно растут.
Рано или поздно мы придем к точке, когда все будет развиваться почти мгновенно (чистая математика).
И, похоже, этой точкой будет создание ИИ.
Уверен, что большинство читающих этих строки застанет появление ИИ. И предсказать, каким будет мир после этого, невозможно.
Не может муравей предсказать линию поведения Эйнштейна. Слишком разный уровень интеллектуального развития. А соотношение в разуме между нами и ИИ будет примерно таким.
Умнейший из людей имеет IQ 200, ИИ будет иметь 10 000. А потом, в соответствии с законом ускоряющегося развития, будет становиться умнее и умнее с каждой секундой. Пока не уйдет в бесконечность.
Боюсь ли я этого момента? Да.
И не я один - тот же Элон Маск и Стивен Хокинг тоже этого боятся. Не самая плохая компания, прямо скажем.
Ограничить и оставить под контролем этот разум, скорее всего, не получится. Могут ли муравьи придумать, как контролировать Эйнштейна?
Для меня самый интересный вопрос в другом - что из себя будет представлять интеллект без эмоций? Совсем без них. Будут ли у него желания? Будет ли он вообще самостоятельно делать хоть что-нибудь? Ведь зачем? Нет желаний - нет целей.
Ну и не надо, наверное, говорить, какое превосходство над остальными державами получит страна, которая заполучит этот ИИ первой.
А вы боитесь ИИ? Верите в его скорое появление?

Метки:

Comments

igor734
10 мар, 2016 18:40 (UTC)

Все же ИМХО вряд ли такое случится. Человек не может создать систему умнее себя, это в принципе невозможно. Чтобы что-то создать нужно сначала это представить, а человек с интеллектом 200 вряд ли сможет представить интеллект 10000. Муравей вряд ли сможет смоделировать Эйнштейна, если только он сам не Эйнштейн :))

gray_bird
10 мар, 2016 21:19 (UTC)
Гм.
Программеры, которые никогда бы не выиграли в Го у чемпиона, слепили программу, которая это сделала. Ваш аргумент опровергнут. :)
igor734
10 мар, 2016 21:57 (UTC)

Нет, так как алгоритмы для программы наверняка разрабатывали те, кто знал, как выиграть у чемпиона. Сами программеры вряд ли знали даже как играть в го :))

gray_bird
10 мар, 2016 22:00 (UTC)
Знать правила и уметь играть - разные вещи.
Ну а скормить нейросети бесконечное количество записей партий вообще третье. Но, факт, из команды создателей проги никто померится силами с чемпионом мира не в состоянии. :)
igor734
10 мар, 2016 22:14 (UTC)


Значит, они использовали алгоритм, который кто-то разработал со стороны, причем не обязательно для компьютера :))


Скармливать записи игр тут бесполезно - все равно нужен алгоритм выбора что хорошо, а что плохо.

gray_bird
10 мар, 2016 22:19 (UTC)
Так вопрос был не в этом, а в том: может ли у десятка не очень глупых обучателей получится превосходящий их умом ученик. Я утверждаю - может.
Что таки, недалекие человеки, смогут слепить ИИ, или возможно усилители разума, которые многократно превзойдут их естественный интеллект.
igor734
11 мар, 2016 14:00 (UTC)
Обучение разумного существа и создание разумного существа - это разные вещи. Обучить можно, если у ученика уже имеются интеллектуальные способности, чтобы превзойти учителей, но нельзя создать на пустом месте то, что будет умнее создателя.

Что касается этого робота - то, судя по описанию, это просто очень хорошо дрессированная собачка, обученная выполнять определенные команды, и делающая это хорошо. Обычные условные рефлексы, но никакого интеллекта :))
marcipanovaya
11 мар, 2016 03:28 (UTC)
Определить, что такое хорошо, а что такое плохо, можно, проанализировав несколько (сотен, тысяч) вариантов поведения/последствий того или иного решения. Уж кто-кто, а ИИ это сможет делать гораздо быстрее (у него в багаже - опыт всего человечества и огромный ресурс на обработку), чем ребенок, который учится. Надеюсь, понятную аналогию привела.
igor734
11 мар, 2016 13:53 (UTC)
Да, такое можно. Но это дрессировка, выработка условного рефлекса на внешние раздражители.

Но это не имеет ничего общего с созданием разума, интеллекта. Можно выдрессировать собаку, к примеру, искать наркотики, и она это будет делать намного лучше человека - но интеллект у нее из-за этого не разовьется :)))
misha_makferson
11 мар, 2016 08:38 (UTC)
Программисты естественно пользовались знаниями экспертов по игре в го. Нет, может конечно они брут форсом, но что-то я сильно сомневаюсь.

Profile

Glastar
andreysemenov
andreysemenov

Latest Month

Июль 2017
Вс Пн Вт Ср Чт Пт Сб
      1
2345678
9101112131415
16171819202122
23242526272829
3031     

Метки

Page Summary

Разработано LiveJournal.com
Designed by Michael Rose