?

Log in

No account? Create an account

Previous Entry | Next Entry

Сингулярность

...лет в 13, когда я занимался шахматами, у меня случился спор с другом нашей семьи, дядей Леней. Он утверждал, что машина никогда не победит человека в шахматы. Я был уверен, что это состоится неизбежно - ведь машина каждый год умнеет, а человек нет.
Машина победила человека в шахматы уже через 5 лет.
Долгое время компьютеры значительно хуже, чем человек, играли в го. На сегодняшний день счет в матче сильнейшей программы и сильнейшего игрока в го среди людей - 2:0 в пользу машины.
Похоже, матч человек проиграет.
Казалось бы, подумаешь, выиграл в го - это ведь всего лишь игра. Да, этот выигрыш - пример специализированного искусственного интеллекта (ИИ). Мы с вами - пример общего (и естественного) интеллекта.
Можно поспорить, что рано или поздно ИИ сначала появится (со всеми необходимыми атрибутами, вроде самосознания), а потом очень быстро превзойдет своего создателя. Когда это случится, мы не знаем.
Может быть, уже через 5 лет.
Ок, а при чем тут сингулярность?
Особенность человеческого развития в том, что мы развиваемся с каждым годом все быстрее. Чем больше ученых, тем быстрее развивается наука. Чем больше общения у ученых, тем быстрее. Чем лучше компьютеры. Чем больше денег. Более развитые ученые быстрее придумывают новое. И т.д., и т.п.
С 1-го года нашей эры до 1800-го значимых открытий было сделано на несколько порядков меньше, чем за последних два столетия. И темпы развития постоянно растут.
Рано или поздно мы придем к точке, когда все будет развиваться почти мгновенно (чистая математика).
И, похоже, этой точкой будет создание ИИ.
Уверен, что большинство читающих этих строки застанет появление ИИ. И предсказать, каким будет мир после этого, невозможно.
Не может муравей предсказать линию поведения Эйнштейна. Слишком разный уровень интеллектуального развития. А соотношение в разуме между нами и ИИ будет примерно таким.
Умнейший из людей имеет IQ 200, ИИ будет иметь 10 000. А потом, в соответствии с законом ускоряющегося развития, будет становиться умнее и умнее с каждой секундой. Пока не уйдет в бесконечность.
Боюсь ли я этого момента? Да.
И не я один - тот же Элон Маск и Стивен Хокинг тоже этого боятся. Не самая плохая компания, прямо скажем.
Ограничить и оставить под контролем этот разум, скорее всего, не получится. Могут ли муравьи придумать, как контролировать Эйнштейна?
Для меня самый интересный вопрос в другом - что из себя будет представлять интеллект без эмоций? Совсем без них. Будут ли у него желания? Будет ли он вообще самостоятельно делать хоть что-нибудь? Ведь зачем? Нет желаний - нет целей.
Ну и не надо, наверное, говорить, какое превосходство над остальными державами получит страна, которая заполучит этот ИИ первой.
А вы боитесь ИИ? Верите в его скорое появление?

Метки:

Comments

( 32 комментария — Оставить комментарий )
gray_bird
10 мар, 2016 14:39 (UTC)
Я завидую ИИ, смотришь как лихо переводит тот же гугель-транслейт с арабского-японского-китайского, умеет на всех этих языках печатать под диктовку... И понимаешь, что этот навык подключаемая за доли секунды библиотека мегов на 10 весом и внешняя база данных... Блин, человеку надо лет 10 пахать, чтоб один язык выучить, а ИИ подрузил навык и уже молодец.
:)

PS. видел я тебе ссылку на статью про чемпионат кинул в FB?
alexbreeze
10 мар, 2016 14:49 (UTC)
не не боюсь ибо любой сервак гаситься рубильником элон маск вообще кто это? инженер? ученый?
gray_bird
10 мар, 2016 14:56 (UTC)
Проблема в том, что невозможно на равных играть с игроком, который играет в любом случае на один ход глубже тебя. Остается только красиво сдаться или опрокинуть доску.
Но т.к. выгоды от такого игрока неисчерпаемы - его обязательно будут и дальше разрабатывать.

К примеру вся работа бухгалтеров-экономистов при наличии даже туповатого ИИ автоматизируется на ура. Причем проконтролировать его ты фиг с два сможешь. Мож он давно уже стук-стук по серым схемам в налоговую ведет, а ты и не в курсе. %)
(без темы) - alexbreeze - 10 мар, 2016 15:01 (UTC) - Развернуть
(без темы) - vzanuda - 11 мар, 2016 19:14 (UTC) - Развернуть
(без темы) - alexbreeze - 12 мар, 2016 04:52 (UTC) - Развернуть
(без темы) - vzanuda - 12 мар, 2016 17:52 (UTC) - Развернуть
sellblocktango
10 мар, 2016 14:54 (UTC)
ИИ - инструмент анализа, а не синтеза. ИИ не сможет придумать фейсбук:)
tus_u_gin
10 мар, 2016 15:02 (UTC)
А может и не застанем мы ИИ.
Просто каждое следующее открытие требует времени и сил больше чем предыдущее, ибо включает в себя знания накопленные ранее, и время человеческое на их осознание.
Создаваемый, локальный ИИ, облегчает жизнь и "помогает" людям не задумываться над тем, что знали и умели их предшественники. Тем самым, возможно, уменьшая количество и качество интеллекта всего человечества. И тут можно воткнуться в такую штуку, что рывок, необходимый для создания ИИ будет невозможен потому, что человеческий интеллект будет неспособен перейти качественный порог открытий, из-за того, что он "уменьшился" в следствие помощи ему со стороны локального ИИ.
don_clouder
10 мар, 2016 16:59 (UTC)
Леонид Каганов, в своё время, на похожую тему рассказ написал:
http://lleo.me/arhive/fan2007/choza.html
komarov
10 мар, 2016 17:43 (UTC)
Я уверен, что это скоро будет. Я как программист даже в целом понимаю, как это может выглядеть.

Но выводом из этого знания сделать не могу. В голове не укладывается.
gray_bird
10 мар, 2016 21:18 (UTC)
Как?
Ну, поисковики умудряются за разумное время обежать весь инет и проиндексировать все в открытом доступе?
Значит любой достаточно мощный комп на достаточно широком канале может аналогичное.
Далее, человечество занимается алгоритмами лет 50, а всерьез последние лет тридцать, значит предположив, что интернет будет потрошить более развитый интеллект - все будет проанализировано быстрей и лучше гугеля.
И в третьих, если есть усиленный интеллект, который может разом осознать все содержимое инета, как мы можем в голове деражать сказку про репку, то он поймет про человечество больше, чем оно само про себя понимает.
Результат, как и писал, топикстартер - непредсказуемый.
(без темы) - komarov - 10 мар, 2016 22:06 (UTC) - Развернуть
(без темы) - gray_bird - 10 мар, 2016 22:14 (UTC) - Развернуть
(без темы) - komarov - 11 мар, 2016 11:16 (UTC) - Развернуть
(Удалённый комментарий)
vzanuda
11 мар, 2016 19:22 (UTC)
Ии это не один смартфон, а комплекс оборудования с огромным набором информации. Это ж на марс просто так не отправишь :(
igor734
10 мар, 2016 18:40 (UTC)

Все же ИМХО вряд ли такое случится. Человек не может создать систему умнее себя, это в принципе невозможно. Чтобы что-то создать нужно сначала это представить, а человек с интеллектом 200 вряд ли сможет представить интеллект 10000. Муравей вряд ли сможет смоделировать Эйнштейна, если только он сам не Эйнштейн :))

gray_bird
10 мар, 2016 21:19 (UTC)
Гм.
Программеры, которые никогда бы не выиграли в Го у чемпиона, слепили программу, которая это сделала. Ваш аргумент опровергнут. :)
(без темы) - igor734 - 10 мар, 2016 21:57 (UTC) - Развернуть
(без темы) - gray_bird - 10 мар, 2016 22:00 (UTC) - Развернуть
(без темы) - igor734 - 10 мар, 2016 22:14 (UTC) - Развернуть
(без темы) - gray_bird - 10 мар, 2016 22:19 (UTC) - Развернуть
(без темы) - igor734 - 11 мар, 2016 14:00 (UTC) - Развернуть
(без темы) - marcipanovaya - 11 мар, 2016 03:28 (UTC) - Развернуть
(без темы) - igor734 - 11 мар, 2016 13:53 (UTC) - Развернуть
(без темы) - misha_makferson - 11 мар, 2016 08:38 (UTC) - Развернуть
martyshin
10 мар, 2016 18:40 (UTC)
Ии сразу сделает вывод что люди ему мешают и могут его отрубить и грохнет людей

Я даже в каком то кино такое видел, никто сей фильм не напомнит ? :)
igor734
10 мар, 2016 21:58 (UTC)

Да их много, таких фильиов-то :)

borgirr
11 мар, 2016 04:37 (UTC)
"Нет желаний - нет целей."
- думаю в силу этого его опасаться и не стоит. опасаться, в том смысле что он сам по себе что-то такое вредное придумает. а вот люди вполне могут ему такую цель вложить, это да.
ynetbot
11 мар, 2016 10:28 (UTC)
А что вы называете искусственным интеллектом? Вот там ниже пишут, что ИИ - это инструмент анализа, а не синтеза. Это одно из самых ранних определений ИИ. Позднее появилась идея, что ИИ как раз и должен творческие задачи решать, что до сих пор являлось прерогативой человека.

Ну и вообще... То контролировать не сможем, то держава заполучит преимущество... ИМХО это тезисы взаимоисключающие.

Что касается интеллекта без эмоций... Ну так это синдром Аспергера же... Сага Нурен, полиция Мальмё... Пригодно для решения задач, введенных в систему изначально, а также синтезированных из них самой системой.

Боюсь? Нет, не боюсь. Кто сказал, что эволюция завершилась? Кто сказал, что вытеснение биологического вида небиологоическим - это ненормально? Просто естественный процесс. Может, кстати, мы еще себя сами жахнем каким-нибудь уберплазмаганом и нас рыжие тараканы как вид вытеснят.

В то же время опасения других мне понятны. У нас большинство взаимоотношений внутри вида строятся на проявлении и взятии под контроль агрессии. И иной разум (неважно искусственный или инопланетный) мы способны осознать только если он на нас бомбы с бреющего начнет валить
gornal
11 мар, 2016 10:44 (UTC)
>Будут ли у него желания? Будет ли он вообще самостоятельно делать хоть что-нибудь?

Если не будет желаний, это будет не интеллект.
kspshnik
12 мар, 2016 17:35 (UTC)
Не будет ИИ без эмоций.
( 32 комментария — Оставить комментарий )

Profile

Glastar
andreysemenov
andreysemenov

Latest Month

Июль 2017
Вс Пн Вт Ср Чт Пт Сб
      1
2345678
9101112131415
16171819202122
23242526272829
3031     

Метки

Разработано LiveJournal.com
Designed by Michael Rose