"Для некоторых будет шокирующим факт, что первые мыслящие машины следует ожидать уже в ближайшие несколько десятилетий"(c) вольный пересказ книги 2013го года.
"Исходя из этой тенденции, я считаю, что интеллект, превосходящий человеческий, появится в течение ближайших тридцати лет. (Чарльз Платт заметил, что энтузиасты ИИ делают подобные утверждения уже лет тридцать. Чтобы не быть голословным, отделавшись относительной временной двусмысленностью, позвольте мне уточнить: я удивлюсь, если это случится до 2005 года или после 2030 года). [Прошло десять лет, но я по-прежнему считаю, что указанный срок справедлив.]" (с) Вернор Виндж в 2003ем
Сроки наступления сингулярности все отодвигаются и отодвигаются. Примерно, как дата победы социализма в одной отдельно взятой стране. Учение трансгуманизма всесильно, поскольку оно верно.
Мне кажется что "экспоненциальный рост науки" поджидает несколько неприятных сюрпризов. Навскидку можно назвать следующие:
* рост количества фейковых исследований
* экономический кризис (наука требует денех, кроме того, отсутствие денех сильно сказывается на востребованности на рынке инновационных технологий - голодному не нужен айфон с новыми фишками)
* растущая сложность исследований - в плане количества информации, который нужно переработать и усвоить исследователю, чтобы не изобретать велосипедов
* количество информационного мусора и помех, растущее пропроционально росту инфосферы (сравните поиск полезной информации в интернете сейчас и лет десять назад)
* (мое собственное мнение) невозможность в обозримой перспективе создать искусственный интеллект, работающий по принципам человеческого мышления, а не имитирующий его за счет большой вычислительной мощности (можно построить систему играющую в шахматы лучше человека за счет простого перебора комбинаций, но достаточно изменить правила - и эту систему можно будет выкидывать на помойку, не говоря уже о реальной жизни, которая значительно разнообразнее и непредсказуемее шахматной партии)
"Философ Нельсон Гудмен называет это проблемой индукции: мы строим прямую линию лишь потому, что у нас в головах линейная модель, — тот факт, что 1000 дней подряд переменная увеличивалась, придает уверенности, что она будет расти и дальше. Но если у вас в голове имеется нелинейная модель, она может показать, что на 1001-й день наступит перелом" (с) Никлас Нассим Талеб
"Исходя из этой тенденции, я считаю, что интеллект, превосходящий человеческий, появится в течение ближайших тридцати лет. (Чарльз Платт заметил, что энтузиасты ИИ делают подобные утверждения уже лет тридцать. Чтобы не быть голословным, отделавшись относительной временной двусмысленностью, позвольте мне уточнить: я удивлюсь, если это случится до 2005 года или после 2030 года). [Прошло десять лет, но я по-прежнему считаю, что указанный срок справедлив.]" (с) Вернор Виндж в 2003ем
Сроки наступления сингулярности все отодвигаются и отодвигаются. Примерно, как дата победы социализма в одной отдельно взятой стране. Учение трансгуманизма всесильно, поскольку оно верно.
Мне кажется что "экспоненциальный рост науки" поджидает несколько неприятных сюрпризов. Навскидку можно назвать следующие:
* рост количества фейковых исследований
* экономический кризис (наука требует денех, кроме того, отсутствие денех сильно сказывается на востребованности на рынке инновационных технологий - голодному не нужен айфон с новыми фишками)
* растущая сложность исследований - в плане количества информации, который нужно переработать и усвоить исследователю, чтобы не изобретать велосипедов
* количество информационного мусора и помех, растущее пропроционально росту инфосферы (сравните поиск полезной информации в интернете сейчас и лет десять назад)
* (мое собственное мнение) невозможность в обозримой перспективе создать искусственный интеллект, работающий по принципам человеческого мышления, а не имитирующий его за счет большой вычислительной мощности (можно построить систему играющую в шахматы лучше человека за счет простого перебора комбинаций, но достаточно изменить правила - и эту систему можно будет выкидывать на помойку, не говоря уже о реальной жизни, которая значительно разнообразнее и непредсказуемее шахматной партии)
"Философ Нельсон Гудмен называет это проблемой индукции: мы строим прямую линию лишь потому, что у нас в головах линейная модель, — тот факт, что 1000 дней подряд переменная увеличивалась, придает уверенности, что она будет расти и дальше. Но если у вас в голове имеется нелинейная модель, она может показать, что на 1001-й день наступит перелом" (с) Никлас Нассим Талеб