Sign in to follow this  
Arselen

Technological Singularity / Технологическая Сингулярность

Recommended Posts

А пресловутая борьба США с терроризмом на Ближнем Востоке? Ведь она еще не закончилась. Террористы не побеждены.

Ибо нельзя победить фантазии свои XD

Наоборот, возможно большое количество жертв. Война отнюдь не экономическая, а на истребление.

Тогда это геноцид.

к сожалению, в истории можно по пальцам посчитать моменты, когда удалось разложить все по умному и избежать открытого конфликта

Я конечно не уверен, но если брать в расчет возможность всемирного заговора

Share this post


Link to post
Share on other sites

С точки зрения морально-этической стороны вопроса подходить к технологической сингулярности, как минимум с позиций сегодняшней морально-этической базы, несколько бессмыслено в виду того, что к тому времени, она может достаточно сильно измениться и отличаться от сегодняшнего времени. Ибо предположить эволюцию институтов управления обществом достаточно сложно. Она будет находиться в прямой зависимости от развития технологий. Чем более эффективным будет анализ информации тем же интегрированым с вычислительными машинами человеком, тем более сложно будет применять старые методы работы с общественностью.

И это только самые известные из конфликтов. Наоборот, возможно большое количество жертв.

Это всего лишь локальные кризисы настоящего. Они не будут играть к тому времени существеной роли. Ислам слиш9ком слаб и разрознен, что бы играть ключевую роль в подобных глобальных конфликтах на уничтожение. Что действительно должно представляться значимым, так это возрастание мощи азиатских стран вроде Китая и Японии, которые уже сейчас имеют крупнейшие производственные мощности. Скорее всего, именно страна, которая первой породит сингулярность, то есть в которой научно-технический прогресс пойдёт взрывными темпами - получит наибольшее влияние в то время. А такими странами могут быть только страны с развитыми наукой и промышленностью. И весьма вероятно, что первой такой страной будет именно страна азиатская.

Я конечно не уверен, но если брать в расчет возможность всемирного заговора

Если брать в расчёт подобную возможность, то технологическая сингулярность не наступит вообще никогда. Крупнейшие корпорации мира уже веками скрывают от потребителей все ключевые открытия научно-технического прогресса. Они уничтожают опытные прототипы, устраняют неугодных и переписывают учебники. Если бы не они то у нас бы тут, хоть Вечный Двигатель, хоть Эфиролёт, хоть Карманный Телепортатор продавался бы через дорогу. Ну вы поняли. Заговор, в расчёт лучше не брать. Конечно, если вы в нём не участвуете. ~^

Share this post


Link to post
Share on other sites

ну насчёт ИИ.

Вольный и свободный ИИ сейчас для гражданского применения проектируется в Японии. Пока только всё в теории - мощности и ресурсы не позволяют.

Аналогичный ИИ, только для военного применения, разрабатывается в США под ведомством DARPA и активно лобируется Пентагоном. Подвижки у них в этом направлении более ощутимые, чем у японцев, т.к. до не давнего времени были практически безграничные ресурсы и мощности для его создания. У них есть резон быстро двигаться в этом направлении, т.к. американцы очень уж увлеклись беспилотными технологиями, а создание, например, истребительной эскадрильи или танкового полка без, хотябы, допотопного ИИ вообще невозможно.

У нас, в России, разработка вольного и свободного ИИ негласно пресекается Ген.Штабом МО.

В ЕС и Китае таких разработок нет.

Share this post


Link to post
Share on other sites
Скорее всего, именно страна, которая первой породит сингулярность, то есть в которой научно-технический прогресс пойдёт взрывными темпами - получит наибольшее влияние в то время.

Наука не развивается взрывными темпами сама по себе, должен быть ключевой фактор который и станет революционным для науки, не взрыв научно-технологического прогресса породит ИИ, или биотехнологии, а наоборот, но это моё мнение.

Share this post


Link to post
Share on other sites

Dampier

Может быть и третий вариант, который уже реализуется потихоньку: "улучшеных" будет меньшинство, сила будет за ними, и они могут впасть в соблазн посчитать большинство лишними на Земле. Например, миллиарды жителей Китая, Индии, Африки, Южной Америки, которых к тому времени станет ещё больше. ИИ и машины сделают ненужными физический труд и использование людей в качестве "пушечного мяса" на войне. А значит, непонятно будет, куда пристроить "лишних". А позволить им просто жить как раньше чревато истощением ресурсов и перенаселением.

Share this post


Link to post
Share on other sites

Особенно учитывая что восприимчивость неулучшенного, старого человечества к биооружию куда больше, чем улучшеных.

Но улучшенные и ИИ могут оставить старое человечество забавы ради, дав тот минумум технологий который позволит убрать разрушительный фактор из свойств старого человечества.

Или же возможно что и не будет никаких улечшенных, а лишь ЕСИИП (Единный Сверх Интеллект Искусственного Происхождения).

Share this post


Link to post
Share on other sites

Каким будет будущее - покажет время. Беда в том, что пессимистические прогнозы вроде "третьего варианта" служат руководством к действию уже сегодня. Так или иначе экстремисты в своих теориях причисляют к "лишним" всё больше и больше людей, а кое-где их уже режут на этом основании. Поэтому вне зависимости от того, что же будет за сингулярность на практике, до её наступления может быть пущено порядочно крови.

Share this post


Link to post
Share on other sites

Ancient_22

Arselen

Я уже привёл пример, что развитие самообучающегося ИИ запрещено в России самими военными, то-есть можно сделать вывод, что наша страна будет противодействовать передачи хоть какой-либо власти машинам. А гарант безопасности - РВСН, против которого ничто не защищено.

Share this post


Link to post
Share on other sites

РФ может и всячески противодействует разработкам ИИ, и в особенности передачи ему какой либо власти, но вопрос в том сможет ли РФ своевременно идентифицировать угрозу. То есть др. словами, за бугром ИИ может быть тайно разработан, и находиться в "спящем" режиме до определенного времени, а именно до того когда никто и ничто в пределах нашей планеты не сможет ему противостоять. Этот вариант учитывая перспективы и гипотетический потенциал ИИ нельзя исключать. Но спрашивается, стоит ли нам бояться ИИ, или ЕСИИП? Возможно что даже не будучи человеком ИИ, или в частности ЕСИИП будет более гуманен, и рационален чем кто-либо из людей.

Share this post


Link to post
Share on other sites

Arselen

для таких целей существует СВР, 1-е, 2-е и 5-е отделение ГРУ.

Пропустить создание ИИ... ну это как-то не знаю... как прохлопать секретное испытание ядерной бомбы. То-есть невозможно в принципе, ибо для его создания нужны гигантские ресурсы и мощности, а тут разведка и поинтересуется - на кой чёрт? А если Ген.Штаб запретил какое-либо создание самообучающейся ИИ, значит угрозы от него вполне конкретно известны и просчитаны, а значит контроль за ним стоит жёсткий не только внутри страны.

А вот насчёт ИИ или ЕСИИП. По мне (и думаю для компетентных людей в этой области) в принципе никакой разницы. Просто ЕСИИП скорее один из под-видов ИИ как такого. Например, у нас Министерством Обороны курируется создание ограниченного ИИ, который не имеет доступа к самообучению и выполняет поставленные людьми задачи, то-есть какой-либо воли и свободы не имеет. Если быть точным - просто продвинутая программа на поле боя, которая может в реальном времени оценить угрозы и принять то или иное решение, в рамках допустимой задачи. Это то-же ИИ, но очень ограниченный. И такой "кастрат" и ЕСИИП, думаю, будут под-видами ИИ.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Recently Browsing   0 members

    No registered users viewing this page.