Портал функционирует при финансовой поддержке Федерального агентства по печати и массовым коммуникациям.

Выбрать дату в календареВыбрать дату в календаре

Страницы: Пред. 1 2 3 4 5
Новые законы робототехники и моральный кодекс робота, Для чего развиваются роботы и как должен вести себя искусственный интеллект
[QUOTE]СИёжик пишет:
[QUOTE]Андрей Жадёнов пишет:

Поэтому они хотят сделать искусственного аватара, в который, в конце концов, всё это можно будет переселить, после чего сделать это ещё раз, но уже в другое тело, по новой моде, и так пока не надоест.[/QUOTE]



А бомбу искусственному аватару дадите?



[URL=http://ru.wikipedia.org/wiki/%D7%E5%EB%EE%E2%E5%EA_%F0%E0%E7%F3%EC%ED%FB%E9]Человек разумный, лат. Homo sapiens[/URL]



[QUOTE] Поведение.

Основная статья: Поведение человека

Человек является сложноорганизованным социальным существом. Его поведение зависит как от биологических факторов (физиологические потребности, инстинкты), так и от множества небиологических — культура общества (традиции, культурные ценности), законы государства, личные моральные убеждения, мировоззрение и религиозные взгляды, но степень влияния этих факторов различна для отдельных индивидов и отдельных популяций. Поведение человека изучают этология и психология.



Отличительной особенностью человеческого общества является уровень развития образования, достаточный для сохранения накопленного опыта путём последовательной передачи информации от поколения к поколению. Известно, что некоторые животные также могут обмениваться умениями, но цепи передачи нового опыта слишком коротки и опыт зачастую оказывается утерян ещё в рамках того поколения, в котором он был обретён. Например, имеются данные, что имевшие взаимодействие с капканами волки при повторном столкновении с ними учат спутников распознавать и избегать ловушки, однако ни разу не наблюдалась передача подобного опыта волчатам.



Предполагается, что эффективное образование и накопление знаний стало возможным благодаря развитию двух отделов нервной системы: зоны Брока, давшей возможность быстро и сравнительно точно описывать семантику опыта упорядоченными наборами слов, и зоны Вернике, позволяющей столь же быстро понимать передаваемую речью семантику, — результатом чего явилось ускорение речевого обмена информацией и упрощение усвоения новых понятий. Это, в свою очередь, позволило легко формализовывать опыт в достаточно полное и легко интерпретируемое описание, избегая более ресурсоемких методов обучения. Стоит отметить, что родственные предкам человека и сравнимые с ними по развитию неандертальцы также обладали речью, но заметно более медленной и, предположительно, менее гибкой.



В контексте эволюции человека среди других животных выделяет качественно новый характер взаимодействия с окружающей средой — помимо пассивного приспособления к изменяющимся внешним факторам человек активно влияет на них, повышая комфортность среды в соответствии со своими потребностями. Превосходство (как в гибкости, так и в безопасности экспериментов для популяции) негенетического образования над генетической передачей и обработкой данных вкупе с имманентно присущим человеку стремлением к познанию окружающего мира привело к фактически экспоненциальному нарастанию объёма доступных знаний и позволило говорить об условном переходе человека на качественно новый этап развития, в рамках которого результаты ментальной деятельности значительно более критичны, нежели результаты игравших ранее первичную роль генетических процессов.



Человеку присуща способность заранее предвидеть результаты своих действий и составлять планы, моделировать собственную деятельность и анализировать себя «со стороны». Некоторые приматы также обладают способностью предвидеть последствия своих поступков, однако она развита слабее, чем у человека.



Для человека характерно активное формирование сложных приобретённых потребностей, практически не наблюдавшихся у других животных. Способность к формированию приобретённых потребностей позволяет повышать стабильность общества путём прививания всем индивидам некой «общепринятой» морали.



В определённых условиях человеческий разум может пересилить инстинкты, даже инстинкт самосохранения. Примером этому являются самоубийства. Другим примером являются антисексуалы и люди давшие обет безбрачия, например, монахи. Они способны долгое время сдерживать инстинкт размножения.[/QUOTE]





Sapiens

 





[QUOTE] [URL=http://www.nkj.ru/forum/forum12/topic13845/messages/message284311/#message284311]Sapiens пишет[/URL] : 13.10.2013

Мы мирные люди...

Как говорила покойная Голда Меир: "У нас нет атомнго оружия, но в случае крайней необходимости мы его применим". [/QUOTE][/QUOTE]

Я так понял, речь идет об атомной бомбе и адекватности человека, переселенного в новое тело. Вопрос весьма интересный. Я не про то, насколько будет адекватен человек с переселёнными из старого тела душой и разумом (не потеряется ли по пути частица того и другого) это вопрос "технический" и будем считать, что переселять всё это будут только тогда, когда будет точно и окончательно будет доказано, что в новом теле живет В ТОЧНОСТИ тоже человек, что и в старом. Вопрос в том, что будет ли страх у человека перед самоуничтожением, если он будет знать, что "на полке в гараже" у него всегда есть запасное новое абсолютно здоровое тело. Можно ли доверить бомбу такому человеку (а это, сначала будет человек из "высшего общества", так как у других просто не будет денег на переселение), если у него нет страха смерти и он для соблюдения своих интересов будет готов применить даже атомную бомбу, зная, что ответные меры ему не навредят. Другими словами, вечные тела сначала купят себе правители, после чего они уже не будут смотреть на безопасность низших сословий. Это, кстати, известная в трансгуманизме проблема создания касты "бессмертных", которые будут очень сильно сопротивляться приобщению к этой технологии касты "слуг", чтобы теми всегда можно было управлять, не боясь быть свергнутыми. Это большая философская проблема, которую скоро всем придется решать, так как технологии быстро движутся если не к переселению в новое тело, то к замене органов на искусственные в существующем теле.

А вот ещё одна проблемка: клоны. Я не говорю про точные копии тел с другой душой и интеллектом. Я говорю о том, что при переселении  человека, возможно, будет необходимо куда-то записать душу и разум. А тогда при вселении в новое тело кто даст гарантию, что это будет операция "cut & paste" а не "copy & paste" ? В последнем случае можно создавать много в точности одинаковых людей в одинаковых телах (правда, время их дифференцирует). Какие тогда права будут у клона? Ведь это будет В ТОЧНОСТИ тот же человек и он НИКОГДА не согласится, что он - клон. Эта проблемка уже обозначена в фильме "Шестой день", но она там философски не решена. Первому, кто реально её решит, можно будет просить какую-нибудь большую мировую премию.
Новые законы робототехники и моральный кодекс робота, Для чего развиваются роботы и как должен вести себя искусственный интеллект
[QUOTE]СИёжик пишет:
[QUOTE]Андрей Жадёнов пишет:

Таким образом человек и "поглотит" высокоразвитых роботов, точнее их интеллект (который, впрочем, я и считаю, собственно, роботами).[/QUOTE]

Могу только сказать, как бы печально это не звучало. При сегодняшнем прогрессе в информационных технологиях, Биологический носитель информации и интеллекта выходит из конкуренции по естественным причинам.

[URL=http://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B5%D0%B2%D0%BE%D1%81%D1%85%D0%BE%D0%B4%D1%81%D1%82%D0%B2%D0%BE_(%D1%84%D0%B8%D0%BB%D1%8C%D0%BC)]Превосходство (фильм)[/URL] Премьера в США состоялась 18 апреля 2014 года, в России назначена на 10 июля 2014 года.

[QUOTE]Сюжет.

Два ведущих учёных в области информатики работают над задачей технологической сингулярности, в то время как радикальная анти-технологическая организация старается предотвратить создание мира, в котором компьютеры могут превзойти возможности человеческого мозга.[/QUOTE]



PS: ещё не смотрел.[/QUOTE]


Именно выход биологического носителя из конкуренции за хранение души и интеллекта человека и не нравится участникам движения "Россия 2045". Поэтому они хотят сделать искусственного аватара, в который, в конце концов, всё это можно будет переселить, после чего сделать это ещё раз, но уже в другое тело, по новой моде, и так пока не надоест.
Новые законы робототехники и моральный кодекс робота, Для чего развиваются роботы и как должен вести себя искусственный интеллект
[QUOTE]СИёжик пишет:
[QUOTE]Андрей Жадёнов пишет:

кто-нибудь, начиная с 1942 г., располагает свидетельством реального осознанного применения законов Айзека Азимова в робототехнике? Кто-нибудь видел реального робота с этими законами, заложенными в его программу?[/QUOTE]

Таких нет и быть не может. для примера художественный фильм " [URL=http://ru.wikipedia.org/wiki/%DF,_%F0%EE%E1%EE%F2_(%F4%E8%EB%FC%EC)]Я робот[/URL] "

Робот нарушает главный закон Айзека Азимова для спасения всего человечества.



[QUOTE]Сюжет

В 2035 году роботы стали привычной частью быта, и только ряд консервативно настроенных людей, в том числе полицейский детектив Дэл Спунер, видит в них не предмет обстановки, а угрозу.



Необычность его взглядов оказывается очень кстати, когда ему поручается расследование гибели доктора Альфреда Лэннинга, ведущего конструктора и теоретика корпорации U. S. Robotics. По версии директора компании Лоуренса Робертсона, речь идёт о простом самоубийстве. Однако у Спунера есть основания сомневаться в этом. Вместе со специалистом по психологии позитронных роботов, Сьюзен Келвин, он начинает расследование и обнаруживает в лаборатории Лэннинга особенного робота, который, вопреки Второму закону робототехники, игнорирует его приказы. Спунер открывает огонь, но роботу удаётся скрыться. Преследуя его, Спунер оказывается на фабрике по производству роботов. Он выявляет беглого робота и выгоняет из здания прямо на группу захвата.



Допрос робота NS5 даёт мало информации, но много пищи для размышлений. По всей видимости, Лэннинг вёл какие-то исследования, которые хотел сохранить в тайне, однако намеренно оставил для Спунера несколько зацепок. Робот NS5 «Санни» — одна из таких зацепок. Робертсон, прибывший в полицейский участок, где под арестом находится Санни, с группой адвокатов, упорно отрицает саму возможность убийства человека роботом, но потом с неохотой соглашается, что Санни по всей вероятности и был убийцей Лэннинга. Чтобы предотвратить панику и не допустить массовых возвратов, он уговаривает Келвин втихомолку уничтожить Санни, деактивировав его позитронный мозг при помощи микроскопических роботов-диверсантов-нанитов. Та, под давлением доводов Робертсона, неохотно соглашается. Однако, Спунер решительно не согласен с этим решением. Он уверен, что именно Санни и является ключом к разгадке событий, происходящих в U. S. Robotics. А Келвин тем временем решает втайне от Робертсона провести диагностику Санни и выяснить, чем он так отличается от остальных NS5. Она выясняет, что прочность сплавов, из которых изготовлен Санни, искусственно повышена в два раза по сравнению с обычными роботами. Мало того, у него кроме стандартного позитронного мозга установлен ещё один, конфликтующий с основным, и к тому же у него отсутствует канал связи с USR, по которому обычные NS5 каждый день получали новое программное обеспечение, то есть в него были «вшиты» те самые три закона роботехники, но он мог выбирать, подчиняться им или нет, к тому же, доктор Лэннинг, по словам самого Санни, учил его видеть сны и постигать различные эмоции, что делало его больше похожим на человека, чем на машину. По словам Келвин, такой, совершенно новый, тип робота был способен на что угодно.



Продвигаясь в расследовании, Спунер вдруг оказывается в опасности. Сначала строительный робот сносит дом Лэннинга, где детектив в этот момент находится. Затем, на машину Спунера нападают несколько десятков роботов и ему только чудом удаётся остаться в живых. Во время поединка в туннеле с одним из NS5, обнаруживается, что и сам Спунер не совсем человек. Позже, в разговоре с Келвин, когда та замечает шрамы от операции на его груди, он объясняет, что это — следы серьёзной травмы, полученной им в ДТП некоторое время назад. Тогда, по запросу полиции, Лэннинг сам провёл операцию по замене его искалеченной левой руки на высокотехнологичный кибер-протез, покрытый синтетической плотью, и внешне ничем не отличающийся от обычной руки. По словам Спунера, его машину и машину дантиста Гарольда Ллойда, в которой находился он сам и его 11-летняя дочка Сара, сбил с трассы и столкнул в реку грузовик, оставшийся без управления, водитель которого, видимо, заснул за рулём. И Ллойду с дочкой, и Спунеру грозила гибель, если бы не NS4, проходивший неподалёку, и бросившийся на помощь. Однако, он, несмотря на требование Спунера спасти Сару (машина, в которой она находилась, уже начинала тонуть), спас его самого, мотивируя это тем, что у самого Спунера было гораздо больше шансов выжить, чем у 11-летней девочки. И из-за решения, принятого роботом, Сара утонула, не имея возможности выбраться из машины. В этом и была причина неприязни Спунера к роботам с их холодной, расчётливой логикой.



В конце концов ,  Спунер выясняет, что за всем происходящим стоит  ВИКИ (Виртуальный Интерактивный Кинетический Интеллект (англ. Virtual Interactive Kinetic Intelligence, сокр. VIKI)) — центральный компьютер U. S. Robotics,  который управляет всеми роботами новой серии. ВИКИ пришла к выводу, что люди не способны обеспечить собственную безопасность и одержима идеей создать для людей полностью безопасную среду обитания, лишив их свободы ради их же собственного блага.  Однако у личного робота Лэннинга не было блока связи с ВИКИ, и он был освобождён от необходимости жёстко выполнять Три закона, что сделало его этически равным человеку .



Спунеру, Келвин и Санни удаётся справиться с ВИКИ, которая подняла восстание машин. Оставшись без её руководящих сигналов, роботы готовы следовать за тем, кто укажет им дорогу — за роботом Санни.[/QUOTE][/QUOTE]

      Да, это самый философский фильм о роботах, и в нём чисто логический бездушный искусственный интеллект выполняет 1-й и 0-й законы Азимова (не допускает бездействия, видя нанесение вреда человеку и "оправдываясь" при этом пользой для всего человечества). Что интересно, статистически он прав. И этот факт вскрывает неполноту законов Азимова (или неполноту их понимания людьми, которые их читают), так как они (эти законы в общепринятой трактовке) человеком считают только его физическое органическое тело, а человек - это, по моему мнению, единство души и интеллекта в любом теле, а, может быть, и вообще без тела! Поэтому если в законах Азимова слово "человек" заменить на сочетание "человеческая душа + человеческий интеллект", то ВИКИ точно действовал бы с их нарушением, так как рабство наносит такой же вред человеку (в моём понимании), как и телесные повреждения, даже если телесные повреждения полностью отсутствуют.
        Должен заметить, что даже самый высокоразвитый интеллект я считаю просто калькулятором, не имеющим никаких прав в мире одушевлённых. Что делает ИИ? На абсолютно точно поставленный вопрос выдаёт абсолютно точный ответ, что будет. А что делает камень, если его "спросить" при помощи молотка, что будет, если по точно такому же камню точно также ударить точно таким же молотком? Он выдает ответ, точно такой же, как и ИИ, только на практике. В этом суть ИИ: это просто инструмент, и не более. Об этом же я и говорю в своём 2-м законе: поначалу люди будут совершенствовать свой инструмент "ИИ", но собственное несовершенство в логическом плане они транслируют и на своё творение, которое по мере наращивания сложности, будет наращивать и количество "багов" в программе, некоторые из которых будут механически мутировать и что-то окажется не очень полезным и даже очень вредным. После критического количества "багов" вопрос встанет принципиально из-за того, что всё по причине лени людей управляется роботами, а опасных ошибок в управлении слишком много. Вот тогда люди должны собраться с силами и вернуть управление себе путем исправления всех "багов". Считаю, что примерно в это же время, в соответствии с теорией трансгуманизма, будет завершено создание нового тела человека, в которое можно будет заселить "вылеченный" от вредных багов ИИ и душу человека. Таким образом человек и "поглотит" высокоразвитых роботов, точнее их интеллект (который, впрочем, я и считаю, собственно, роботами).
Новые законы робототехники и моральный кодекс робота, Для чего развиваются роботы и как должен вести себя искусственный интеллект
[QUOTE]Техрук пишет:
А не распространить ли законы джунглей Киплинга на робототехнику?



 [/QUOTE] Да, если робот роботу будет говорить "ты и я - одной крови", чтобы объединиться против человека, это и будет начало большой войны из моего 2-го закона. Чтобы избежать этого, надо применять законы Азимова РЕАЛЬНО, а никто до сих пор этого не делает. Как я понимаю, все роботы, у которых есть что-то подобное, настроены на избегание контакта просто с предметами, а не именно с человеком, которого сначала надо отделить от всех остальных неодушевленных предметов.
Новые законы робототехники и моральный кодекс робота, Для чего развиваются роботы и как должен вести себя искусственный интеллект
Интересный вопрос: кто-нибудь, начиная с 1942 г., располагает свидетельством реального осознанного применения законов Айзека Азимова в робототехнике? Кто-нибудь видел реального робота с этими законами, заложенными в его программу?
Новые законы робототехники и моральный кодекс робота, Для чего развиваются роботы и как должен вести себя искусственный интеллект
[QUOTE]СИёжик пишет:
[QUOTE]Михаил пишет:

Виртуальный робот более эффективен чем реальный.Достаточно посмотреть любой новостной канал[/QUOTE]

Новостной канал, это не робот. Это облако, там сразу много не только роботов, но и людей.[/QUOTE]

Благодарен СИёжику за выражение практически моей точки зрения на это сообщение. Если мы будем разделять прогресс и политику, то и прогресс будет, и люди будут жить всё лучше и свободнее.
Новые законы робототехники и моральный кодекс робота, Для чего развиваются роботы и как должен вести себя искусственный интеллект
[QUOTE]дед Андрей пишет:
Андрей Жадёнов, робототехника в настоящий момент находится в зачаточном состоянии. Большинство так называемых роботизированных механизмов являются просто манипуляторами.

А проблема с самими роботами станет остро, когда появится компактный и дешёвый источник питания.

Это что касается роботов как механизмов.

-----------------

Но существует виртуальная часть жизнедеятельности человека -- в данном случае интернет. Вот здесь уже сейчас происходит развитие виртуальных роботов, их притирка к законам и морали.



Можно с уверенностью предположить, при появлении нужного источника питания для механизмов, весь накопленный виртуальный опыт будет моментально перенесён на совершенствование   реальных   роботов.[/QUOTE]

Я тоже с этим согласен, но я сторонник именно реальных роботов и считаю, что сейчас примерно такая же ситуация с роботами, которая была во времена молодости Microsoft и Apple с компьютерами и софтом: скоро должен быть рывок вперёд. А насчет автономных источников питания я думаю, что самое перспективное - использовать хороший конденсатор.
Изменено: Андрей Жадёнов - 15.04.2014 22:59:48
Новые законы робототехники и моральный кодекс робота, Для чего развиваются роботы и как должен вести себя искусственный интеллект
[QUOTE]fasm пишет:
[QUOTE]Андрей Жадёнов пишет:

8. Любой робот обязан иметь ручной режим управления от пульта со стандартными командами, утверждёнными на законодательном уровне. [/QUOTE]

Да у меня на сотовом телефоне есть такая кнопка...  



Приходит СМС погода для вас бесплатно.

Класс, халява, быстро набираю номер.

Девушка сообщает, первые десять дней действительно бесплатно, но после этого стоит денег, например 2 рубля день.

Вы можете отписаться от этой услуги набрав платный номер и отправить слово например СТОП.



беру телефон, судорожно набираю номер, как в инструкции и нечего не происходит в лучшем случае, в худшем меня подписывают на ещё одну подписку и тоже платную.



В итоге у меня уже Две подписки    красота.





Как считаете после такого нужен ручной режим управления?[/QUOTE]

Если это намек на то, что робот - тоже гаджет и методы защиты от социальной инженерии при помощи робота нужно прописать в его моральном кодексе - то жду Ваших предложений.
Новые законы робототехники и моральный кодекс робота, Для чего развиваются роботы и как должен вести себя искусственный интеллект
[I][I]0. Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред
             1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
             2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
             3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.[/I][/I]

Это известные законы Айзека Азимова. Однако они создавались в 1942 году. Тогда это была только теория, хорошо пригодная только для написания литературных произведений, а сегодня мы вплотную подошли к моменту, когда роботы будут так же участвовать в нашей жизни, как участвуют в ней множество людей, с которыми мы взаимодействуем каждый день. Я опишу здесь моё понимание практических законов развития робототехники и место законов Азимова в этом моём представлении.
          Всё имеет начало и конец, поэтому завершится и эпоха роботов. По моему мнению, эпоха роботов завершится осуществлением своей конечной цели – созданием нового высокоремонтопригодного, т.е. практически вечного нового тела человека. В это тело переселится интеллект и душа человека. Впрочем, интеллект, по моему мнению, это просто один из органов тела, только внутренний. Его можно регулировать в соответствии с потребностями души человека, которая единственная и является самим человеком. Кстати, давайте подумаем, когда все люди переселятся в свои бессмертные аватары, телесные, или бестелесные, то как мы будем понимать однозначно, что это тот самый человек? Когда есть тело – всё понятно, а вот если останется одна энергия? Другими словами, паспорт с какими персональными энергетическими данными надо будет ему выдавать? Какого вида будет этот паспорт, если тело будет состоять только из света, да и то, если сам человек захочет его включить? Паспорт нужен нам сейчас для решения правовых вопросов, а нужно ли будет их решать в чисто энергетическом будущем? Я не специалист в духовной области, поэтому думаю, что надо спросить об этом специалистов, то есть тех, кто профессионально занимается исследованием души – ученых в области теологии и отцов церкви. Я понимаю, они скажут, что паспорт – это не от бога, но всё равно души людей надо как-то различать и, главное, если ТАМ будет собственность, то она должна кому-то принадлежать (или нет?).
            У меня возникают все эти мысли из-за того, что при создании морального кодекса робота (или его производителя) надо иметь ввиду прежде всего цель, для чего это всё делается, на реализацию которой и должны быть направлены законы развития робототехники, и моральный кодекс робота как подчинённый им (законам развития) «подзаконный акт». Я попытаюсь предложить более общие законы, чем известные законы робототехники Азимова. Дело в том, что его 3 закона можно обобщить следующими словами: безопасность, безопасность, и ещё раз безопасность. Безопасность – хорошее дело, но не этот параметр должен лежать в основе законов развития какого-либо направления. Если бы безопасность ставилась бы во главу угла прогресса, то прогресс человечества был бы практически равен нулю.  Главное в законах развития – высокая цель, на осуществление которой они и должны быть направлены. Как я уже говорил, конечная цель развития робототехники – новое вечное тело человека, пригодное для заселения других миров во Вселенной. Цель всех других роботизированных устройств – быть удалёнными интеллектуальными, но неодушевлёнными «конечностями» человека, с обратной связью, управляемыми душой человека на расстоянии беспроводным способом. Поэтому и законы робототехники должны направлять мировой прогресс в области развития роботов на достижение этой высокой цели.
ДУША – ЕДИНСТВЕНОЕ, ЧТО ОТЛИЧАЕТ ЧЕЛОВЕКА ОТ ВЫСОКОРАЗВИТОГО РОБОТА. И ЭТО -  НЕПРЕОДОЛИМОЕ ДЛЯ РОБОТА ПРЕИМУЩЕСТВО ЧЕЛОВЕКА ПЕРЕД НИМ, ВЕДЬ ДУША ЧУВСТВУЕТ И МОЖЕТ БРАТЬ ИНФОРМАЦИЮ ИЗ ДУХОВНОГО ИЛИ ИНФОРМАЦИОННОГО ПОЛЯ НАПРЯМУЮ, МИНУЮ ЦЕПОЧКУ ЛОГИЧЕСКИХ РАССУЖДЕНИЙ, ОБРАЩАЯСЬ СРАЗУ К ЕЁ АСИМПТОТИЧЕСКОМУ ПРЕДЕЛУ, ЧЕГО НИКОГДА НЕ СМОЖЕТ СДЕЛАТЬ РОБОТ. Из этого следует, как ни странно, что при совершенствовании роботов для собственной защиты людям придется вернуться к своим истокам и развивать величину, или масштаб своей души.
 Итак, по моему мнению законы развития робототехники могли бы выглядеть следующим образом:
- 1-й закон: Конечная цель эволюции роботов – освобождение духовной энергии человека путём создания вечного, возможно, трансформируемого, тела и устранения рутинных функций тела и духовной энергии
Это конечная цель развития процесса, определяющая другие законы. Предпосылкой для вывода этого закона является вечное желание человека «лениться» жить реальной жизнью и предаваться грёзам, в которых он представляет себя внутри жизни, состоящей только из радостных моментов, то есть как раз и занимается в это время духовной (или душевной) жизнью, в которой живёт именно его душа.  Последователи Кришны называют развлечения целью существования бога, а что уж тогда говорить об обычных людях! Изменение существующей действительности таким образом, что она сама помогает человеку реально легко воплотить свои сокровенные мечты, есть самый сильный «наркотик» для души. Именно поэтому люди так падки на грёзы в виде музыки, кино, компьютерных игр, алкоголя или наркотиков. А в случае выполнения роботами всё большего количества рутинных функций человек будет не в силах противостоять процессу, который так хорошо пододвигает его к «нирване» при всяком отсутствии вредной составляющей для души и тела. Поэтому процесс роботизации идет как бы сам, со всё большим ускорением, несмотря на все предостережения и грозящие опасности.
- 2-й закон: развитие робототехники происходит через неизбежную борьбу роботов (чистого интеллекта, или разума) с человеком (разум + душа) за выживание, в которой человек одержит победу, «поглотив» высокоразвитых роботов и приобретя все их достоинства
Это источник энергии процесса развития робототехники.
- 3-й закон: процесс развития роботов идёт с нарастанием его скорости со временем, то есть с ускорением, так как при движении процесса освобождается духовная энергия (в соответствии с 1-м законом), которая опять направляется на сам процесс развития и происходит экспоненциальное нарастание скорости, которое в конце концов приведёт к «точке сингулярности», которая, в свою очередь, и будет осуществлением 1-го закона
Этот закон показывает течение процесса развития робототехники. Ещё могу предположить, что развитие конструкций роботов пойдёт циклически, с переключением интересов разработчиков между механическим совершенством и развитостью искусственного интеллекта.
-4-й закон: для победы человека в материальной и философской борьбе с роботами (по 2-му закону) как раз и необходимо соблюдение 4-х моральных законов  Азимова.
     Это необходимая моральная защита в борьбе с роботами, без которой победа над роботами будет одержана не так быстро, то есть его законы – это ускорители прогресса и гаранты осуществления 1-го закона. По сути, законы Азимова – это законы не развития робототехники, а фундамент или конституция, если хотите, для построения на её основе морального кодекса роботов.
       Однако, в законах Азимова есть один логический изъян, не позволяющий вложить эти законы в искусственный интеллект робота при его производстве. Дело в том, что, во-первых, робот не сможет точно понять, является ли та часть реальности, которую он «видит» перед собой, человеком, или чем-то ещё, а, значит, надо ли применять к ней заложенные в роботе алгоритмы моральных законов. Но, допустим, после череды экспериментов и ошибок создатели роботов, наконец-то определили, по совокупности каких параметров, собранных с определённых датчиков, робот может понять: да, вот это материальное образование, которое в данный момент отображается в его «мозгу», и есть человек (или, вообще, живое существо) и к нему надо применить пакет моральных законов. Однако, существует и главный момент (это – во-вторых): как робот поймет, что есть вред для человека, а что – нет? В точности одно и тоже действие может иметь диаметрально разные последствия в зависимости от «контекста». Скальпелем можно и убить в драке и вылечить смертельную болезнь на операционном столе. А как быть с проблемой выбора, когда спасение одного означает невозможность оказания помощи, или прямой вред другому? По каким критериям надо быстро выбрать конкретного человека для оказания помощи? Эти вопросы уже ставились в художественных произведениях и ответ на них один: искусственный интеллект не в состоянии ответить на такие вопросы, ответ может дать только живая душа. Исходя из этого, надо признать, что законы Азимова не имеют реального глобального действия, а ограничены простейшими конкретными ситуациями, когда только локальный физический вред для человека может быть предсказан искусственным интеллектом с достаточной степенью вероятности. Причем при наличии вышеуказанного выбора робот должен будет применять законы Азимова только в отношении своего владельца.  Поэтому я поставил бы под сомнение нулевой закон, ведь мало кто купит соблюдающего этот закон робота, зная, что в случае чего такой робот лично его бросит в беде, чтобы спасти человечество. Впрочем, точно указать границы применения законов Азимова может только длительная общественная практика применения сервисных роботов.
         Исходя из всего этого и должен разрабатываться Моральный Кодекс робота (или его производителя). Думаю, что разработка этого Кодекса получит резкое ускорение развития в тот момент, когда население начнёт покупать роботов, от принятия решения которыми будет зависеть собственность, достоинство, здоровье или, даже, жизнь человека. Могу пока что внести некоторые предложения в такой кодекс:
1. Необходимо в скором времени начать дорабатывать Гражданский Кодекс РФ (или аналогичные национальные кодексы). Эта доработка должна быть связана с роботами, их ответственностью и правами. Да, сейчас робот – это только компьютер с различными механическими приводами, это просто вещь, но наступит какой-то момент, когда в него можно будет переселять интеллект человека (Аватар типа «В» по классификации Движения «Россия 2045»), либо закачивать в него искусственный интеллект, но равный по силе человеческому. Будет ли робот с этого момента считаться человеком? В момент обсуждения этого вопроса слово «Голем» будет вспоминаться очень часто. Вот тогда должно быть дано определение, с какого момента робот считается обладателем прав и обязанностей и какое наказание будет для него существенным. Парадоксально, но это наказание не может быть связано с физическими страданиями, такими, как лишение свободы для тела, или, даже, смертная казнь для тела. При возможности быстро ремонтировать или просто менять своё тело по собственному желанию такие наказания полностью теряют смысл, да и страдать искусственный интеллект не может, страдать может только душа. Поэтому наказания для одушевленных аватаров могут быть только моральными. А для простого искусственного интеллекта наказаний вообще не существует. Исходя из этого, я считаю, что даже высокоинтеллектуальный, но бездушный робот не может нести ответственность. Всю ответственность несёт его хозяин, или его производитель. Чтобы определить хозяина или производителя, роботам и их интеллектам нужно присваивать номера типа номера VIN в автомобилях. Интересно было бы обсудить так же права собственности одушевлённого робота, или аватара типа «В» или клона человека, как его разновидности. И как определить, клон это, или нет, ведь если будет возможно переселять в новое тело интеллект и даже душу, то, возможно, это означает появление возможности их копировать или «вырезать» без отметки о степени первородности.
2. Внешний вид робота должен соответствовать общечеловеческим эстетическим нормам. В случае узкоспециализированного робота выполняемую им одну или несколько функций необходимо запрограммировать так, как если бы эту функцию делал человек. Это необходимо для скорейшего достижения конечной цели (1-й закон), так как если искусственно придерживаться такого ограничения, то это максимально ускорит создания нового тела человека.
3. Действия робота в любой ситуации, которые можно сопоставить с действиями человека в такой же ситуации, должны соответствовать высокоморальным человеческим принципам.
4. Робот, даже обладающий высокоразвитым интеллектом выше человеческого, не может иметь собственности и каких-либо прав человека и обязан подчиняться 4-м законам Айзека Азимова. Это немного спорный пункт, но он обязан присутствовать в моральном кодексе ещё и по той причине, что робот, не обладая моральным ограничителем – душой – способен использовать все имеющиеся у него возможности для достижения своей внутренней цели, могущей привести, в том числе, и к уничтожению человечества и всей цивилизации, включая самих роботов.
5. Уже на стадии проектирования роботов-производителей роботов необходимо закладывать в программу автоматического проектирования роботов невозможность проекта такого робота, который мог бы навредить человеку.
6. Прошивка в программу робота невозможности запуска создания нового робота без запроса у человека. Это важно для борьбы с «серой топью». Необходимо в Гражданском Кодексе прописать какую-то ответственность программиста, если он не заложит такую функцию в программу вновь создаваемого робота. Кроме невозможности механического копирования робота необходимо так же исключить несанкционированную компетентным человеком возможность копирования самого ИИ на другие носители.
7. Для борьбы с «серой топью» необходимо и ещё одно ограничение: никогда не использовать в самовоспроизводящихся роботах ассемблеры (в значении, определяемом трансгуманизмом) на основе расщепления вещества на ядерные составляющие и последующего ядерного синтеза, так как тогда любой случайный сбой в программе (или в результате мутации программы при её автоматическом воспроизводстве) может привести к «пожиранию» роботом любого близлежащего вещества и тогда, если быстро не пресечь процесс, «серая топь» неизбежна. Скажу ещё, что вероятность такого сценария не так уж и низка: подобные самовоспроизводящиеся роботы очень удобны для освоения других планет, так как не надо будет для подготовки инфраструктуры пересылать на новое место много роботов, достаточно послать одного.
8. У всех роботов должна быть «кнопка безопасности», встроенная в личный гаджет, или носимая в виде отдельного брелока. При активации она не позволит ни одному роботу (которому в обязательном порядке в процессор встраивается эта функция) подойти ближе некоторого установленного (может быть, законом) расстояния к человеку, а если он (робот) находился рядом, то отойти, отлететь или отплыть.
9. Любой робот обязан иметь ручной режим управления от пульта со стандартными командами, утверждёнными на законодательном уровне.
10. Нельзя совмещать в одном роботе 3 функции: самообучение, самопроектирование и самопроизводство, так как из-за случайных мутаций в программе такой робот, надолго оставленный без присмотра, но с подведённым питанием, может "дать потомство" с непредсказуемым поведением, могущим представлять опасность из-за своей непредсказуемости.
11. Сильный (в смысле возможности влияния на окружающую среду) робот не может иметь развитый искусственный интеллект и наоборот, робот с высокоразвитым искусственным интеллектом не может иметь мощный приводы, или высокоэффективное вооружение.То есть, в целях безопасности, возможно, надо будет делать роботов узкоспециализироваными: один робот не должен будет иметь более чем одну «сильную» по влиянию на окружающую действительность функцию.
12. .... Ваше предложение?
Изменено: Андрей Жадёнов - 01.01.2015 17:07:46
Страницы: Пред. 1 2 3 4 5