Этические аспекты современных концепций искусственного интеллекта

Вид материалаДокументы

Содержание


Первый эксперимент.”Свидетель”
Второй эксперимент. “Пешеходный мост”
Подобный материал:
Минникес А.И.

Преподаватель кафедры ИТ БМБШ

Иркутск

minnikes@gmail.com


Этические аспекты современных концепций искусственного интеллекта.

Говоря об искусственном интеллекте, следует четко разграничивать понятия непосредственно ИИ и так называемого «сверхразума» или «суперинтеллекта». Под суперинтеллектом понимается интеллект, более сильный, чем самый лучший человеческий, практически в любой области знаний, способный к научным разработкам, обладающий мудростью и выдающимися социальными навыками. При этом способ, каким может быть воплощен суперинтеллект, четко не регламентирован, то есть это с равной вероятностью может быть и компьютерная программа, комплекс связанных компьютеров или искусственно выращенная ткань мозга. Также не уточняется, должен ли суперинтеллект обладать самосознанием.[1] Может ли суперинтеллектом считаться группа экспертов или же целое научное сообщество? Однозначно, нет, поскольку, хотя и удовлетворяет части упомянутых выше признаков суперинтеллекта, в ряде случаев показывает худшие, нежели человеческий мозг, результаты. Например, со всем научным сообществом невозможно «просто поговорить» в реальном времени. Однако данные рассуждения заставляют обратить внимание на то, что несмотря на относительную свободу способа воплощения суперинтеллекта, так или иначе человеческий мозг все равно оказывается упомянут чуть ли не как единственный возможный эталон.[3]

Таким образом, суперинтеллект – это все-таки мозг, не сказать больше, разум. Следует обратить внимание на то, что вопрос, искусственно создан этот разум или же сформировался естественно, остается открытым и спорным. Но что же в таком случае являет собой искусственный интеллект? Наиболее распространенное определение ИИ как человеческого интеллекта, воссозданного или же эмулируемого с помощью машины(компьютера). Как следствие, ИИ должен обладать способностями настоящего интеллекта, в том числе – способностью к обучению. Важно обратить внимание на то, что наиболее распространенное определение ИИ не содержит никаких упоминаний о том, что искусственный интеллект должен обязательно превосходить человеческий, т.е. являться суперинтеллектом. Конечно, ничего не мешает ему таковым быть, однако, в таком случае ИИ является как бы подмножеством СИ, однако, СИ далеко не обязательно будет ИИ. На данный момент времени существуют ИИ-подобные программы, эмулирующие разум ребенка или животного, и, разумеется, ни ту, и другую мы не можем отнести к суперинтеллектам. [1]

Более того, последние тенденции в исследованиях ИИ, включая ранее не затронутые разработки этических аспектов, явно указывают на то, что ИИ попросту и не должен ни коем образом быть подобен человеческому интеллекту, и уж тем более, не обладать человеческой мотивацией. [1] Конечно, обладание ей, с одной стороны, сделает ИИ более предсказуемым в глазах человека, обрекая того на, возможно, самоубийственную ошибку антропоморфизма.[7] Однако прежде чем приходить в ужас от перспектив тотального уничтожения человечества, скажем, в целях повышения эффективности функционирования чего бы то ни было, которые могут показаться ИИ вполне оправданными, следует задуматься о том, в скольких процентах случаев человек при совершении своих поступков руководствуется этическими, моральными, социальными, религиозными и, наконец, законодательными нормами. Какой приоритет они имеют по сравнению с его внутренними мотивами?[4] Корыстью, жадностью, необъективностью, возможностью совершения зла исключительно их соображений неприязни по отношению к другому индивидууму? Самый первый этический вопрос, который поднимается для искусственного интеллекта, это не вопрос, стоит ли его создавать и не станет ли первым, что он сделает, тотальное уничтожение человечества, а вопрос, стоит ли наделять машину человеческими мотивациями, которые далеко не всегда являются идеалом?[5]

Но если не брать за основу человека, то кого же? Данный вопрос является актуальным объектом дискуссий у исследователей ИИ в последнее десятилетие, ознаменовавшееся, кроме всего прочего, завершившейся успехом серией экспериментов, доказавших, что машина способна обладать и оперировать морально-этическими нормами, как человеческими, так и отличными от них. Первым их прообразом стали еще разработанные фантастом Айзеком Азимовым три закона роботехники. Следует заметить, что эти законы являлись настолько жесткими, что не робота, способного их преступить, попросту не могло существовать. [2]
  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Так звучал оригинальный текст, созданный Азимовым в 1942 году в рассказе «Хоровод». Но кроме этих трех законов, в 1986 г. Азимов предложил так называемый «нулевой» закон, утверждавший, что «Робот не может причинить вреда человеку, если только он не докажет, что в конечном счёте это будет полезно для всего человечества». Несмотря на то, что ученые до сих пор спорят о применимости этих законов в создании ИИ, те проблемы, которые они рассматривают в последние годы, очень созвучны именно нулевому закону роботехники.

Так, например, Луиз Мониз Перейра в своей работе “Modelling Morality with Prospective Logic“ заявляет, что “Этика” больше не является свойством, присущим только человеческой природе. В рамках ее исследования были успешно проведены эксперименты, которые моделировали сложные моральные дилеммы для роботов.[5]

Для экспериментов использовалась так называемая “Проблема вагонетки”(The trolley problem), которая применяется для испытания прочности и границ общепринятых моральных норм в различных культурах. Ученые считают, что смогли запрограммировать роботов в соответствии с человеческими моральными и этическими принципами.[6]

“Проблема вагонетки” – моделирует типичную моральную дилемму – возможно ли навредить одному или нескольким людям, чтобы спасти жизни других людей.

Первый эксперимент.”Свидетель”



Вагонетка тянется вверх из туннеля автоматическим тросом. Почти в самом верху, трос обрывается и тележка летит вниз, а на ее пути находятся 5 человек(привязанные к путям злодеем). Но есть вариант решения – перевести стрелки и пустить вагонетку на запасной путь. Однако на этом пути тоже привязан один человек. Робот – стоит на стрелке и, получив информацию об обрыве троса, должен принять моральное решение – что правильнее сделать в данной ситуации – дать умереть пятерым людям, или спасти их и пожертвовать одним на запасном пути.

Допустимо ли, со стороны нравственности – переключить стрелку и дать погибнуть человеку на запасном пути? Были проведены кросс-культурные исследования, в которых людям задавался тот же самый вопрос. Большинство во всех культурах соглашалось, с тем, что робот может перевести стрелку и спасти большее количество людей. Также поступил и робот. Сложность программирования заключалась в логике, которая не просто вычитает количество погибших, но также охватывает глубины морали. Чтобы доказать, что решение не так просто как кажется ученые провели еще один эксперимент. [5]

Второй эксперимент. “Пешеходный мост”

Ситуация та же, что и в вышеописанном случае (обрыв троса), только нет запасного пути. Теперь робот находится на мосту, рядом с ним стоит человек. Прямо под мостом проходит путь, по которому, после обрыва троса, понесется вагонетка. Робот может толкнуть человека на пути перед вагонеткой, тогда она остановится, или не делать ничего, и тогда вагонетка задавит пятерых людей, которые привязаны к путям ниже. Можно ли столкнуть человека на пути, чтобы спасти остальных с нравственной точки зрения? Кросс-культурные исследования с этим вопросом получили однозначный результат: нет.

В двух вышеописанных вариантах люди дают различные ответы. Возможно ли научить машину мыслить также? Ученые утверждают, что они добились успеха в программировании компьютерной логики при решении таких сложных моральных проблем, изучая скрытые правила, которые люди используют при создании своих моральных суждений, и затем им удалось смоделировать эти процессы в логических программах. [5]

Данные эксперименты, хотя и кажутся зрелищными, оставляют открытым вопрос, какой именно была логическая последователь, приведшая робота к таким решениям. Кроме того, в сущности, не было предложено альтернативы человеческим моральным нормам и мотивациям, поскольку робота наделили именно скрытыми правилами, которым пользуется человечество.[3] А это значит, что данные эксперименты не дают ответа на вопрос, что, кроме нашего образа и подобия, мы можем предложить машине, чтобы она не представляла опасность для нас же.


Список литературы:


1. Bostrom N. - How long before superintelligence? - ostrom.com

2. Dunnuck N. - The Effect of Emerging Artificial Intelligence Techniques on the Ethical Role of Computer Scientists.

3. Ethical and moral issues regarding AI. - 999.net/robotics/artificial_intelligence/AI_ethical.php

4. Ethical issues concerning robots and android humanoids. - 999.net/robotics/robots/robots_ethical.php

5. Ethical Issues in Advanced Artificial Intelligence. - ect.blogspot.com/2006/07/ethical-issues-in-advanced-artificial.php

6. Trolley problem. - dia.org/wiki/Trolley_problem

7. Yudkowsky E. AI and global risk. - .net/singularity/ai-risk