< Предыдущая |
Оглавление |
Следующая > |
---|
5.3. Актуальные проблемы компьютерной этики
В предыдущем параграфе был создан концептуальный каркас для анализа актуальных проблем из области компьютерной этики. Разумеется, таких проблем немало. Мы рассмотрим те из них, которые являются, пожалуй, наиболее актуальными.
5.3.1. Проблема ответственности
Желая предотвратить бесконтрольность поведения людей, этики вводят представление об отношении ответственности.
Обычно различают каузальную (причинную), функциональную, ролевую, юридическую и моральную ответственность. Каузальная ответственность предполагает связь между последствиями и действиями людей, которые привели к этим последствиям. Функциональная ответственность фиксирует связь между выполняемыми людьми функциями и последствиями поступков. Ролевая ответственность связана со служебными обязанностями личности в организации. Например, руководитель организации часто несет ответственность за действия своих подчиненных. Юридическая ответственность наступает при несоблюдении закона. Моральная ответственность предполагает оценку деятельности людей с позиций этики.
Для всех типов ответственности характерна некоторая атрибуция лицу количественной оценки ответственности. Порой это сделать исключительно трудно, особенно если приходится учитывать соотносительность личной и коллективной ответственности. В информационных технологиях проблема ответственности прирастает еще одним сложным моментом. Здесь возникает необходимость каким-то образом учесть статус компьютеров, поскольку не исключается атрибуция ответственности также и компьютерам.
Для начала рассмотрим вопрос об ответственности людей как субъектов информационной деятельности. Исследователи отмечают, что определение ответственности за использование компьютеров затрудняется множеством обстоятельств1:
1) проблемой многих рук. Информационные технологии являются результатом деятельности некоторого количества людей. Необычайно трудно, во-первых, приписать им определенную долю ответственности; во-вторых, сопоставить различные виды ответственности, например причинную и функциональную. К тому же необходимо учесть разновременность деяний и поступков;
2) возможностью разнообразных ошибок. Что касается ошибок, совершаемых при написании программ, так называемых жуков, то они часто являются непроизвольными и едва ли предвидимыми. Со времен Аристотеля человека считают ответственным лишь за те деяния, которые он был в состоянии осознать и совершил без принуждений. Но многие ошибки не лишены моментов спонтанности;
3) желанием обвинить в неудачах компьютеры. Порой на компьютеры переносят способности человека. В таком случае легко именно компьютеры обвинить в тех или иных неудачах. В результате люди снимают ответственность с себя и возлагают ее на технику;
4) собственностью, не сопровождаемой обязанностями. Производители компьютеров и программного обеспечения не всегда принимают на себя какие-либо обязательства перед клиентами. Этот трюк порой позволяет им избежать юридической ответственности;
5) плохой артикуляцией норм поведения. Часто плохо разработана нормативная база ответственности, без чего не может быть определена ее мера;
6) тезисом об этической нейтральности компьютеров. Многие спекулируют на этом тезисе, используя его для закрытия в информатике всякой моральной проблематики.
Из шести выделенных барьеров на пути проведения политики ответственности в области информационных технологий, пожалуй, главной является проблема многих рук. Однако и с ней можно справиться. На помощь приходит многоуровневый анализ: сначала рассматривается ответственность корпорации, затем входящих в нее фирм, их подразделений и, наконец, отдельных людей. Что касается непредвиденных ошибок, то принимаются меры для их своевременного обнаружения и искоренения. Но без риска потерь здесь, равно как и в любой другой области человеческой деятельности, разумеется, не обойтись. Этика ответственности не исключает риска. Непринятие на себя определенных обязательств производителями компьютеров и программного обеспечения с позиций этики ответственности является нонсенсом. То же относится и к недостаточно разработанной нормативной базе, регулирующей взаимоотношения специалистов по информатике как между собой, так и со всеми другими заинтересованными лицами.
Причастность компьютеров к моральной проблематике заслуживает особого обсуждения. Большинство специалистов придерживается антропоцентрической точки зрения, согласно которой ответственность является атрибутом исключительно людей как существ, обладающих сознанием и вследствие этого способных предвидеть последствия своих действий. Недостаточная проницательность наказуема, а недопущение наступления нежелательных событий одобряется. Антропоцентристы считают абсурдным возложение ответственности на компьютеры, полагая это неправомерным уподоблением техники людям. Нонантропоцентристы придерживаются принципиально иной позиции. Они полагают, что люди делегируют часть своей ответственности компьютерам. Но в таком случае и компьютеры могут быть признаны частично ответственными.
Интересную аргументацию на этот счет развил авторитетный американский философ Д. Деннет. Особенно пристальное внимание специалистов привлекла его статья "Если HAL убивает, то кто виноват?" HAL (hardware abstraction layers) - это уровень аппаратных абстракций (системного программного обеспечения). Деннет считает, что основанием моральной ответственности является интенциональность системы, ее направленность и предназначенность для чего-либо. В процессе общения друг с другом люди воспринимают себя в качестве интенциональных систем, будущее поведение которых может быть предсказано. Но этот признак применим и к системам искусственного интеллекта, следовательно, атрибут моральной ответственности может быть перенесен на компьютеры.
Л. Флориди и Дж. Сандерс стремятся придать концепции Деннета большую определенность. Они ориентируются на теорию уровней абстракций. Любой объект характеризуется согласно с определенным уровнем абстракции. В соответствии с ним объекты признаются или не признаются моральными агентами. Например, отвертка с магнитом не является моральным агентом. Другое дело компьютер, если для него характерны такие черты, как интерактивность, автономность и приспособляемость. Здесь уже речь идет о системе, которая, обладая соответствующей индивидуальностью, транслирует свои состояния, стимулируя появление желательных или, наоборот, нежелательных для людей событий. Такая система преодолевает порог, отделяющий неморальных агентов от моральных субъектов. Флориди и Сандерс убеждены в том, что компьютерным системам присуща не ответственность (responsibility), а учитываемость (accountability). Компьютеры не подотчетны людям, но их индивидуальность должна учитываться. С ними дела обстоят приблизительно так же, как с несовершеннолетними детьми и животными: тех и других нельзя полностью выводить за пределы сферы морали.
Англичанин Б. Стал полагает, что суть проблемы заключается не в индивидуальности компьютеров, а в возможности приписывания им квазиответственности. Речь идет о социальном конструкте. Если приписывание компьютерам квазиответственности себя оправдывает, то оно актуально. В противном случае оно несостоятельно в этическом отношении. Б. Стал доказывает, что такое приписывание необходимо, поскольку попытки осмыслить значимость компьютеров, руководствуясь исключительно понятием традиционной ответственности, неубедительны, в связи с чем и приходится вводить представление о квазиответственности. Ведь в конечном счете за последствия применения компьютеров ответственность несут сами люди.
Думается, что позиция нонантропоцентристов заслуживает поддержки. Однако всегда нужно помнить, что компьютеры являются символом людей. Они не автономны от них.
< Предыдущая |
Оглавление |
Следующая > |
---|