А. В. Турчин Ответственные редакторы
Вид материала | Реферат |
- Урок №15. Тема: «Текстовые редакторы», 75.16kb.
- Нло как фактор глобального риска Алексей Турчин, 7525.63kb.
- Ббк 67. 99(2)9 К82 Ответственные редакторы, 7322.98kb.
- А. А. Жилкин Ответственные редакторы, 3418.4kb.
- Положение молодежи и реализация государственной молодежной политики в Российской Федерации:, 2576.32kb.
- Органы, ответственные за выполнение положений Регионального соглашения Автономной Республики, 609.76kb.
- Текстовые редакторы это программы для создания и редактирования текстовых документов, 263.8kb.
- Турчин В. Ф. Феномен науки: кибернетический подход к эволюции. Изд. 2-е, 20.53kb.
- Валентин турчин инерция страха социализм и тоталитаризм, 1299.53kb.
- Ответственные за организацию и проведение егэ-2010, 602.5kb.
4.33. Наблюдательная селекция.
Наблюдательная селекция происходит во всех случаях, когда в результате некого процесса число его наблюдателей может меняться, а глобальные катастрофы, очевидно, относятся к такому классу процессов.
5. Специфические ошибки, возникающие в дискуссиях об опасности неконтролируемого развития искусственного интеллекта.
5.1. Разброс мнений по вопросу о безопасности ИИ означает отсутствие реальных доказательств безопасности.
Специалисты по компьюте:рам высказывают много разных мнений о причинах того, почему, по их мнению, ИИ безопасен. Эти высказывания взаимоисключают друг друга, и, значит, значительная их часть ложна. Поэтому мы смело можем привести их как примеры ошибок, не вдаваясь в доказательства ложности каждого отдельного высказывания. Я провёл опрос среди разработчиков ИИ, какие риски они видят в нём, и получил следующий разброс мнений, с примерно одинаковым числом людей, высказавшимся в отношении каждого мнения. Итак, «ИИ является безопасным, потому что»:
- потому что ИИ невозможен.
- потому что Ии может решать только узкие задачи, вроде распознания образов.
- потому что, когда мы сделаем универсальный ИИ, мы введём в него Три закона роботехники Азимова.
- Потому что я знаю, как использовать ИИ во благо людям.
- Потому что Ии будет обладать сверхчеловеческой мудростью по определению и не захочет причинять вреда людям.
- Потому что ИИ ничего не нужно от людей, и мы можем мирно сосуществовать друг с другом.
- Потому что он будет заперт в моём компьютере, и если что-то пойдёт не так, я выключу электричество.
- потому что у ИИ не может быть своей воли.
- ИИ невозможен без свободы воли, поэтому мы должны предоставить ему свободу.
- Потому что ИИ не может сделать ничего плохого.
- ИИ может быть опасен, но, скорее всего, всё обойдётся.
- Нет, ИИ опасен, и мы все обречены.
- Ии уничтожит человечество, и именно к этому мы должны стремиться, так как ИИ – это более прогрессивная форма эволюции.
В ходе опороса оказалось, что эти мнения распределены более-менее равномерно. Это значит, что сумма информации по вопросу о безопасности ИИ, которой обладают люди в целом, равна нулю.
5.2 Ошибочной является идея о том, что можно создать безошибочную систему, многократно проверив её проект и исходный код.
Сами проверки вносят некоторое число новых ошибок, и в силу этого на определённом уровне число ошибок стабилизируется.
5.3. Критика ИИ Пенроузом.
Р.Пенроуз в книге «Новый ум короля» утверждает, что ИИ невозможен, потому что в мозгу происходят невычислимые процессы, которые необходимы для творческого мышления и сознания. На основании этого часто утверждается, что опасный ИИ невозможен. Мне представляется, что данный вывод не вполне корректен по следующим причинам.
1. Квантовая природа сознания - это далеко не мэйнстрим науки.
2. Невозможно доказать невозможность чего-либо в природе теоретически. (Но возможность доказать можно - например, Нейман доказал возможность самоокопирующихся механизмов.)
3. Для того, чтобы ИИ стал опасен, ему не нужно обладать ни сознанием, ни способностью к творчеству. Современный Ии может обыграть любого человека в шахматы, не используя ни сознания, ни интуиции. То есть интуиция - это только полезная характеристика, сокращающая скорость перебора комбинаций, но заменяемая алгоритмами. При этом нам достаточно сказать, что опасный ИИ - это ИИ, который может обыграть человека в любой игре. Война и зарабатывание денег - это разновидности таких игр.
4. Если некие особые полезные функции выполняются нейронами или микротрубочками, то ничто не мешает использовать их как элементы будущего мощного ИИ - в виде внешнего сопроцессора, скажем. Квантовые компьютеры находятся на пути к этому. В конце концов, этот Ии может возникнуть не как компьютер, а как генетически модифицированный человек с нейрошунтом (то есть подключённый напрямую к компьютеру).
5. Любую практическую задачу можно решить перебором, то есть за конечное число операций. Важно подчеркнуть слово «практический». Математически можно, вероятно, описать бесконечно сложные задачи. Однако человек не способен их представить, и, кроме того, именно решение практических задач создаёт угрозы безопасности. Например, это может быть перебор всех возможных комбинаций знаков, порождающих текст доказательства теоремы. Иначе говоря, есть алгоритм, позволяющий решить любую задачу. И вопрос только в его оптимизации.
5.4. Представление о том, что 3-х законов робототехники А.Азимова достаточно, чтобы решить все проблемы с безопасностью ИИ.
Уже неоднократно показывалось в разных исследованиях, что законы робототехники не являются гарантией безопасности Ии в сколько ни будь значительной мере.
- Эти законы являются тавтологией, так как из них следует, что ИИ будет безопасен, потому что он не будет причинять вреда.
- Они содержат в себе противоречие, которое мастерски обыгрывается самим Азимовым в его рассказах – робот часто испытывает конфликт между 1,2 и 3 законами и в результате ведёт себя опасным образом.
- Эти законы относятся к автономным роботам, а не к ИИ, который не привязан к одному механизму.
- Они опираются на интуитивное понятие «вреда», которое не определяется ими и поэтому может принимать произвольную форму. Например: жить вредно, потому что от этого умирают.
- Эти законы являются скорее пожеланиями – то есть тем, что мы хотим от ИИ, а не правилами, которыми он мог бы руководствоваться. Неизвестно, как именно засунуть эти законы в ИИ.