Совместимость. Как контролировать искусственный интеллект - Стюарт Рассел

Стюарт Рассел
0
0
(0)
0 0

Аннотация: В массовом сознании сверхчеловеческий искусственный интеллект — технологическое цунами, угрожающее не только экономике и человеческим отношениям, но и самой цивилизации. Конфликт между людьми и машинами видится неотвратимым, а его исход предопределенным. Выдающийся исследователь ИИ Стюарт Рассел утверждает, что этого сценария можно избежать. В своей новаторской книге автор рассказывает, каким образом люди уже научились использовать ИИ, в диапазоне от смертельного автономного оружия до манипуляций нашими предпочтениями, и чему еще смогут его научить. Если это случится и появится сверхчеловеческий ИИ, мы столкнемся с сущностью, намного более могущественной, чем мы сами. Как гарантировать, что человек не окажется в подчинении у сверхинтеллекта? Для этого, полагает Рассел, искусственный интеллект должен строиться на новых принципах. Машины должны быть скромными и альтруистичными и решать наши задачи, а не свои собственные. О том, что это за принципы и как их реализовать, читатель узнает из этой книги, которую самые авторитетные издания в мире назвали главной книгой об искусственном интеллекте. Все, что может предложить цивилизация, является продуктом нашего интеллекта; обретение доступа к существенно превосходящим интеллектуальным возможностям стало бы величайшим событием в истории. Цель этой книги — объяснить, почему оно может стать последним событием цивилизации и как нам исключить такой исход. Введение понятия полезности — невидимого свойства — для объяснения человеческого поведения посредством математической теории было потрясающим для своего времени. Тем более что, в отличие от денежных сумм, ценность разных ставок и призов с точки зрения полезности недоступна для прямого наблюдения. Первыми, кто действительно выиграет от появления роботов в доме, станут престарелые и немощные, которым полезный робот может обеспечить определенную степень независимости, недостижимую иными средствами. Даже если робот выполняет ограниченный круг заданий и имеет лишь зачаточное понимание происходящего, он может быть очень полезным. Очевидно, действия лояльных машин должны будут ограничиваться правилами и запретами, как действия людей ограничиваются законами и социальными нормами. Некоторые специалисты предлагают в качестве решения безусловную ответственность.
Совместимость. Как контролировать искусственный интеллект - Стюарт Рассел бестселлер бесплатно
0
0

Внимание! Аудиокнига может содержать контент только для совершеннолетних. Для несовершеннолетних прослушивание данного контента СТРОГО ЗАПРЕЩЕНО! Если в аудиокниге присутствует наличие пропаганды ЛГБТ и другого, запрещенного контента - просьба написать на почту pbn.book@gmail.com для удаления материала

Читать книгу "Совместимость. Как контролировать искусственный интеллект - Стюарт Рассел"


Знакомя с этими идеями аудиторию технарей, буквально видишь всплывающие над головами присутствующих мысли, начинающиеся словами «Но ведь…» и заканчивающиеся восклицательными знаками.

Частица «но» имеет несколько смыслов. Первый носит характер отрицания. Отрицающие говорят: «Но это не может быть реальной проблемой по причине XYZ». Некоторые из этих XYZ отражают процесс мышления, который, мягко говоря, можно назвать самообольщением, другие более основательны. Второй тип «но» принимает форму уклонения: все верно, проблемы существуют, но не нужно пытаться их решать, потому ли, что они неразрешимы, или потому, что нашего внимания требуют более важные вещи, чем конец цивилизации, или потому, что лучше о них вообще не упоминать. Третьи «но» — упрощенные быстрые решения: «Но почему бы нам просто не сделать АВС?» Как и в случае отрицания, часть этих АВС попросту никчемны, но некоторые, может быть случайно, приближаются к обнаружению истинной природы проблемы.

Я не утверждаю, что в принципе невозможно рационально опровергнуть мысль о том, что неправильно сконструированные сверхинтеллектуальные машины будут представлять собой серьезный риск для человечества. Я всего лишь пока не слышал рациональных возражений. Поскольку вопрос кажется очень важным, он заслуживает публичного обсуждения самого высокого уровня. Итак, поскольку я заинтересован в подобном обсуждении и надеюсь, что читатель примет в нем участие, позвольте мне кратко охарактеризовать основные моменты, какими они видятся на сегодняшний день.

Отрицание

Отрицание того, что проблема вообще существует, — самый простой путь. Скотт Александер, автор блога Slate Star Codex, начал широко известную статью об опасности ИИ[201] такими словами: «Я начал интересоваться рисками, которые несет ИИ, еще в 2007 г. В то время реакцией большинства на эту тему были смех и предложение вернуться к ней, когда в нее поверит хоть кто-нибудь, кроме отдельных интернет-психов».

Попросту никчемные замечания

Воспринимаемая угроза делу всей жизни порой заставляет умнейших и обычно вдумчивых людей говорить нечто, что они предпочли бы исключить из дальнейшего рассмотрения. Поскольку это именно такой случай, я не стану называть имена авторов нижеследующих аргументов. Все они являются известными исследователями ИИ. Я добавил опровержения аргументов, хотя в этом и нет особой необходимости:

• Электронные калькуляторы обладают сверхчеловеческими возможностями в арифметике. Калькуляторы не захватили мир, следовательно, нет причин бояться сверхчеловеческого ИИ.

— Опровержение: интеллектуальность не равна умению производить арифметические действия, и способности калькуляторов производить арифметические действия не дают им возможности захватить мир.

• Лошади обладают сверхчеловеческой силой, но мы не ищем доказательств того, что они для нас неопасны; значит, нам незачем доказывать и безопасность ИИ-систем.

— Опровержение: интеллектуальность не равна физической силе, и сила лошадей не дает им возможности захватить мир.

• В истории имеется ноль случаев убийства машинами миллионов человек; методом индукции приходим к выводу, что это невозможно и в будущем.

— Опровержение: в мире все бывает в первый раз, и первому разу предшествует ноль случаев этого события.

• Никакая физическая величина во Вселенной не может быть бесконечной, в том числе интеллектуальность, следовательно, страхи из-за сверхинтеллектуальности раздуты.

— Опровержение: сверхинтеллектуальность не должна быть бесконечной, чтобы создать проблемы, а физические законы позволяют существование компьютерных устройств в миллиарды раз мощнее человеческого мозга.

• Мы не боимся фатальных для биологической жизни, но крайне маловероятных опасностей вроде материализации черной дыры на околоземной орбите, так почему мы должны бояться сверхинтеллектуального ИИ?

— Опровержение: если бы множество физиков работали над созданием такой черной дыры, неужели мы бы не спросили их, безопасно ли это?

Все не так просто!

Главная тема современной психологии — один только показатель IQ не характеризует всей полноты интеллектуальности человека[202]. У интеллектуальности есть разные измерения, говорят теоретики: пространственное, логическое, лингвистическое, социальное и т. д. Алиса, наша футболистка из главы 2, может иметь лучший пространственный интеллект, чем ее друг Боб, но худший социальный. Таким образом, невозможно выстроить всех людей в строгом порядке по интеллектуальности.

Это еще более справедливо в отношении машин, поскольку их способности намного уже. Поисковая машина Google и программа AlphaGo не имеют почти ничего общего, кроме того, что созданы двумя подразделениями одной корпорации, так что бессмысленно говорить, что одна из них интеллектуальнее другой. Это делает понятие «машинного IQ» сомнительным и заставляет предположить, что было бы заблуждением описывать будущее как простой забег за IQ с участием людей и машин.

Кевин Келли, основатель и редактор журнала Wired и невероятно чуткий техноаналитик, продолжает этот аргумент следующим шагом. В «Мифе о сверхчеловеческом ИИ»[203] он пишет: «Интеллектуальность не одномерна, так что понятие „умнее людей“ бессмысленно». Все тревоги из-за сверхинтеллектуальности отброшены одним ударом.

Очевидно, однако, что машина могла бы превзойти человеческие возможности по всем релевантным параметрам интеллектуальности. В этом случае, даже по строгим стандартам Келли, машина была бы умнее человека. Впрочем, это весьма убедительное предположение необязательно опровергает аргумент Келли. Возьмем, к примеру, шимпанзе. Краткосрочная память у них лучше, чем у людей, что проявляется даже в таких сугубо человеческих задачах, как запоминание последовательности цифр[204]. Краткосрочная память — важный параметр интеллектуальности. Таким образом, согласно аргументации Келли, люди не умнее шимпанзе; его слова аналогичны заявлению, что фраза «умнее, чем шимпанзе» бессмысленна. Слабое утешение для шимпанзе (а также бонобо, горилл, орангутанов, китов, дельфинов и т. д.) — биологических видов, существующих только потому, что мы соизволили им это разрешить! И еще более слабое утешение для видов, которые мы уже уничтожили. Малоутешительно это и для людей, которые опасаются быть уничтоженными машинами.

Читать книгу "Совместимость. Как контролировать искусственный интеллект - Стюарт Рассел" - Стюарт Рассел бесплатно


0
0
Оцени книгу:
0 0
Комментарии
Минимальная длина комментария - 7 знаков.


LoveRead » Домашняя » Совместимость. Как контролировать искусственный интеллект - Стюарт Рассел
Внимание