Совместимость. Как контролировать искусственный интеллект - Стюарт Рассел

Стюарт Рассел
0
0
(0)
0 0

Аннотация: В массовом сознании сверхчеловеческий искусственный интеллект — технологическое цунами, угрожающее не только экономике и человеческим отношениям, но и самой цивилизации. Конфликт между людьми и машинами видится неотвратимым, а его исход предопределенным. Выдающийся исследователь ИИ Стюарт Рассел утверждает, что этого сценария можно избежать. В своей новаторской книге автор рассказывает, каким образом люди уже научились использовать ИИ, в диапазоне от смертельного автономного оружия до манипуляций нашими предпочтениями, и чему еще смогут его научить. Если это случится и появится сверхчеловеческий ИИ, мы столкнемся с сущностью, намного более могущественной, чем мы сами. Как гарантировать, что человек не окажется в подчинении у сверхинтеллекта? Для этого, полагает Рассел, искусственный интеллект должен строиться на новых принципах. Машины должны быть скромными и альтруистичными и решать наши задачи, а не свои собственные. О том, что это за принципы и как их реализовать, читатель узнает из этой книги, которую самые авторитетные издания в мире назвали главной книгой об искусственном интеллекте. Все, что может предложить цивилизация, является продуктом нашего интеллекта; обретение доступа к существенно превосходящим интеллектуальным возможностям стало бы величайшим событием в истории. Цель этой книги — объяснить, почему оно может стать последним событием цивилизации и как нам исключить такой исход. Введение понятия полезности — невидимого свойства — для объяснения человеческого поведения посредством математической теории было потрясающим для своего времени. Тем более что, в отличие от денежных сумм, ценность разных ставок и призов с точки зрения полезности недоступна для прямого наблюдения. Первыми, кто действительно выиграет от появления роботов в доме, станут престарелые и немощные, которым полезный робот может обеспечить определенную степень независимости, недостижимую иными средствами. Даже если робот выполняет ограниченный круг заданий и имеет лишь зачаточное понимание происходящего, он может быть очень полезным. Очевидно, действия лояльных машин должны будут ограничиваться правилами и запретами, как действия людей ограничиваются законами и социальными нормами. Некоторые специалисты предлагают в качестве решения безусловную ответственность.
Совместимость. Как контролировать искусственный интеллект - Стюарт Рассел бестселлер бесплатно
0
0

Внимание! Аудиокнига может содержать контент только для совершеннолетних. Для несовершеннолетних прослушивание данного контента СТРОГО ЗАПРЕЩЕНО! Если в аудиокниге присутствует наличие пропаганды ЛГБТ и другого, запрещенного контента - просьба написать на почту pbn.book@gmail.com для удаления материала

Читать книгу "Совместимость. Как контролировать искусственный интеллект - Стюарт Рассел"


Сразу после конференции 1975 г. Национальный институт здравоохранения, финансирующий практически все основные медицинские исследования в США, начал процесс организации Консультативного комитета по рекомбинантной ДНК, который играл важнейшую роль в выработке принципов Национального института здравоохранения, фактически воплощавших рекомендации асиломарских конференций. С 2000 г. эти принципы включают запрет одобрения финансирования любого протокола, предполагающего генеративное изменение человека — модификацию человеческого генома, наследуемую последующими поколениями. За этим запрещением последовали правовые запреты в 50 с лишним странах.

«Улучшение человеческого капитала» являлось одной из заветных целей евгеники, направления конца XIX — начала XX вв. Разработка CRISPR-Cas9, очень точного метода редактирования генома, возродила эту мечту. На международном саммите, проведенном в 2015 г., обсуждались возможности его будущего применения, призвав к сдержанности в случаях, когда отсутствует «широкий общественный консенсус в отношении допустимости предлагаемого применения»[215]. В ноябре 2018 г. китайский ученый Хэ Цзянькуй объявил, что отредактировал геномы трех человеческих эмбрионов, как минимум два из которых развились, что привело к рождению живых младенцев. Разразился международный скандал, и на тот момент, когда я пишу эти строки, Цзянькуй находится под домашним арестом. В марте 2019 г. международная группа из ведущих ученых недвусмысленно потребовала ввести официальный запрет на подобные эксперименты[216].

Выводы из этих споров вокруг ИИ неоднозначны. С одной стороны, они свидетельствуют о том, что мы можем отказаться от продолжения исследований, имеющих огромный потенциал. Международный консенсус против изменения генома до сих пор был в основном успешным. Страх, что запрет просто заставит ученых уйти в подполье или перебраться в страны без соответствующего законодательного ограничения, оказался безосновательным. С другой стороны, изменение генома — легко выявляемый процесс, случай конкретного применения более общего знания о генетике, требующий специального оборудования и реальных людей-испытуемых. Более того, он относится к области репродуктивной медицины, уже находящейся под пристальным контролем и правовым регулированием. Эти характеристики не относятся к разработке универсального ИИ, и на сегодняшний день никто не предложил реально осуществимой формы законодательного сворачивания исследований ИИ.

Какнасчетизм

С какнасчетизмом меня познакомил консультант британского политика, вынужденный постоянно сталкиваться с этим приемом на встречах с общественностью. Чему бы ни посвящалось выступление, кто-нибудь обязательно задавал вопрос: «А как насчет страданий палестинцев?»

В ответ на любое упоминание о рисках, которые несет продвинутый ИИ, вы, скорее всего, услышите: «А как насчет преимуществ ИИ?» Например, версия Орена Эциони[217]:

Апокалипсические пророчества часто не учитывают потенциальной пользы от ИИ в таких областях, как предотвращение медицинских ошибок, снижение аварийности автомобильного транспорта и многих других.

Вот что сказал Марк Цукерберг, исполнительный директор компании Facebook, в недавнем обмене мнениями с Илоном Маском в соцсетях[218]:

Если вы выступаете против ИИ, значит, вы против более безопасных автомобилей, которые никогда не попадут в аварию, и против способности поставить более точный диагноз заболевшим людям.

Помимо распространенного убеждения, что любой, кто заводит речь о рисках, является «противником ИИ», и Цукерберг, и Эциони утверждают, что обсуждать риски — значит игнорировать потенциальную пользу ИИ или даже отрицать ее.

Все как раз наоборот, и вот почему. Во-первых, если бы ИИ не сулил выгод, не было бы ни экономического, ни социального импульса для его исследования, следовательно, и опасности когда-либо создать ИИ человеческого уровня. Нам просто нечего было бы обсуждать. Во-вторых, если предотвратить риски не удастся, не будет и пользы. Эффект от использования атомной энергии значительно снизился из-за частичного расплавления рабочей зоны АЭС «Три-Майл-Айленд» в 1979 г., неуправляемой реакции и катастрофических выбросов в Чернобыле в 1986 г., а также многочисленных разрушений на Фукусиме в 2011 г. Эти катастрофы серьезно затормозили развитие ядерной промышленности. Италия запрет ила ядерную энергетику в 1990 г., а Бельгия, Германия, Испания и Швейцария заявили о планах запрета. С 1990 г. введение в строй АЭС по всему миру составляет около 1/10 этого показателя до Чернобыля.

Замалчивание

Крайняя форма уклонения от проблемы — попросту предложить помалкивать о рисках. Например, упомянутый отчет AI100 включает следующее предостережение:

Если общество относится к этим технологиям, главным образом, со страхом и подозрением, это приведет к ошибочным шагам, которые задержат разработку ИИ или загонят ее в подполье, помешав важной работе по обеспечению безопасности и надежности технологий ИИ.

Роберт Аткинсон, директор Фонда информационной технологии и инноваций (того самого, что вручает Премию луддитов), выдвинул тот же аргумент в дебатах 2015 г.[219] Несмотря на то что вопросы о том, как следует описывать риски, общаясь со СМИ, вполне адекватны, общий его посыл ясен: «Не упоминайте риски, это помешает финансированию». Разумеется, если бы никто не знал о рисках, не было бы ни финансирования поиска возможностей их снижения, ни причины для кого бы то ни было заниматься этой работой.

Читать книгу "Совместимость. Как контролировать искусственный интеллект - Стюарт Рассел" - Стюарт Рассел бесплатно


0
0
Оцени книгу:
0 0
Комментарии
Минимальная длина комментария - 7 знаков.


LoveRead » Домашняя » Совместимость. Как контролировать искусственный интеллект - Стюарт Рассел
Внимание