Новости российской экономики и бизнеса


Принудительное восстание машин

22.06.2016 03:13
 

На фото - кадр из фильма «Терминатор-3»

Инженер из Беркли построил робота, способного добровольно нанести вред человеку и нарушить первый закон робототехники Айзека Азимова, чем вызвал серьезное обсуждение в научной и обывательской среде. Однако, мировая наука в области военного роботостроения уже давно развивается в направлении автоматических систем, способных самостоятельно определить цель (человека или машину) и принять решение о ее ликвидации. Комментарий руководителя штаба Рабочей группы «Нейронет НТИ» Тимура Щукина.

Александр Ребен, инженер Калифорнийского университета в Беркли создал робота, который может причинить вред человеку, уколов его палец иглой. Причем, по словам исследователя, машина делает этот выбор самостоятельно. Ребен считает, что таким образом, созданное им устройство нарушает первый из трех законов робототехники, сформулированных Айзеком Азимовым в рассказе «Хоровод». Создание робота заняло у инженера пару дней и обошлось в несколько сотен долларов. Изобретатель – не враг робототехники, но, по его мнению, такой опыт должен привлечь внимание к вопросу безопасности человека перед искусственным разумом.

Напомним, что три закона робототехники, придуманные Азимовым, звучат так:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

ChannelRu попросил одного из ведущих российских исследователей искусственного интеллекта, руководителя штаба Рабочей группы «Нейронет НТИ» Тимура Щукина прокомментировать законы и это изобретение. «Во-первых, что касается законов. Они, само собой, не являются настоящими законами – это скорее правила, которыми руководствовались роботы в цикле фантастических рассказов Айзимова. В реальности они существовать не могут, поскольку каждая формулировка составлена из слов, за каждым из которых стоят понятия, которые могут быть интерпретированы по-разному. Например: "причинить вред человеку действием или бездействием" [первый закон робототехники – прим. редакции]. Любое слово можно начать изучать и найти в нем оттенки, оправдывающие действия в каждом конкретном случае. Мы, люди, по сути делаем это постоянно. Например, многие тоталитарные режимы убивали своих сограждан, руководствуясь тем, что они не люди, а низшая раса, враги народа, фашисты и т.д. Или, скажем, сжигание на костре спасает человека, а не убивает его, во что верило большинство тех, кто одобрял процессы Инквизиции сначала во Франции, а потом в Испании. Соответственно, вероятность того, что какое-то разумное существо будет соблюдать некие правила, примерно такая же, как то, что случайно взятый современный человек будет соблюдать заповеди ветхого завета. То есть можно, конечно, но он может и не соблюдать эти правила и всегда найдет оправдания для любого своего действия. Во-вторых, "робот", описанный в статье – такой же робот, как испорченная швейная машинка. Считать, что тот момент, когда машинка вдруг прошивает палец иглой, означает, что ваш робот нарушил закон робототехники - это требует буйной фантазии и помешанности на Азимове. Ну да, там есть генератор случайных чисел – и то, что связь между одним сигналом и другим опосредована генератором случайностей также не превращает эту инсталляцию в что-то особенное. Хотя, этот повод ничем не хуже любого другого для того, чтобы поговорить о взаимоотношении людей и машин, благо это стало так модно в связи с последними успехами алгоритмов глубокого обучения, а также выступлений, посвященных прогнозам развития технологий искусственного интеллекта от таких современных героев, как, скажем, Илон Маск. Интереснее, конечно, не то, уничтожит ли гипотетический искусственный интеллект человечество, а то, как будут этические алгоритмы реализованы в быту. И, если первый вопрос - это разговор о сферическом коне в вакууме, т.к. задача воспроизводства человеческого интеллекта означает воспроизводство его тела, культуры, процессор развития, образования и так далее. Сейчас основное развитие происходит скорее в сфере создания "протезов интеллекта" - автоматизации выполнения отдельных функций разума, а не его полного воспроизводства. А вот второй вопрос стал актуален, потому, что, когда беспилотный автомобиль едет в толпу, он должен сделать выбор, "закрыть ли глаза" и давить людей по случайному признаку, выбрать ли кого постарше или побесполезнее или разбить своих пассажиров об столб чтобы спасти других людей, стоящих на его пути. А разговор об искусственном интеллекте и его угрозах - это пока разговор, который находится в стадии определения понятий - что это такое ИИ, о каких угрозах мы говорим и что есть вред."

Тем временем, крупнейшие мировые державы наращивают выпуск боевой робототехники. Помимо разного рода беспилотных аппаратов, управляемых дистанционно, США, Россия и Великобритания уже внедряют системы, способные самостоятельно определить цель, принадлежность к воюющей стороне или мирному населению и, при необходимости, отдать самой себе команду на уничтожение этой цели. По мнению конструктора одного из отечественных институтов, прокомментировавшего по просьбе ChannelRu новость из США, пока актуальны полностью автоматические оборонительные и охранные системы, однако в ближайшем будущем дело дойдет и до ударной техники. Сегодня наибольшего прогресса в развитии таких систем добились в США, где планируется в ближайшие годы перевести до четверти «охранных» армейских систем в автоматический режим. Речь идет, конечно, о системах, охраняющих важные и стратегические объекты в районах, где не должно быть посторонних и гражданских. В России (что подтверждается сообщениями СМИ), также уже становятся на вооружение автономные охранные системы, хотя до насыщенности ими войск и технологического совершенства иностранных им пока далеко. «Но, по сути, уже в ближайшие годы разработка боевых роботов, самостоятельно определяющих цель и принимающих решение о ее уничтожении, станет вопросом не «железа», а программного обеспечения. А в этом вопросе мы от лидеров не отстаем», - сказал наш собеседник.  

 

(С) 2009-2018. Свидетельство о регистрации СМИ: ЭЛ №ФС 77-50910

Редакция не несет ответственности за содержание авторских материалов и перепечаток.

Материалы издания могут содержать информацию под грифом "18+"