Этический кодекс для искусственного интеллекта: зачем он нужен и как поможет людям?

Гости
Андрей Масалович
президент консорциума «Инфорус», специалист по кибербезопасности

Марина Калинина: А мы сейчас о новой реальности. Кодекс этики искусственного интеллекта подпишут уже завтра, 26 октября. Есть необходимость в разработке ясных этических ориентиров, которые позволят предотвратить неблагоприятные для человека последствия.

Кодекс призван урегулировать отношения между людьми и машинами. Так чем опасен искусственный интеллект, и как его собираются контролировать? Вот сейчас об этом поговорим, что это такое.

Константин Чуриков: Кодекс этики еще называют «Кодексом чести для роботов». Готовили его на самом деле при участии наших официальных министерств и ведомств эксперты по IT-технологиям. Называться документ будет «Национальный кодекс в сфере этики искусственного интеллекта». Сейчас контуры этого кодекса прокомментирует в нашем эфире Андрей Масалович, президент консорциума «Инфорус», специалист по кибербезопасности. Андрей Игоревич, здравствуйте.

Андрей Масалович: Здравствуйте.

Константин Чуриков: Насколько важно и нужно, и будет действенно появление этого документа? Насколько оно скажется на нашей цифровой жизни?

Андрей Масалович: Как-то в общий дискурс эта тема въехала сейчас, когда объявили, что будут делать этот кодекс. На самом деле теме этой уже примерно 5 лет. И она состояла из трех этапов. Примерно 4-5 лет назад в разных странах несколько научных институтов озадачились вообще о враждебном применении искусственного интеллекта, что он настолько созрел, что его можно реально использовать во зло. И даже появился… Кстати, уже 5 лет многих примеров на публичной аудитории не привожу, просто чтобы не подсказывать террористам.

Константин Чуриков: Я сейчас зрителям поясню, что мы вчера начали разговор об этом в нашей итоговой программе «ОТРажение недели». И так стало интересно, что мы решили серьезно продолжить и понять, что вообще это такое – этот искусственный интеллект.

Андрей Масалович: Ну так вот. 4-5 лет назад сразу несколько крупных институтов из разных стран (причем, и научных, и околобизнесных, там, например, фирма Cisco участвовала) выпустили отчеты, чего плохого может сделать искусственный интеллект. Выяснилось, что мало не покажется. То есть консорциум из 6 университетов во главе с Гарвардом разделил мир на три так называемых домена: политический, технический и физический. И оказалось, что в каждом домене все плохо-плохо. Физический домен – наши с вами отношения людей. Так вот уже появились пистолеты, которые управляются браслетами.

Пистолеты, которые уже реально в Европе выдают.

Марина Калинина: Которые принимают решения, стрелять или не стрелять.

Андрей Масалович: Да. В Европе эти пистолеты уже выдают полицейским. Но браслет решает, стоит ему сейчас пальнуть или не стоит. То есть в нормальном ли он состоянии, контролирует ли он себя, не слишком ли много народу, не попадет ли случайно в кого-нибудь. То есть человек, держа оружие в руке, не знает, сработает оно или нет.

Появился довольно жутковатый канал на ютубе, который показывает, что могут сделать маленькие автономные дроны, которые помещаются на ладошке, которых из багажника автомобиля можно выпустить 10 000, и такой дрон может нести один патрон. При этом он способен распознать человека, найти у него голову, подлететь, бахнуть и улететь.

То есть 4-5 лет назад встала проблема враждебного использования искусственного интеллекта. Стало понятно, что это реальность. 2 года назад началась вторая волна. Начал ее (вы будете хихикать) Папа Римский. 2 года назад первым про этику искусственного интеллекта сказал Папа Франциск.

Причем, он славится тем, что он огульно не хает новые технологии, он все время выступает… Он их принимает, что они классные, но они должны идти в параллель с нравственностью. Не вредить людям. То есть вместе с ними должна развиваться новая нравственность, новые устои. И благодаря этому посылу Папы Римского в этом году, в феврале еще, задолго до нашего кодекса, в Ватикане собрались Microsoft, IBM и один из архиепископов. У них там есть в Ватикане департамент с фантастическим названием что-то типа «Департамент защиты жизни», как-то так.

И они на троих приняли документ, который называется «Римский призыв». Что пора цивилизованным людям Земли сделать кодекс искусственного разума.

Марина Калинина: Этот кодекс что-то поменяет? Ведь всегда будут какие-нибудь плохие дяди или тети.

Андрей Масалович: Во-первых, сам кодекс не показывают. Его готовила Ассоциация искусственного интеллекта. У нее недавно была большая конференция в Таганроге. Я подозреваю, что основные обсуждения были именно там. Но от нее, хотя принятие будет завтра, но пока опубликовано только 10 тезисов, а их вообще 33. Ну, 10 главных посылов. Но это посылы на уровне слов. Но даже из этих слов видно, что основная проблема – это не взаимоотношения человека и роботов, а правила игры для тех, кто этих роботов разрабатывает и использует. Чтобы как раз не пускать плохих дядей.

Константин Чуриков: Потому что, может быть, проблема не в интеллекте как таковом, а в том, кто им управляет и кто им…

Андрей Масалович: Да, да, ну смотрите, действительно, вот, проблема. Если я в окошко высунул руку с кирпичом и отпустил, и кирпич кого-то грохнул, понятно, что вина моя: это была моя рука с кирпичом.

Если я вот так вот высунул руку и выпустил дрон, и он полетел и кого-то убил, ну чья вина? По идее виноватый тоже должен быть. Хотя дрон автономный. Он мог по дороге принимать решения.

Константин Чуриков: Вот в массе своей то, с чем сегодня мы, обычные люди, имеем дело. Можно ли это называть (не знаю, предлагаемую какую-то контекстную рекламу, еще что-то) искусственном интеллектом? Может быть, это просто-напросто искусственное понимание, как говорит Ашманов, да? То есть за нами просто следят и делают выводы, и все.

Андрей Масалович: Само определение искусственного интеллекта как такового не то что его нет. Оно размыто. Есть старое классическое определение Алана Тьюринга, что искусственный интеллект – это некоторая программа, которая сможет обмануть экзаменатора, который смотрит на переписку двух людей и не может определить, кто из них человек, а кто – робот. Вот когда это произойдет, значит искусственный интеллект появится.

Причем, доказать, что напротив меня человек, легко. Попросить его перемножить 500 на 17 в уме. И по заминке…

Константин Чуриков: Как в интернете проверка бывает – «Вы не робот?» Обозначьте все светофоры.

Андрей Масалович: Человека распознать нетрудно. А вот робота, который будет притворяться человеком, распознать реально трудно. И это было первое классическое определение теста Тьюринга, что вот когда станет неразличимо, человек это или робот. Потом, поскольку я много лет фактически руководил хакерами, могу дать другое определение, что настоящий интеллект – это тот, кто будет…

Марина Калинина: Вы опасный человек.

Андрей Масалович: Нет, так жизнь сложилась. Я уже лет 10 ничего вредоносного не писал.

Марина Калинина: Сколько у вас секретов!

Андрей Масалович: Нет, это все там… Я на пенсии.

Константин Чуриков: У нас здесь рубрика «Личное мнение». Может, как-нибудь придете…

Андрей Масалович: Нет, да я сейчас былинный персонаж, кибердед, ведущий ютуб-канала. Так вот, просто как руководитель хакеров я сказал бы, что интеллект – это как раз тот, кто будет придуриваться и раз за разом валить тест Тьюринга, чтобы никто не понял, что он уже образовался, он уже умный.

Сейчас, когда начался период информационных войн, я могу сказать, что искусственный интеллект – это тот, кто сумеет экзаменатора убедить, что он сам робот. Так что сейчас тема размыта.

Марина Калинина: То, что изначально ведь это все задумывалось во благо, ну, когда-то. То, что это постепенно, можно сказать, уже превратилось в некое зло, это вообще закономерный процесс? Так всегда бывает?

Андрей Масалович: У человека все получается именно так. То есть романтики с горящими глазами делают что-то хорошее, революционеры. Потом другие революционеры этих же революционеров посылают на гильотину. Потом выясняется, что то, что построили, сильно-сильно отличается от того, что ждали. Кстати, само слово «кибернетика», с чего сейчас вся эта новая эра началась, ввел большой профессор электродинамики Ом. Закон Ома. Это было в середине XIX века. И слово «кибернетика» означало науку управления государством так, чтоб людям стало лучше. То есть научное управление государством, чтобы людям было лучше.

Константин Чуриков: С другой стороны, вы же сами вчера в нашей итоговой программе рассказывали, что первый пример искусственного интеллекта – это собака 15 000 лет назад, прирученная человеком, и помогает же…

Андрей Масалович: Да. Это действительно было первое автономное устройство. То есть это был первый акт передачи цели, когда человек показывал, что ему надо, а она сама решала, сейчас залаять, убежать, броситься или… Ну и она же была и первая система видеонаблюдения, первая система информационной безопасности, первый компонент «умного дома» или «безопасного города». Но потом, правда, 150 веков ничего интересного не происходило. И даже первые компьютеры фактически решают нашим алгоритмы. То есть никаким интеллектом там не пахло.

Константин Чуриков: Давайте сейчас послушаем звонок. Александр из Москвы, добрый вечер.

Зритель: Добрый вечер. Слышно меня? Здравствуйте, ребята, ведущие, здравствуйте, Андрей Игоревич. Я вот что хотел спросить. Давно хотел дозвониться именно тогда, когда Андрей Игоревич у вас будет. Поскольку я сам IT-инженер. Но я работаю больше с серверами и с безопасностью. И тут есть какой-то такой вопрос. Но он не столько про искусственный интеллект. Про искусственный интеллект, вы знаете, на мой взгляд, Норберт Винер в своей работе «Корпорация «Бог и Голем»» все это предрек, он сказал, что будут машинопоклонники и что мы попытаемся все свалить на робота, и этого допускать нельзя. Он вообще был за контроль инженерами.

А у меня, Андрей Игоревич, вопрос такой. Тут пару месяцев назад в новостях прошла такая шоковая новость, что квантовые компьютеры трехкубитные уже вышли вроде как в продажу частным лицам. И вы, наверное, знаете, мы все были очень серьезно напряжены этим вопросом. Потому что, помните, вот эта самая главная беда с квантовыми компьютерами. Они вроде как должны очень легко взламывать коды, в том числе банковские – лопать, как орешки. И пока эти технологии были у гугла, мы все спокойно отдыхали. А раз это дело начало продаваться в частные руки, я хотел бы вас спросить: нам пора уже бояться? Или это пока еще только цветочки? Потому что действительно эта проблема же есть.

Константин Чуриков: Да, спасибо, Александр.

Андрей Масалович: Давайте так. Я ни разу не специалист в области квантовых вычислений. Тем не менее, из того, что я вижу, первое, до реальных компьютеров, которые способны будут реально взламывать коды еще в световые годы, так что пока бояться нечего. Основное назначение тех экспериментов, которые сейчас проходят, и то, что реально сейчас можно сделать с квантовым компьютером – это решение главной задачи криптографии, это безопасная передача ключа. Если передать достаточно длинный ключ – это 256 бит. 64 бита – это миллиард миллиардов. 128 – это миллиард миллиардов миллиардов миллиардов. То есть достаточно отправить 256 бит, чтобы их не перехватили. И мне зашифруют совершенно классно. Никто это не расшифрует в ближайшее тысячелетие.

То есть задача для квантовых компьютеров уже есть. Они вот эту задачу решить могут. Ничего другого они пока решить не могут.

Константин Чуриков: Так. По поводу самого кодекса. Вот тут уже появляется информация, что он будет состоять из 33 пунктов. Первый принцип – неприкосновенность частной жизни, надежно все хранить. Второй принцип – риск-ориентированный подход. То есть придется оценивать уровень рисков для простых людей. Ну и изучать пресловутое восстание машин.

Третий принцип этики искусственного интеллекта – не допускать дискриминации. Например, если робот решает, давать или не давать кредит, он не будет учитывать, например, национальность, пол.

Четвертый принцип, если коротко – не навреди. Пятый – работай только под надзором человека. Шестой – полная подконтрольность человеку.

Не выглядит ли это все таким прекраснодушием и просто утопией?

Андрей Масалович: Это же первая попытка. Вспомните первый самолет братьев Райт. Это было классно. Но это вообще кусок фанеры и брезента. Просто летать на нем не надо. Надо просто порадоваться, что замахнулись на покорение воздушного пространства. Сейчас та же самая история. То есть понятно, что кодекс… эти самые три закона робототехники, которые мы уже много лет из книжек повторяем, сейчас это ничто. Никак процесс не зарегулирует. То, что сейчас постулировали… Ну, вы назвали 6. У меня в кармане лежат первые 10, которые утром написали, из 33. Они все тоже постулаты. Но они дают возможность уже разрабатывать подзаконные акты.

А что такое «не дискриминация»: по национальному признаку, по половому, по гендерному.

Кстати сказать, я тут недавно узнал, что, оказывается, гендерное разнообразие, хоть считается, что россияне от него далеки, придумали в России. Еще в Древней Руси были слова – мужчина, женщина и чудище поганое. Так что в этом смысле впереди планеты всей.

Марина Калинина: Костя назвал основные постулаты. И на первом месте стоит неприкосновенность частной жизни, личное пространство. Вот эти QR-коды, геометрические данные и так далее, камеры – это уже мы с этим сталкиваемся.

Андрей Масалович: Это уже надписи на эпитафии нашей частной жизни.

Марина Калинина: Это наша частная жизнь. Где мы находимся, в какой стране, в каком городе.

Андрей Масалович: Я на самом деле порадовался, что начали именно с этого, потому что эта проблема более реальна, чем то, что эти машинки начнут открывать огонь. Потому что все-таки технически они давно уже могли бросать гранату в скопление людей или на этих роботов-собак уже прикручивают винтовки. И только последнюю кнопку не прикрутили, чтобы она сама могла стрелять.

Константин Чуриков: То, что в «Звездных войнах» - это все реально?

Андрей Масалович: Да, да, да. Более того, в «Звездных войнах» там еще неправильно. У нее показан металлический корпус. Он на тепловизоре будет виден. А вот на Boston Dynamics делают керамический. То есть она еще будет невидимкой. То есть она будет стрелять, но ее будет не видно.

Разведка или шпионаж сейчас гораздо опаснее, чем проблема того, что какие-то устройства выйдут из-под контроля и начнут палить. Потому что шпионаж вообще безграничен.

Марина Калинина: Чувствуешь себя, как голый, честное слово. Потому что ты понимаешь, что кто-то о тебе знает все. О твоей жизни личной, о твоих передвижениях.

Константин Чуриков: Неприятно, когда за тобой подсматривают.

Андрей Масалович: Согласен. Тут действительно сейчас ничего не сделаешь. Потому что прежде чем выпускать кодекс этики для роботов, надо придумать какой-нибудь цифровой билль о цифровых правах цифрового населения. Потому что цифровое население еще себя народом не почувствовало. Каждый за себя.

Константин Чуриков: Ну вот я смотрю. Среди участников крупные компании, наши IT-гиганты, например, «Яндекс» в России. Не получится так, что пчелы не могут быть против меда. Ну как? Ну как? Как они будут? Им же надо эти данные обрабатывать, куда-то передавать. Это часть бизнеса.

Марина Калинина: Они же этим и живут.

Андрей Масалович: Да. Во-первых, я всех хочу успокоить. Личные нюансы частной жизни на самом деле при этом массовом таком сборе под одну гребенку мало кого интересует. Есть два интереса – интерес государства, чтоб мы куда не надо не лазили, не ходили или что не надо говорили. И это понятно.

И есть интерес корпораций, которые просто расширяют кормовую базу: где еще можно продать подгузников, а где еще можно продать пива, а где еще можно снизить…

Константин Чуриков: Марине туфли.

Андрей Масалович: Ну почему? Я думаю, что все эти гендерные заморочки – просто чтобы начали туфли на шпильках мужчины покупать, потому что уже все женские распродали.

Константин Чуриков: Нет уж, это вы в кодексе этики тоже пропишите, пожалуйста. Виктор из Подмосковья. Здравствуйте, Виктор.

Зритель: Здравствуйте. Я хотел по поводу искусственного интеллекта и так называемого кодекса этики искусственного интеллекта поговорить с ведущими и с экспертом. Потому что я так считаю. Что как в произведениях Айзека Азимова вот эти три закона робототехники, это вообще нам об этом можно не задумываться. Потому что весь вопрос не в отношении нас с искусственном интеллектом, с роботом, а в отношении между людьми.

То есть есть человек, который владелец этого робота, владелец этого искусственного интеллекта, который определяет его применение, а есть те простые люди, по которым этот робот и искусственный интеллект применяется. То есть это инструмент. Что робот, что искусственный интеллект – это инструмент.

Константин Чуриков: Вы хотите сказать, что человек с человеком всегда договорится, особенно в нашей стране, да?

Зритель: Нет, я, наоборот, считаю, что это самая сложная задача. Вот об этом надо думать, чтобы как-то заставить владельцев искусственного интеллекта не применять его во зло к другим людям.

Константин Чуриков: Спасибо, Виктор. Сейчас с людьми действительно договориться сложнее стало, потому что люди стали как роботы.

Андрей Масалович: Ну так это еще раз подтверждает мысль, с которой мы сегодня начали – что основное назначение кодекса – это определить не правила игры между роботами и людьми, а правила игры между людьми, которые этих роботов разрабатывают. Чтоб плохие дяди не разрабатывали плохих роботов или не начинали…

Марина Калинина: А потом плохие дяди чтобы их использовали.

Константин Чуриков: А вот эти ребята, которые сидят сейчас… или не ребята, не знаю, большие какие-то монстры, которые сидят в даркнете и творят, что хотят: сливают базы, продают направо-налево, собирают на нас информацию. Вот они примут эти правила игры? Ведь это же вы нам и ваши коллеги рассказывают, что вообще интернет – это маленькая песчинка. Основное – это даркнет.

Андрей Масалович: Ну, основная часть интернета – это не белое, не черное. Это серое. Это просто ресурсы, которые большинству не видимы, просто из-за того что интернет огромный, народ не знает, где смотреть. А на самом деле черный интернет (даркнет) – он то как раз маленький. Когда мы в него заглядывали посчитать, сколько там народу. Там было 30-50 тысяч сайтов. Это ничто. Но они все плохие зато.

К счастью, те ребята, которые пытаются там задачи решать, они изначально себя ставят против всех. То есть они сразу… Даже самим фактом, что ты туда полез, даже ничего плохого не сделал… Просто идут люди как люди – один в балаклаве. Он уже вызывает подозрения.

Константин Чуриков: А как стать добрым, как вы? Вы же были с хакерами.

Андрей Масалович: Мы старались решать задачи на стороне светлых сил. То есть это были такие специальные хакеры, ну, просто по факту. Задачи были околохакерские. Нет-нет, сейчас многие компании… Кстати, тоже был такой период, когда считалось, что хакеров надо брать в спецназ информационной войны, ну, в кибервойска. Хакеров надо брать в компании по безопасности. Сейчас это уже в прошлом. Сейчас руководители таких компаний четко говорят, что хакер – это существо со сдвинутой уже психикой.

Ну, во-первых, это мошенник. Потому что он туда пошел, чтоб денег заработать неправедно. Во-вторых, он уже не сможет работать в коллективе, по плану…

Константин Чуриков: Извините, а вообще интернет и искусственный интеллект – это может быть про добро и про нравственность? У нас с вами ровно минута.

Андрей Масалович: Сейчас это не более чем инструмент. Но возможности этого инструмента таковы, что я сегодня шел на этот эфир – у меня возникло странное страшное сравнение, что представим себе коров, которые вдруг придумали, что «давайте изобретем человека – он нам сделает пастбище». «У нас не получается. У нас будет классное пастбище». Это правда. И они взяли и сделали человека. Человек им сделал классное пастбище. Теперь он их ест, он их доит, он определяет их численность. И они уже на планете не рулят. Поскольку человека, как я заметил, создавали явно впопыхах. Ну, если ты венец создания, наверное, надо было другую тушку дать. Меня моя не очень устраивает. Значит, нас создавали как промежуточная форма для чего-то более совершенного. Может быть, интернета, может быть, искусственного разума.

Константин Чуриков: Может быть, искусственный интеллект как раз станет. Будем надеяться.

Марина Калинина: Это прямо тема для отдельного разговора.

Константин Чуриков: Спасибо. С вами всегда интересно. Вас благодарят и наши зрители. Андрей Масалович, президент консорциума «Инфорус», специалист по кибербезопасности.