Расширенный поиск

Вопреки предсказаниям скептиков, компьютерный разум уже способен решить проблемы цифровой экономики и информационного общества. Современные прототипы искусственного интеллекта успешно управляют предприятиями, ставят медицинские диагнозы и претендуют на роль справедливых судей и честных юристов. Но точно так же искусственный интеллект используют киберпреступники и террористы. О возможностях этих технологий Digital.Report рассказал доктор технических наук, консультант Artezio, профессор Владимир Крылов. 

Digital.Report: Есть ли сферы жизни, экономики, которые ни при каких условиях нельзя доверить искусственному интеллекту?

Доктор технических наук, профессор Владимир Крылов

Доктор технических наук, технический консультант Artezio, профессор Владимир Крылов

Сегодня мы не можем, не способны указать недоступные или запрещенные сферы, где искусственный интеллект (ИИ) может принести человечеству вред. Если исходить из очевидного тренда цифровизации всего и вся на планете, то гипотеза о потенциальном слиянии человеческого и искусственного интеллектов кажется весьма вероятным будущим. Недаром немало специалистов в области астробиологии (Андерс Сандберг, Стюарт Армстронг и Милан Циркович) объясняют парадокс Ферми – «где они?» тем, что человечество не встречает проявлений высокоразвитой жизни на других планетах и галактиках, потому что высокоразвитые существа, объединенные в единую интеллектуальную субстанцию, приняли решение перейти в режим гибернации и подождать несколько триллионов лет пока температура вселенной станет ниже, а, значит, существенно (на тысячу порядков) более подходящей для вычислительных процессов и коммуникативного взаимодействия на больших расстояниях. С этим тезисом гармонирует также гипотеза о том, что вся доступная нам вселенная, и мы в том числе, являемся компьютерной симуляцией, созданной высокоразвитыми цивилизациями, погрузившимися в цифровой симбиоз с искусственно созданными сущностями.

Те, кто рациональным мышлением обдумывает все последние достижения человечества в области компьютерной техники и искусственного интеллекта, в большинстве своем осознают тот факт, что сознательно или нет, но человек постоянно совершенствует как технологии хранения гигантских объемов данных (например, ДНК-память), вычислительную производительность (квантовые компьютеры), так и встраивает себя и привычное окружение в вычислительную среду (нейрокомпьютерный интерфейс, интернет вещей). Надев шлем и комбинезон виртуальной реальности и войдя в искусственный мир однажды, и внутри него в следующий раз, и так далее несколько раз (луковичное погружение), человек может запутаться, в каком мире он находится в текущий момент. И только несовершенства существующих сегодня компьютерных миров позволяют разобраться, где тот исходный реальный мир, в котором человек был рожден. Именно поэтому ответ на вопрос о запретных областях для ИИ для меня звучит так: таких областей, по всей видимости, нет, а если они есть, то скорее всего они со временем исчезнут из окружения человечества.

Может ли ИИ управлять вооружением, оборонными системами? Насколько существующие системы заслуживают доверия?

Думаю, что непосредственное управление любыми системами вооружения и оборонными системами вполне доступно искусственному интеллекту. Наверное, не все уже разработанные системы военного назначения достигли такого уровня, когда принимаемые ими решения и действия всегда будут совпадать с выполняемыми людьми, но ведь и люди разные. И по-разному применяют имеющиеся в их руках средства. Кроме того, все системы постоянно совершенствуются, причем гораздо более радикально, чем совершенствуются навыки у человека. Нетрудно создать робота-полководца, строящего свои решения, исходя из известного опыта всех полководцев, которые когда-либо существовали – от Чингисхана до маршала Жукова. Может ли появиться на свет такой человек, кто помнит все сражения в мире?

Недаром в США обсуждается вопрос о выдвижении системы искусственного интеллекта на пост президента. Одним из реальных кандидатов названа система IBM Watson. Не подверженный порокам человека такой интеллект может принимать решения в строгом соответствии с законом и уметь оптимизировать триллионы процессов, связывающих жизнь всех граждан страны с целью роста их благосостояния.

Можно ли использовать ИИ для хакерских атак, взлома ИТ-систем? Вам известны примеры, когда системы искусственного интеллекта создавали и обучали для деструктивного применения?

Все, что делают люди, способен делать и ИИ. К сожалению, немало людей на планете получают удовлетворение от деструктивной деятельности или готовы причинять другим вред ради достижения ими самими каких-либо нужных им результатов. Эти люди используют в своих целях все достижимые технологии и даже развивают деструктивные и наносящие вред, прикладывая собственные умственные усилия или инвестируя в создание таких решений. Так было всегда, и хакерские атаки, и взломы также получают усиление от применения ИИ. Примеры уже разработанных и применяемых систем ИИ для повышения эффективности атак на компьютерные системы известны. Достаточно погрузиться в «темный интернет» (Dark Web), и вы найдете немало программных средств проникновения и взлома для нарушения работы программных систем и сетевых инфраструктур. В качестве примера я упомяну PhaaS  (Phishin-as-a-Service), предлагающую организацию атак с целью хищения данных из чужой сети всего за 279 рублей (!) в месяц. Высокая эффективность взломов обеспечивается разработанной системой ИИ для автоматического исследования целевой сети и поиска всех возможных уязвимостей из известных на сегодняшний день. Далее строится код проникновения и организуется облачное хранилище похищенных данных.

Есть примеры, когда система ИИ доказывает свое превосходство над эрудицией человека? 

Эксперты выделили (февраль 2017 года) области, где ИИ превзошел человеческий. Прежде всего это обработка речи и естественного языка, распознавание лиц, классификация изображений и распознавание объектов, управление автомобилем, игра в сложные игры, стратегия управления и контроль инженерных систем.

И дело не только в быстроте работы с данными. Дело в том, что ИИ дает возможность вырабатывать решения не только на основе личного опыта одного человека, а на базе всей введенной в него истории решений, принятых многими людьми, и моделей ситуаций и объектов, построенных лучшими специалистами на планете. А также учета данных от всех доступных источников, которые человек не может охватить и учесть. Сегодня системы искусственного интеллекта уже чрезвычайно совершенны и ошибаются, как правило, в результате некачественного обучения, а не из-за ошибок в разработке.

Проблема масштабирования ИИ для различных задач человечества сегодня лежит в плоскости умения и желания людей их использовать. Ну и стоимость платформ поддержки нередко также выступает ограничителем. Многообещающим в этом аспекте выглядит запуск компанией Google системы искусственного интеллекта для обучения других систем искусственного интеллекта. Такая технология, названная AutoML – Automatic Machine Learning, представляет собой совершенный ИИ, способный проводить обучение систем ИИ для ограниченных предметных областей. «Ученики» такого ИИ уже стали частью программных комплексов в медицине, геологии и других сферах.

Можно ли доверить ИИ постановку медицинского диагноза и назначение лечения? Почему медицина, на ваш взгляд, относится к подобным решениям консервативно?

Во многих случаях диагноз, поставленный системой IBM Watson, используемой для диагностики онкологических заболеваний, на первых порах вызывал недоверие, однако при дополнительных обследованиях он, как правило, подтверждался. Сегодня ИИ чаще всего используется для диагностики в скрининговых обследованиях и показывает превосходные результаты. Больших успехов Watson достиг в помощи при разработке новых лекарственных препаратов и прогнозировании их воздействия. Это только один наиболее известный ИИ, начавший свое обучение с игрового шоу Jeopardy (российский клон – «Своя игра»).

Что касается назначения лечения, то пока системы ИИ находятся вне правового поля лечащего врача и могут выступать лишь консультантами, советниками. Известно, что страховые компании нередко используют системы на базе ИИ для сопоставления выработанного ими плана лечения и сделанного врачом в страховых случаях для выявления некомпетентности и ошибок. Это говорит в пользу уже имеющихся систем как замены лечащего врача во многих случаях. И здесь, как правило, проблема состоит в доведении до системы всей имеющейся о больном информации. Пока медучреждения не имеют доступ к информации обо всех аспектах жизни больных. Наверное, поэтому роль доктора остается значительной. Но, уступая лучшим докторам, системы ИИ становятся все более успешными диагностами и проводят более успешное лечение, чем врачи среднего и посредственного уровня.

Судя по зарубежным публикациям, медицина относится к применению ИИ не более консервативно, чем ко всем другим новым технологиям диагностирования или конкурентам в методиках лечения.

Верите ли вы, что развитие искусственного интеллекта несет опасность человечеству? Может ли программа, как в фантастических фильмах, решиться на уничтожение людей?

Гораздо большую опасность для человечества несет само человечество. А искусственный интеллект может нести опасность только в том случае, если его будут использовать люди, желающие создавать эти опасности. Проблема состоит в том, чтобы такие «плохие парни» не получили доступ к самому совершенному на планете ИИ, поскольку в этом случае созданный в их интересах суперинтеллект определенно нанесет непоправимый ущерб миру.

Плохие парни неистребимы, а развитие суперинтеллекта не остановить. Где же выход?

Илон Маск и его единомышленники видят его в том, чтобы самый сильный искусственный интеллект всегда был в открытом доступе, а не оказался в секретной лаборатории кого бы то ни было. С этой целью Илон Маск, Сэм Альтман, Грэг Брокман, Рэйд Хоффман, Джейсика Ливингстон и Питер Тайл создали и спонсируют бесприбыльную исследовательскую компанию Open AI, которая принимает на работу самых сильных разработчиков ИИ со всего мира, оплачивая их труд на основе контрактов, сравнимых по зарплатам только с сильнейшими игроками в футбол, хоккей или бейсбол. Результаты их работы появляются в открытом доступе и тем самым делают ИИ открытым и подконтрольным всему сообществу.

Первые разработки Open AI стали доступны в виде полигона для тестирования и обучения всех ИИ, использующих концепцию reinforcement learning, и представляют собой набор эмуляторов внешнего мира различной направленности. Следует заметить, что гигант Alphabet (торговая марка Google) также выкладывает в открытый доступ самые передовые технологии разработки ИИ и обеспечивает доступ к испытательным полигонам (Deep Mind). Все это говорит о том, что открытость разработок в области ИИ является принятым способом не позволить создавать в секретных лабораториях искусственный интеллект более могущественный, чем контролируемый. И тем самым сохранять надежду на то, что создаваемый суперинтеллект не окажется врагом человечества.

Какие разработки в области ИИ вы назвали бы самыми перспективными? 

С моей точки зрения, самыми перспективными разработками можно считать автопилоты, системы автономного управления транспортными средствами, разработанные и постоянно совершенствующиеся многими компаниями. Начало таким разработкам положила Google, продолжила Tesla Motors, и сейчас практически все производители транспортных средств разрабатывают для них системы беспилотного управления. Не меньше перспектив и у «вопросно-ответных» систем. Начало таким разработкам было положено IBM в их ИИ Watson, и сегодня продолжается многими университетами и индустрией. Такие системы становятся удобными и полезными собеседниками как в роли персональных помощников (например, Siri), так и в роли профессиональных экспертов для разрешения сложных и критических ситуаций. Например, ИИ – юристы.

В 2020-2025 годах появится предельно компетентный, справедливый и неподкупный суд в виде ИИ. И процессы, которые пройдут в этом суде, приведут к стремлению передать ИИ большинство процессов управления обществом.

Можно ли ждать прорыва в области развития искусственного разума, каким этот прорыв может быть и когда?

Говорить о «прорыве» в области искусственного интеллекта не вполне корректно. ИИ относится к так называемым «экспоненциальным технологиям», таким областям, где достижения удваиваются каждые несколько месяцев. То есть можно считать, что эта область находится в перманентном прорыве. Ежедневно просматривая новостные сообщения о разработках в области ИИ, только поражаешься неисчерпаемости фантазии и плодотворности исследователей и разработчиков в этой области. Сообщения о научных исследований постоянно чередуются с публикациями о новых продуктах, врывающихся на рынок, и сообщениями об удивительных результатах, полученных с помощью применения ИИ в различных областях. Если же говорить об ожидаемых событиях, сопровождаемых заметным хайпом в СМИ, в котором ИИ станет снова героем новостей, то я, наверное, не рискну делать технологических прогнозов.

Могу предположить, что ближайшим событием станет появление где-то предельно компетентного суда в форме искусственного интеллекта, справедливого и неподкупного. Случится это, видимо, в 2020-2025 годах. И процессы, которые пройдут в этом суде, приведут к неожиданным рефлексиям и стремлению многих людей передать ИИ большинство процессов управления человеческим обществом.

Об авторе

Владимир Волков

Белорусский журналист, автор многочисленных публикаций по развитию телекоммуникационной отрасли в Беларуси и России. Работал в “Белорусской деловой газете”, информационном агентстве БелаПАН и белорусском портале TUT.BY. Занимается исследованиями в области информационных коммуникаций, преподаватель института журналистики Белгосуниверситета.

Написать ответ

Send this to a friend

Перейти к верхней панели