Расширенный поиск

Новой киберугрозой может обернуться для человечества разработка крупными софтверными корпорациями умных чат-ботов и искусственного интеллекта. В попытке скрещивания ботов и AI (Artificial intelligence), программисты рискуют создать высокоэффективный инструмент манипулирования, в том числе виртуальных убийц и вымогателей, считают разработчики.

Боты среди нас

Чат-боты давно среди нас, они есть почти в каждом мессенджере – от Telegram до Skype. Боты предлагают нам информацию, поддерживают разговор и учатся. Недавно Google выпустила новую программу для коммуникаций – Allo с первым чат-ботом, который обладает зачатками разума и каждый день обучается новым приемам. «Тенденция такова, что крупные софтверные компании открывают ресурсы самообучающихся систем для нужд разработчиков. В результате последние могут создавать разных ботов – хороших и плохих. Процесс создания интеллектуальных ботов только начался, но скоро станет массовым», – делится мнением с Digital.Report инженер по разработке ПО Juno Ltd Максим Усачев.

«Уже сегодня можно попросить бота купить билеты на самолет, найти информацию в интернете, записать или напомнить о событии. Это удобно, потому что по сути все сводится к одному приложению-мессенджеру, пишешь своему «помощнику» «закажи мне такси в офис» и в ответ получаешь какая машина и через сколько приедет. И если 5 лет назад это казалось фантастикой, то сейчас- это реальность», – говорит руководитель проекта «Социалджет» Николай Ронко.

Разработчик Epam Сергей Циплаков уверен, что программы не просто присутствуют в нашей жизни, но и влияют на нее. Может ли зависеть результат выборов президента США от логики поисковой машины Google? Сергей считает, что может.

«Мы видим Siri, ассистента Google. Пока они работают на простом уровне вопросов и ответов, но они будут развиваться, а их популярность будет расти. Очень скоро будет сложно определить искусственный разум за ответами, которые мы получаем, а сами ответу могут стать тенденциозными и помогут машинам манипулировать мировозрением и сознанием людей», – сказал Циплаков.

Человек или бот?

Ответ на этот вопрос через несколько лет будет дать довольно сложно. Мы приблизились к порогу, когда программы, боты пытаются копировать модель поведения человека. И искусственный интеллект дает принципиально новые возможности для развития имитационных программ.

Сейчас в мессенджерах достаточно просто отличить бота от обычного человека – у программ есть соответствующее обозначение. «В будущем все может изменится, потому что программисты обязательно будут встраивать в ботов AI. В результате «плохой» бот, например, сможет уговорить человека покончить жизнь самоубийством. Уже сейчас доступны механизмы, которые не позволяют человеку понять, с кем он общается в мессенджере – с роботом или живым собеседником. Все то, что может живой человек, можно реализовать с помощью бота», – уверен Усачев. Таким образом, скрещивание ботов и технологий искусственного интеллекта несет миру новые киберугрозы.

Мнение психолога

Врач, гештальт-тренер, сертифицированный тренер центра INTC, сооснователь Института современного нейролингвистического программирования (НЛП) Андрей Метельский не согласен с тем, что искусственный интеллект, пусть даже в отдаленном будущем, сможет оказывать безграничное влияние на поступки человека. «Искусственный интеллект возможен только когда будет создан компьютер по сложности не уступающий человеческому мозгу. До этого еще далеко. Могут ли боты программировать человека? Я думаю, что могут. Но в довольно ограниченной области. Довести человека до суицида программа не сможет. Надо преодолеть инстинкт самосохранения, а для этого нужно время, специальные наркотические препараты и оборудование воздействующее на мозг. Подтолкнуть к самоубийству в простой беседе нельзя. Это байки», – поясняет Андрей Метельский.

Эксперт приводит пример, что даже если подвергнуть сидящего в чате человека гипнозу, он вряд ли будет способен на убийство или самоубийство. «Человек под гипнозом выполнит любое указание, но только если он может выполнить его и без гипноза. Если человек не способен убить, то даже в глубоком трансе, как только поступит приказ, противоречащий нравственным установкам, он просто выйдет из транса. Каждый год проскакивают газетные «утки» про то, как какой-то психотерапевт при помощи гипноза соблазнял пациенток. Это неправда. Если бы пациентка не соблазнилась без гипноза, то в гипнозе она просто бы вышла из транса».

Программы-убийцы

Сегодня технологии искуственного интеллекта находятся в зачаточном состоянии. «Но вспомните, мы раньше считали дроны безобидными игрушками, а сейчас их можно использовать для любых целей – привязать бомбу и сбросить ее на дом, – предупреждает Усачев. Разработчик считает – боты могут убивать. Андрей Метельский уверен, что нет. Пока, нет.

Чтобы манипулировать человеком, программа должна научится его понимать, поясняет Метельский. «Есть два шага. Сначала нужно подстроится к человеку и только потом вести его. Никакой робот на это не способен. С другой стороны, все, что может человек, рано или поздно сможет и программа. Сейчас много случаев мошенничества, и в реальной жизни людей достаточно часто обманывают, подталкивают к определенным поступкам. Все это возможно и в интернете. Но если мы говорим о программе, то человек, которого она пытается обмануть, должен быть уверен, что разговаривает с родным, близким или своим другом», – говорит специалист по НЛП.

Равный человеку

Чтобы представлять серьезную угрозу искусственный интеллект должен стать равным человеческому. Как скоро это произойдет, эксперты ответить не могут, но процесс уже запущен. Программы становятся умнее, а вместо живых людей в чатах говорят боты.

«Чтобы использовать нейролингвистическое программирование нужен человеческий мозг. Слишком много переменных в каждой единице времени. Мозг способен это учесть, причем в большей части на бессознательном уровне», – говорит Метельский. При этом врач признает, что простые методики НЛП известны, и их можно запрограммировать и использовать.

В качестве примера он приводит известные приемы манипуляции общественным сознанием, о которых хорошо знают политики и маркетологи. «Например, в стрессовой ситуации, упирая на экономический кризис, программа может «подсказать» купить пять холодильников или три телевизора, чтобы не потерять деньги».

«Cмогут ли боты в будущем манипулировать людьми? О да! Они уже это делают и достаточно активно», – говорит Николай Ронко. И с каждым днем, по его словам, ботов будут становится все больше и больше.

Сегодня серьезной опасности боты не представляют, им можно доверять, особенно если речь идет об официальном боте организации. Они часть мира маркетинга, рекламы, развлечений, и человек сам решает, вступать с ним в диалог или нет. Но одно слово в комментариях экспертов повторяется постоянно – это «пока». Пока искусственный интеллект не станет равным человеческому.

Об авторе

Александр Николайчук

IT-журналист. Руководил отделом журналистских расследований в агентстве "Минск-Новости", работал журналистом в "БДГ: Деловая газета", "БДГ: Для служебного пользования", редактором интернет-издания "Белорусские новости" и TUT.BY. Автор проекта "Ежедневник", создатель PR-агентства ЕТС и PDF-журнала ET CETERA, систем Bonus.tut.by и Taxi.tut.by, рекламных и PR-проектов. Руководил Radio.tut.by и TB-TUT.BY. Награжден ассоциацией "Белинфоком" за вклад в освещение развития телекоммуникационной отрасли Беларуси. Главный редактор международного аналитического ресурса Digital-Report.ru, редактор "Слово делу".

Написать ответ

Send this to a friend
Перейти к верхней панели