Согласно опросу ВЦИОМ, 12% россиян негативно относится к искусственному интеллекту и только треть понимает, как вообще он устроен. Недоверие растет из-за неумения производителей и разработчиков общаться с клиентом — нормальным языком, а не при помощи мелкого шрифта. А также из-за небрежности самих пользователей, привыкших доверять компьютерам слишком много личной информации. Daily Storm разбирался, есть ли для страхов объективные причины и можно ли полюбить искусственный разум.
По данным опроса, сильнее всего население беспокоят четыре блока проблем:
1. Возможность технических сбоев (31% опрошенных);
2. Угроза безопасности личных данных (21%);
3. Непредсказуемость перспектив и отсутствие знаний о последствиях внедрения ИИ (17%);
4. Замещение человеческих отношений на «машинные» (16%);
Каждый из этих блоков мы обсудили со специалистами в сфере ИИ, которые отчасти и являются распространителями навязчивых страхов в этой теме.
Технические неполадки
Сбои искусственного интеллекта — стандартное дело, как и для любого IT-продукта. Часто они происходят, если система просто не подготовлена к работе с ИИ. Например, не собраны данные, на которых искусственный интеллект будет оттачивать свое мастерство, не унифицированы хранилища, нет должной автоматизации.
«Та же налоговая служба сперва навела порядок по всем инспекциям. Все централизовала и только потом начала внедрять искусственный интеллект», — рассказал Daily Storm Станислав Ашманов, гендиректор компании «Нейросети Ашманова».
Иногда казусы возникают, если заказчик и производитель вовремя не уточнили детали сотрудничества. Станислав пояснил, как это бывает, на примере создания чат-ботов — виртуальных помощников для консультации клиентов. В компанию Ашманова обратился крупный телеком-оператор. По договору разработчики создают чат-бота, внедряют его, а затем отслеживают: какие фразы и вопросы бот не понимает, чтобы время от времени добавлять их в базу знаний. Затем заказчик запустил новый тариф — «В долг» (можно звонить и писать сообщения при минусовом балансе на счете), но разработчиков об этом не предупредили.
«Поскольку мы не знали о тарифе, то наш голосовой помощник работал по старой схеме. И вдруг нам прилетает негативное замечание. Чат-бота спрашивают: «Расскажи про тариф «В долг». А он отвечает: «Знаете, я сама денег в долг никогда не брала и вам не советую», — поделился историей Станислав Ашманов.
«Примерно то же самое было со Сбербанком и ключевым словом «спасибо». Банк запустил бонусную программу, а у нас слово «спасибо» используется постоянно, но совсем в другом смысле. Чат-бота просят: «Расскажи мне про бонусы «Спасибо». На что он отвечает: «Без проблем, рад был помочь», — добавил директор «Нейросети Ашманова».
По задумке разработчиков, ответы в разговорной форме наделяют помощника «личностью» и располагают к себе клиента. Наверняка многие устраивали похожие проверки на «человечность» для «Алисы» или Siri. Увы, пока ИИ не поспевает за всем разнообразием интерпретаций, но службы техподдержки, как правило, быстро устраняют ошибки.
Утечка личных данных
Чаще всего клиенты переживают за персональные данные, а вместе с тем — за соблюдение банковской и медицинской тайн, рассказали опрошенные Daily Storm предприниматели. В России заказчики опасаются утечек и мошенничества, в то время как в Азии, Америке (США) и Европе клиенты на удивление охотно «отгружают» данные.
Другое дело, что часто сам человек готов сообщить о себе куда больше информации, чем могут собрать камеры наблюдения и «подслушать» соцсети через аудиофайлы. Эксперты предупреждают: все выложенное анализируется и перепродается.
«Девушки спокойно выкладывают фотографии младенцев или делятся с подписчиками фото УЗИ. Тот же Facebook использует эти сведения не только для себя, а перепродает их еще десяткам рекламодателей. И через пять минут у девушки раздается звонок от робота, который предлагает получить купон на посещение детского садика через два с половиной года», — рассказал Станислав Ашманов.
Другой собеседник Daily Storm — основатель компании Instafilter Рустам Мирзахмедов — припомнил нового голосового помощника от Samsung. В начале января корейская компания представила публике робота-опекуна. Ballie — голосовой ассистент, оснащенный видеокамерой, но главное, он умеет перемещаться по дому за своим хозяином. Ballie записывает увиденную информацию и обрабатывает ее с помощью ИИ. Он может вызвать скорую помощь, если человеку стало плохо, или включить пылесос, если заметит непорядок в комнате.
«Милый желтый помощник, в духе азиатских технологий. Хотя, по сути, за тобой ездит камера на колесах и следит. Поэтому каждый сам выбирает, что он готов выставлять на показ», — прокомментировал разработку Рустам Мирзахмедов.
Незнание и непредсказуемость
Из-за того что производитель не раскрывает всех тонкостей своей работы, растет и недоверие клиентов к инновациям. А в случае претензий компанию спасает мелкий шрифт пользовательского соглашения, что вызывает у людей раздражение, а потому желания вникнуть в устройство технологий не возникает. Тема соглашений отлично обыграна в одной из серий мультсериала South Park. Герой не прочитал договор и принял условия приложения, согласно которым компания Apple может проводить над клиентом эксперименты.
«Даже если разработчики включат в мелкий шрифт фразу «А также этот робот может вас убить», вряд ли кто-то обратит на нее внимание. Пока производители не нашли удобного языка для общения с аудиторией. Просвещение — попросту невыгодно», — пояснил руководитель компании «Нейросети Ашманова».
Станислав Ашманов в целом солидарен с 12% населения, которые негативно относятся к искусственному интеллекту. Внедрять технологии нужно осторожно, например как в случае с кредитным рейтингом граждан, считает он.
«В некоторых странах Европы есть акты, регулирующие выставление кредитного рейтинга. Система обязана обосновывать, почему конкретный человек получил низкую оценку и не может рассчитывать на кредит. Это правильный подход, — указывает собеседник Daily Storm. — Если врач принимает решение ампутировать ногу, то объясняет почему. Большинство же технологий ИИ еще не научились четкой аргументации, отсюда и недоверие к их решениям».
«Одружелюбить» робототехнику и голосовых помощников куда проще. Достаточно наделить их «личностью» и симпатичным видом. Правда, если роботы станут слишком похожи на людей, то начнут вызывать еще больше страха у последних (так устроен эффект «зловещей долины»). Оптимальный вариант — милый и незаумный ассистент.
«Японцы любят милые формы. Можно вспомнить робота Aibo с большими мультяшными глазами и добродушной улыбкой, — привел пример основатель Instafilter Рустам Мирзахмедов, — «Алиса» нет-нет да и ответит что-нибудь веселое. Психология подсказывает, что женский голос больше располагает пользователей, поэтому почти все голосовые помощники — «женщины». Ну, за исключением «Олега» Тинькова».
Замещение человека машиной
Луддитская боязнь «человекозамещения» не в новинку для разработчиков искусственного интеллекта. В отношении «конвейерных» профессий, скажем, таких как кассир, этот страх уже прошел стадию принятия обществом. А вот к творческим специальностям он только подбирается. Искусственный интеллект уже научился придумывать статьи, сочинять стихи и писать картины. Правда, пока это воспринимается как игрушка и продукт сферы развлечений. Дескать, посмотрите, что еще умеет эта штука.
Однако реальная интеграция ИИ в творческую среду, по мнению экспертов, давно началась. Microsoft Word проверяет правописание у журналистов, а 3ds Max достраивает изображение за проектировщиков. Совместная, гибридная работа с участием робота не замещает человека, а ускоряет его труд. Обязанности людей в таких случаях сводятся к задаванию правильных запросов или направлений работы.
«То, насколько Google хороший поисковик, определяет то, насколько грамотно человек задает ему вопросы. То же самое и в творчестве. Дизайнер, художник, архитектор будут правильно задавать вопросы, а машина будет умело искать на них ответы», — спрогнозировал Рустам Мирзахмедов.