В рамках X Международного форума технологического развития «Технопром» прошла дискуссия по теме «Нечеловеческий фактор: проблема доверия системам искусственного интеллекта». В ходе мероприятия специалисты в области математических и гуманитарных наук обсудили эту проблему с разных точек зрения.
Спикеры подняли вопросы надежности и безопасности использования искусственного интеллекта в разных сферах человеческой жизнедеятельности, этическое регулирование разработок, критерии доверия к системам ИИ, юридические требования к технологиям и возможность контроля со стороны общества над внедрением ИИ.
«Проблема доверия к ИИ объединяет гуманитарные, технические и естественно-научные вопросы, становится междисциплинарной темой. Чтобы ее конкретизировать, нужно различать интуитивные и формальные определения искусственного интеллекта. Исследователь, разработчик или пользователь должны быть убеждены в том, что имеется возможность компьютерной имитации человеческого интеллекта, феноменов сознательной деятельности», — отметил профессор философского факультета Государственного академического университета гуманитарных наук (Москва), координатор научных программ Научного совета по методологии искусственного интеллекта и когнитивных исследований при Президиуме РАН доктор философских наук Андрей Юрьевич Алексеев.
Заведующий лабораторией теории вычислимости и прикладной логики Института математики им. С. Л. Соболева СО РАН академик Сергей Савостьянович Гончаров выделил проблему работы ИИ под управлением человека, а не с помощью самостоятельного принятия решений. «Автоматическим способом этот вопрос решить невозможно, для каждой системы нужно разрабатывать специальные методы — сегодня такой подход и существует. Если мы создаем какую-то программу для управления большими системами, то в первую очередь нужно построить антологию этой программы, то есть использовать совместные усилия методологов, философов и математиков, — сказал ученый. — Когда мы говорим о человеческом интеллекте, то подразумеваем, что он возникает только в рамках социума ввиду необходимости объяснять другим людям свои знания, открытия, свое понимание каких-либо явлений. Сравнивать человека и результат его деятельности, в том числе вычислительные машины и разработанные программы, не всегда корректно. Юридические и этические аспекты стали сегодня достаточно актуальными, интересует вопрос: кто отвечает за результаты, полученные с помощью компьютерной системы? Нужно развивать подход к этой проблеме с точки зрения правильной постановки задачи, определения алгоритма».
Подвергнул сомнению вопрос о целесообразности доверия ИИ заведующий лабораторией аналитики потоковых данных и машинного обучения Новосибирского государственного университета кандидат физико-математических наук Евгений Николаевич Павловский. По мнению специалиста, системы ИИ должны выступать в качестве интеллектуальных помощников: «Нужно ли доверять искусственному интеллекту? Высказывались рассуждения, что он приведет к избавлению от рутинной работы, при этом повышается качество жизни. В отличие от этих ожиданий реальность сегодня совсем другая. Согласно социологическим исследованиям, люди не готовы отдать право на ошибку машине. Если в будущем мы хотим сохраниться как социум, то все решения должны оставаться за человеком. Что касается вопроса доверия, то само по себе доверие — это отношения между людьми, соответственно, когда мы говорим о таких взаимоотношениях, то подразумеваем уверенность в разработчиках программы».
Ведущий научный сотрудник Института философии и права СО РАН доктор философских наук Сергей Алевтинович Смирнов предложил к обсуждению гуманитарные вопросы использования ИИ. «Говоря о проблемах доверия, нужно брать в расчет не искусственный интеллект, а самих себя. Что именно делает человек и какие задачи ставит, когда разрабатывает системы ИИ? Что он передает машине, а что оставляет себе? Сегодня люди готовы делегировать помимо рутинного труда также и интеллектуальный. Задача заключается в том, чтобы выстраивать адекватный гибрид, где человек остается человеком, а машина — машиной, которую нельзя наделять человеческими качества. ИИ — это технология, инструмент, его нельзя описывать категориями субъекта. Следовательно, машина не может быть субъектом права или морали. Гуманитарная проблематика подразумевает появление каких-либо этических норм в деятельности, связанной с разработкой искусственного интеллекта. Мы же видим источник риска в самом ИИ, но это неправильно, — он находится в нас самих».
«Наука в Сибири»