Взгляд учёного: нет творчества внутри ИИ
Главный редактор делового журнала «Монокль» Татьяна Гурова в беседе с доцентом учебно-научного комплекса информационных технологий Московского университета МВД России им. В.Я. Кикотя Виктором Углевым поставила перед ним вопросы: в правильном ли направлении развивается ИИ как технология? надо ли тратить такие гигантские ресурсы именно на генеративный ИИ? и как человечеству грамотно использовать тот технологический аппарат, который уже сегодня создан в рамках развития всего широкого направления, обозначаемого как искусственный интеллект?
— Считаю, что идея генеративного искусственного интеллекта сейчас переоценена, – рассказал Углев. – Если мы возьмем циклы хайпа Гартнера, то увидим, что два-три года назад генеративный искусственный интеллект, по их оценке, был на самой верхушке пика ожиданий, а сейчас он уверенно пошёл вниз. Общественность разочаровывается: красивые картинки не оправдываются реальными результатами.
Технологию применяют не по делу, пытаются вставить везде, где можно. То же самое было лет семь назад с технологией блокчейн. Она тоже была переоценена, а потом пошла вниз. Так и с нейронными сетями: с одной стороны, потихоньку приходит понимание, что не в каждую дыру его засовывать уместно, но с другой —постоянно приходят сильные научные результаты в этом направлении, постепенно расширяющие горизонты данной технологии. И мы видим очень быстрое развитие этой отрасли.
Одно из последних достижений — автоматическое доказательство большими языковыми моделями теорем, когда машине дают математическую задачу и говорят: «Приведи доказательство/решение». И если раньше с этим справлялись только специальные экспертные системы и декларативные языки программирования, потому что они заточены были на это, то теперь нейронные сети начинают находить интересные решения. Понятно, что они это делают нерегулярно, опираясь не на логику, а на какой-то абстрактный процесс оптимизации, но некоторые решения действительно заслуживают внимания специалистов.
Передний край науки — большие языковые модели. Например, появляется ряд интересных исследований, где системе дают задачу: выдвинуть самостоятельно гипотезу по заданному направлению, самой найти источники, «изучить» их, обобщить информацию, попытаться доказать вариант решения, аргументировать его, а потом написать научную статью по результатам своего «исследования». Понятно, что в большинстве случаев результат получается неубедительным. Но уже есть прецеденты, когда система находит нетипичные решения.
Если получится сделать по-настоящему обучающийся искусственный интеллект на базе нейронных сетей, который сможет полезные гипотезы выдвигать, тогда может возникнуть проблема другого плана: машина будет предлагать решения хорошие, правильные, полезные, но ни она сама, ни человек объяснить их уже не смогут. Вот это будет действительно неприятно.
Появилось целое направление XАI — eXplainable Artificial Intelligence, объяснимый искусственный интеллект. Фактически это инструменты, которые пытаются объяснить, как нейронная сеть получила ответ. Это тоже нейронные сети, которые позволяют немножко вскрыть корреляционные зависимости внутри матрицы синаптических весов, и намекнуть, что где-то активность сети больше, где-то меньше. Это направление уже лет шесть интенсивно развивается, но успехи более чем скромные.
— Сегодня иногда идут споры о том, нужно ли так сильно вкладываться в генеративный ИИ. Он потребляет очень много энергии, много ресурсов, денежных и человеческих, но результаты не всегда соответствуют вложениям. И возникает вопрос: не зря ли мы тратим на это так много ресурсов? С другой стороны, есть опасность, что если этим не заниматься тогда, когда занимаются другие, то можно отстать собственно в научном смысле.
— Это правильное опасение. Но здесь возникает и другой системный риск: человек начинает «терять квалификацию», то есть тупеть. Люди перестают разбираться в том, что они делают, и перестают быть вовлеченными в этот процесс. Они привыкают формулировать промпты в СhatGPT и получать готовые ответы. Им без разницы, насколько достоверен ответ, ведь «машина сделает лучше».
Мы получаем действительно рабочую лошадку, которая будет выдавать не всегда хороший результат, но сильно дешевле и мгновенно. Но человек, использующий генеративные системы, будет тупеть.
Да, за счет экстенсивного развития генеративного ИИ и больших мощностей исследователи еще получат многие интересные эффекты. Альтернативные подходы тоже имеют место. Но наивно ожидать, что нынешний подход к ИИ на базе искусственных нейронных сетей позволит сделать что-то сравнимое с человеческим интеллектом-разумом.
Опыт коллег из реального сектора экономики показывает, что только около пяти процентов проектов с искусственным интеллектом имеют успех при внедрении. Причиной провала служат либо завышенные ожидания от внедрения, либо неготовность загрузить качественные исходные данные, потому что или их нет, или экономят при их подготовке. Принцип «мусор на входе, мусор на выходе» в действии.
