РАН: Только научный подход сделает ИИ безопасным инструментом
Заместитель президента РАН, академик Арутюн Аветисян, считает, что современные системы искусственного интеллекта (ИИ) значительно уступают настоящему разуму и скорого перехода к «сильному ИИ» ожидать не стоит. Однако уже сегодня угрозы, связанные с ИИ, имеют комплексный характер, объединяя аспекты кибербезопасности и социогуманитарных рисков. Для того, чтобы обеспечить доверие к технологии, по его мнению, необходимо сочетание научных исследований и регуляторных мер.
Арутюн Аветисян поясняет, что слабый ИИ опирается на опыт, в то время как сильный ИИ должен обладать разумом. Современные системы, основанные на анализе данных, ещё далеки от сильного ИИ. Тем не менее исследования в этой области, включая разработку отдельных элементов сильного ИИ, следует продолжать, не ожидая скорого прорыва. «Если посмотреть наши направления форсайта в этой области, одно из них — элементы сильного искусственного интеллекта. Их нужно развивать, но не надеясь, что ближайшие пять-десять лет мы получим соответствующие технологии и какой-то невероятный прорыв с прикладной точки зрения», — отметил учёный.
Управление пресс-службы РАН цитирует академика, рассказывающего о том, что угрозы, связанные с ИИ, имеют два аспекта. Первый — кибербезопасность: неправильное использование ИИ для защиты систем, анализа данных или управления автомобилем может создать уязвимости для критической инфраструктуры. Второй аспект — социогуманитарный, который, по его мнению, представляет ещё большую опасность. ВОЗ фиксирует случаи, когда люди под влиянием ИИ совершали суицид или убивали членов семьи. Кроме того, возможны политические сценарии, в которых ИИ используется для манипуляции и дестабилизации общества.
Для ответа на эти вызовы необходимо опираться на науку. Организационные меры, направленные только на запрет технологии, неэффективны. «Комбинации научных и организационных подходов могут обеспечить высокий уровень доверия, не ограничивая внедрение», — подчеркнул Арутюн Аветисян.