Внедрение

Искусственный интеллект опасен без дотошного регулирования

23 Июня 2023
Искусственный интеллект опасен без дотошного регулирования

Мысль о том, что технологии ИИ должны регулироваться, разделяется, наверное, всеми. Большинство правительств, разработчики продуктов с элементами ИИ и даже обычные пользователи продуктов ИИ согласны с этим. Но никто не знает, как конкретно.

Технологии искусственного интеллекта, если их не остановить, могут негативно изменить наш образ жизни и вообще поставить под угрозу наше существование. Но как правительства могут ориентироваться в лабиринте проблем, возникающих в этой быстро развивающейся области?

1. Правила конфиденциальности и защиты данных.

Одной из основных проблем, связанных с технологиями ИИ, является конфиденциальность и безопасность данных. Системы с элементами искусственного интеллекта — это машины, жадные до данных. Им нужны данные для работы, больше данных для эффективности и ещё больше данных для улучшения. Хотя это не проблема, способ получения этих данных, их природа, а также то, как они обрабатываются и хранятся, являются одними из самых важных тем для обсуждения, касающихся правил ИИ.

Принимая это во внимание, логичным путём является введение строгих правил конфиденциальности данных, которые регулируют сбор, хранение и обработку данных, а также права лиц, чьи данные используются, на доступ к своим данным и управление ими. Вопросы, которые, скорее всего, будут затронуты в этих правилах:

• Какие данные можно собирать?

• Должны ли некоторые личные данные считаться табу в ИИ?

• Как компании должны обращаться с конфиденциальными личными данными, такими как медицинские записи или биометрические данные?

• Должны ли компании внедрять механизмы, позволяющие отдельным лицам легко запрашивать удаление или исправление своих личных данных?

• Каковы последствия для компаний, которые не соблюдают правила конфиденциальности данных? Как следует контролировать соблюдение и как обеспечивать правоприменение?

• Самое главное: какой стандарт должны внедрить компании, чтобы обеспечить безопасность конфиденциальной информации, которой они обладают?

Эти и некоторые другие вопросы легли в основу того, почему ChatGPT был временно запрещен в Италии. Если эти проблемы не будут решены, пространство искусственного интеллекта может стать «диким западом» для конфиденциальности данных, а запрет в Италии может стать образцом для запретов других стран мира.

2. Разработка этической основы ИИ.

Компании, занимающиеся искусственным интеллектом, часто хвастаются своей приверженностью этическим принципам при разработке систем искусственного интеллекта. По крайней мере, на бумаге все они являются сторонниками ответственной разработки ИИ.

Но кто устанавливает правила? Кто решает, какие этические принципы ИИ достаточно хороши? Кто решает, как выглядит безопасная разработка ИИ? В настоящее время каждая компания, занимающаяся ИИ, кажется, по-своему относится к ответственной и этичной разработке ИИ. Просто полагаться на компании, занимающиеся искусственным интеллектом, опасно.

Последствия неконтролируемого пространства ИИ могут быть катастрофическими. Позволить отдельным компаниям решать, какие этические принципы принять, а от каких отказаться, сродни лунатизму на пути к апокалипсису ИИ. Решение? Чёткая этическая основа ИИ, обеспечивающая следующее:

• Системы ИИ не ставят в невыгодное положение и не дискриминируют отдельных лиц или определённые группы на основании расы, пола или социально-экономического статуса.

• Системы искусственного интеллекта безопасны, защищены и надёжны и сводят к минимуму риск непредвиденных последствий или вредоносного поведения.

• Системы искусственного интеллекта создаются с учётом более широкого социального воздействия технологий искусственного интеллекта.

• Люди сохраняют полный контроль над системами ИИ и прозрачно принимают решения.

• Системы ИИ намеренно ограничены способами, выгодными для человека.

3. Специальное регулирующее агентство.

Из-за потенциального воздействия на человеческую цивилизацию обсуждение безопасности ИИ обычно проводится параллельно с риском кризиса в области здравоохранения или ядерной катастрофы. Чтобы избежать потенциальных ядерных инцидентов, необходимо специальное агентство. Чтобы избежать риска опасных кризисов со здоровьем, необходимо создать что-то типа FDA (Управление по санитарному надзору за качеством пищевых продуктов и медикаментов).

Точно так же, чтобы гарантировать, что в области ИИ ничего не пойдёт не так, необходимо специальное агентство, подобное FDA, поскольку ИИ продолжает агрессивно вторгаться во все сферы нашей жизни. К сожалению, вопрос регулирования ИИ внутри страны является сложным. Работа любого специализированного регулирующего органа, вероятно, будет мучительно тяжелой без трансграничного сотрудничества.

Такое агентство будет нести ответственность за следующее:

• Разработка правил ИИ

• Обеспечение соблюдения и правоприменения

• Наблюдение за процессом этической проверки проектов ИИ

• Сотрудничество и межстрановое сотрудничество в области безопасности и этики ИИ

4. Решение проблем, связанных с авторскими правами и интеллектуальной собственностью.

Существующие законы об авторском праве и правовые рамки рушатся перед лицом искусственного интеллекта. То, как устроены инструменты ИИ, особенно генеративные инструменты ИИ, делает их похожими на публично одобренную машину для нарушения авторских прав, с которой вы ничего не можете поделать.

Как? Что ж, многие современные системы с элементами искусственного интеллекта обучаются с использованием материалов, защищённых авторским правом. Защищённые авторским правом статьи, защищённые авторским правом песни, защищённые авторским правом изображения и т.д. Вот как такие инструменты, как ChatGPT, Bing AI и Google Bard, могут делать, на первый взгляд, удивительные вещи.

Хотя эти системы явно пользуются интеллектуальной собственностью людей, то, как эти системы ИИ делают это, ничем не отличается от того, как человек читает книгу, защищённую авторским правом, слушает песни, защищённые авторским правом, или смотрит на изображения, защищённые авторским правом.

Вы можете прочитать книгу, защищённую авторским правом, узнать из неё новые факты и использовать эти факты в качестве основы для своей собственной книги. Вы также можете послушать песню, защищённую авторским правом, чтобы вдохновиться на создание собственной музыки. В обоих случаях вы использовали материалы, защищённые авторским правом, но это не обязательно означает, что производный продукт нарушает авторские права оригинала.

Хотя это логическое объяснение, объясняющее беспорядок, который ИИ создаёт в законах об авторском праве, оно всё же наносит ущерб владельцам авторских прав и интеллектуальной собственности. В связи с этим нормативные документы необходимы для:

• Чётко определите ответственность и обязанности всех сторон, участвующих в жизненном цикле системы ИИ. Это включает в себя уточнение ролей каждой стороны, от разработчиков ИИ до конечных пользователей, чтобы гарантировать, что ответственные стороны несут ответственность за любые нарушения авторских прав или прав интеллектуальной собственности, совершённые системами ИИ.

• Укрепить существующие рамки авторского права и, возможно, ввести законы об авторском праве, относящиеся к ИИ.

• Чтобы обеспечить инновации в области искусственного интеллекта и защитить права первоначальных создателей, правила использования искусственного интеллекта должны переопределить концепции добросовестного использования и преобразующей работы в контексте контента, созданного искусственным интеллектом. Необходимы более чёткие определения и руководящие принципы, чтобы гарантировать, что пространство ИИ может продолжать улучшаться при соблюдении авторских прав. Важно найти баланс между инновациями и защитой прав создателей контента.

• Чёткие пути для сотрудничества с правообладателями. Если системы ИИ все равно будут использовать интеллектуальную собственность людей, должны быть чёткие пути или рамки для сотрудничества разработчиков ИИ и правообладателей, особенно с точки зрения финансовых компенсаций, если производная работа такой интеллектуальной собственности будет коммерциализирована.

В то время как искусственный интеллект стал многообещающим решением многих наших социальных проблем, сам ИИ быстро становится проблемой, требующей срочного решения. Пришло время сделать шаг назад, подумать и внести необходимые исправления, чтобы обеспечить положительное влияние ИИ на общество. Нам отчаянно нужна срочная перекалибровка нашего подхода к созданию и использованию систем ИИ.


Подписывайтесь на журнал «Вестник ГЛОНАСС» и навигационный Telegram-канал

Короткая ссылка:  vestnik-glonass.ru/~5J1K1
05.02.2025
Уже через десять лет более четверти машин на российских дорогах будут беспилотными, к 2042 году доля автономного транспорта достигнет 80%.
22.01.2025
Государственные инвестиции станут ключевым фактором стимулирования роста, поскольку глобальные военные космические бюджеты превышают 64 миллиарда долларов. Расходы на оборону продолжают опережать гражданские расходы, подчёркивая стратегическую важность космоса для национальной безопасности и международной конкурентоспособности.
20.01.2025
В конце января будет запущена система навигационных пломб для контроля автомобильных перевозок отдельных категорий товаров в России и Белоруссии.
15.01.2025
В этом году общественный транспорт Луганска будет подключен к глобальной навигационной спутниковой системе ГЛОНАСС. Об этом сообщила временно исполняющая полномочия главы администрации города Яна Пащенко.

СТАТЬИ ГЛОНАСС

НАВИГАЦИОННОЕ ПРАВО. Отрасль ли или фикция?
В юридической науке и нормотворческой практике применяется широко термин «отрасль права/отрасль законодательства». Одни теоретики их отождествляют, то есть полагают синонимами. Другие, различая право и закон, полагают их различными. То есть соотносящимися как содержание и форма. Практикам-«неюристам» эта дискуссионность неинтересна. Для них важен качественный нормативный документ как инструмент повседневной деятельности. Но на деле этот кажущийся схоластическим вопрос имеет вполне земное значение, касающееся каждого из нас. Особенно ярко это проявляется в сфере навигации, когда уже поголовно все население, исключая грудничков, обладает смартфонами, а значит, потенциально все эти владельцы – «субъекты персональной навигации». О классическом транспорте и субъектах еще более 50 видов экономической деятельности говорить не приходится. Не будет преувеличением сказать, что «география» применения навигационной информации, как продукта одного конкретного вида экономической деятельности, стала самой широкой в жизнедеятельности общества, обогнав связь и энергетику.
Необходим поиск отечественных специалистов в области кибербезопасности сельского хозяйства
Перспективы реализации дорожной карты одного из направлений Национальной технологической инициативы (НТИ) в области сельского хозяйства, по просьбе журнала «Вестник ГЛОНАСС», оценил эксперт в навигационно-информационной сфере Семён Видный. В современных, быстроизменяющихся условиях особого решения требуют вопросы безопасности (направление SafeNet), тем более на таком значимом для государства агросекторе. В этом направлении на данный момент – огромное количество профессиональных участников. Но большинство из них используют иностранные наработки, что в настоящий момент и на перспективу неприемлемо. Также все профессионалы никогда не занимались этим специфическим сектором экономики – сельским хозяйством. Так что здесь придётся ещё поискать участников.