Внедрение

Искусственный интеллект опасен без дотошного регулирования

23 Июня 2023
Искусственный интеллект опасен без дотошного регулирования

Мысль о том, что технологии ИИ должны регулироваться, разделяется, наверное, всеми. Большинство правительств, разработчики продуктов с элементами ИИ и даже обычные пользователи продуктов ИИ согласны с этим. Но никто не знает, как конкретно.

Технологии искусственного интеллекта, если их не остановить, могут негативно изменить наш образ жизни и вообще поставить под угрозу наше существование. Но как правительства могут ориентироваться в лабиринте проблем, возникающих в этой быстро развивающейся области?

1. Правила конфиденциальности и защиты данных.

Одной из основных проблем, связанных с технологиями ИИ, является конфиденциальность и безопасность данных. Системы с элементами искусственного интеллекта — это машины, жадные до данных. Им нужны данные для работы, больше данных для эффективности и ещё больше данных для улучшения. Хотя это не проблема, способ получения этих данных, их природа, а также то, как они обрабатываются и хранятся, являются одними из самых важных тем для обсуждения, касающихся правил ИИ.

Принимая это во внимание, логичным путём является введение строгих правил конфиденциальности данных, которые регулируют сбор, хранение и обработку данных, а также права лиц, чьи данные используются, на доступ к своим данным и управление ими. Вопросы, которые, скорее всего, будут затронуты в этих правилах:

• Какие данные можно собирать?

• Должны ли некоторые личные данные считаться табу в ИИ?

• Как компании должны обращаться с конфиденциальными личными данными, такими как медицинские записи или биометрические данные?

• Должны ли компании внедрять механизмы, позволяющие отдельным лицам легко запрашивать удаление или исправление своих личных данных?

• Каковы последствия для компаний, которые не соблюдают правила конфиденциальности данных? Как следует контролировать соблюдение и как обеспечивать правоприменение?

• Самое главное: какой стандарт должны внедрить компании, чтобы обеспечить безопасность конфиденциальной информации, которой они обладают?

Эти и некоторые другие вопросы легли в основу того, почему ChatGPT был временно запрещен в Италии. Если эти проблемы не будут решены, пространство искусственного интеллекта может стать «диким западом» для конфиденциальности данных, а запрет в Италии может стать образцом для запретов других стран мира.

2. Разработка этической основы ИИ.

Компании, занимающиеся искусственным интеллектом, часто хвастаются своей приверженностью этическим принципам при разработке систем искусственного интеллекта. По крайней мере, на бумаге все они являются сторонниками ответственной разработки ИИ.

Но кто устанавливает правила? Кто решает, какие этические принципы ИИ достаточно хороши? Кто решает, как выглядит безопасная разработка ИИ? В настоящее время каждая компания, занимающаяся ИИ, кажется, по-своему относится к ответственной и этичной разработке ИИ. Просто полагаться на компании, занимающиеся искусственным интеллектом, опасно.

Последствия неконтролируемого пространства ИИ могут быть катастрофическими. Позволить отдельным компаниям решать, какие этические принципы принять, а от каких отказаться, сродни лунатизму на пути к апокалипсису ИИ. Решение? Чёткая этическая основа ИИ, обеспечивающая следующее:

• Системы ИИ не ставят в невыгодное положение и не дискриминируют отдельных лиц или определённые группы на основании расы, пола или социально-экономического статуса.

• Системы искусственного интеллекта безопасны, защищены и надёжны и сводят к минимуму риск непредвиденных последствий или вредоносного поведения.

• Системы искусственного интеллекта создаются с учётом более широкого социального воздействия технологий искусственного интеллекта.

• Люди сохраняют полный контроль над системами ИИ и прозрачно принимают решения.

• Системы ИИ намеренно ограничены способами, выгодными для человека.

3. Специальное регулирующее агентство.

Из-за потенциального воздействия на человеческую цивилизацию обсуждение безопасности ИИ обычно проводится параллельно с риском кризиса в области здравоохранения или ядерной катастрофы. Чтобы избежать потенциальных ядерных инцидентов, необходимо специальное агентство. Чтобы избежать риска опасных кризисов со здоровьем, необходимо создать что-то типа FDA (Управление по санитарному надзору за качеством пищевых продуктов и медикаментов).

Точно так же, чтобы гарантировать, что в области ИИ ничего не пойдёт не так, необходимо специальное агентство, подобное FDA, поскольку ИИ продолжает агрессивно вторгаться во все сферы нашей жизни. К сожалению, вопрос регулирования ИИ внутри страны является сложным. Работа любого специализированного регулирующего органа, вероятно, будет мучительно тяжелой без трансграничного сотрудничества.

Такое агентство будет нести ответственность за следующее:

• Разработка правил ИИ

• Обеспечение соблюдения и правоприменения

• Наблюдение за процессом этической проверки проектов ИИ

• Сотрудничество и межстрановое сотрудничество в области безопасности и этики ИИ

4. Решение проблем, связанных с авторскими правами и интеллектуальной собственностью.

Существующие законы об авторском праве и правовые рамки рушатся перед лицом искусственного интеллекта. То, как устроены инструменты ИИ, особенно генеративные инструменты ИИ, делает их похожими на публично одобренную машину для нарушения авторских прав, с которой вы ничего не можете поделать.

Как? Что ж, многие современные системы с элементами искусственного интеллекта обучаются с использованием материалов, защищённых авторским правом. Защищённые авторским правом статьи, защищённые авторским правом песни, защищённые авторским правом изображения и т.д. Вот как такие инструменты, как ChatGPT, Bing AI и Google Bard, могут делать, на первый взгляд, удивительные вещи.

Хотя эти системы явно пользуются интеллектуальной собственностью людей, то, как эти системы ИИ делают это, ничем не отличается от того, как человек читает книгу, защищённую авторским правом, слушает песни, защищённые авторским правом, или смотрит на изображения, защищённые авторским правом.

Вы можете прочитать книгу, защищённую авторским правом, узнать из неё новые факты и использовать эти факты в качестве основы для своей собственной книги. Вы также можете послушать песню, защищённую авторским правом, чтобы вдохновиться на создание собственной музыки. В обоих случаях вы использовали материалы, защищённые авторским правом, но это не обязательно означает, что производный продукт нарушает авторские права оригинала.

Хотя это логическое объяснение, объясняющее беспорядок, который ИИ создаёт в законах об авторском праве, оно всё же наносит ущерб владельцам авторских прав и интеллектуальной собственности. В связи с этим нормативные документы необходимы для:

• Чётко определите ответственность и обязанности всех сторон, участвующих в жизненном цикле системы ИИ. Это включает в себя уточнение ролей каждой стороны, от разработчиков ИИ до конечных пользователей, чтобы гарантировать, что ответственные стороны несут ответственность за любые нарушения авторских прав или прав интеллектуальной собственности, совершённые системами ИИ.

• Укрепить существующие рамки авторского права и, возможно, ввести законы об авторском праве, относящиеся к ИИ.

• Чтобы обеспечить инновации в области искусственного интеллекта и защитить права первоначальных создателей, правила использования искусственного интеллекта должны переопределить концепции добросовестного использования и преобразующей работы в контексте контента, созданного искусственным интеллектом. Необходимы более чёткие определения и руководящие принципы, чтобы гарантировать, что пространство ИИ может продолжать улучшаться при соблюдении авторских прав. Важно найти баланс между инновациями и защитой прав создателей контента.

• Чёткие пути для сотрудничества с правообладателями. Если системы ИИ все равно будут использовать интеллектуальную собственность людей, должны быть чёткие пути или рамки для сотрудничества разработчиков ИИ и правообладателей, особенно с точки зрения финансовых компенсаций, если производная работа такой интеллектуальной собственности будет коммерциализирована.

В то время как искусственный интеллект стал многообещающим решением многих наших социальных проблем, сам ИИ быстро становится проблемой, требующей срочного решения. Пришло время сделать шаг назад, подумать и внести необходимые исправления, чтобы обеспечить положительное влияние ИИ на общество. Нам отчаянно нужна срочная перекалибровка нашего подхода к созданию и использованию систем ИИ.


Подписывайтесь на журнал «Вестник ГЛОНАСС» и навигационный Telegram-канал

Короткая ссылка:  vestnik-glonass.ru/~5J1K1
27.04.2024
Вопросы популяризации сервисов и услуг на основе системы ГЛОНАСС в странах Евразийского экономического союза обсудили представители Ассоциации разработчиков, производителей и потребителей оборудования и приложений на основе глобальных навигационных спутниковых систем «ГЛОНАСС/ГНСС-Форум» и Евразийской экономической комиссии. Встреча прошла на полях международного форуму «Автонет».
27.04.2024
Беспилотные автомобили, также известные как автономные транспортные средства (AV), оснащены необычными датчиками, камерами и сверхумным искусственным интеллектом (ИИ), и всё это позволяет им самостоятельно перемещаться по дорогам.
25.04.2024
Россия будет усиливать космическую группировку арктических спутников для более качественного круглогодичного и круглосуточного мониторинга Севморпути, заявил премьер-министр РФ Михаил Мишустин в рамках коллегии Росгидромета.
24.04.2024
Евросоюз заявил о растущей взаимосвязанности коммунальных предприятий в городах и потенциального риска нанесения широкомасштабного вреда гражданам, если те вдруг станут жертвами кибератак.

СТАТЬИ ГЛОНАСС

Необходим поиск отечественных специалистов в области кибербезопасности сельского хозяйства
Перспективы реализации дорожной карты одного из направлений Национальной технологической инициативы (НТИ) в области сельского хозяйства, по просьбе журнала «Вестник ГЛОНАСС», оценил эксперт в навигационно-информационной сфере Семён Видный. В современных, быстроизменяющихся условиях особого решения требуют вопросы безопасности (направление SafeNet), тем более на таком значимом для государства агросекторе. В этом направлении на данный момент – огромное количество профессиональных участников. Но большинство из них используют иностранные наработки, что в настоящий момент и на перспективу неприемлемо. Также все профессионалы никогда не занимались этим специфическим сектором экономики – сельским хозяйством. Так что здесь придётся ещё поискать участников.
Аграриям предстоит работать в одной системе координат
Как известно, основой современного цифрового агрокомплекса является картогорафирование. Семён Видный, эксперт в области применения современных навигационно-информационных технологий в сельском хозяйстве поделился с читателями журнала «Вестник ГЛОНАСС» с кругом решаемых проблем при обработке массивов картографических данных. Таким образом, выяснилось, что все используют данные в различных системах координат, но пытаются укладывать их на одну картографическую основу и, соответственно, получают нестыковки и ошибки. Всё это приводит к тому, что используемые данные из Роскадастра, из Центров химизации и от высокоточных источников (данные дистанционного зондирования Земли, данные с беспилотников и высокоточных навигационных или геодезических приборов) не состыковываются друг с другом и только вводят в заблуждение сельхозтоваропроизводителей и собственников сельхозземель. И это также отражается на отношениях со смежными землепользователями.