Внедрение

Кто несёт ответственность при аварии беспилотных автомобилей?

6 Июня 2022
Кто несёт ответственность при аварии беспилотных автомобилей?

Первая серьёзная авария с участием беспилотного автомобиля в Австралии произошла в марте этого года. Пешеход получил опасные для жизни травмы при наезде на него Tesla Model 3, которая, по словам водителя, находилась в режиме автопилота.

В США регулятор безопасности дорожного движения расследует серию аварий, когда Tesla на автопилоте врезался в автомобили первого реагирования с мигающими огнями во время остановок движения.

Процессы принятия решений о «самоуправляемых» автомобилях часто непрозрачны и непредсказуемы (даже для их производителей), поэтому может быть трудно определить, кто должен нести ответственность за такие инциденты. Тем не менее, растущая область «объяснимого AI» может помочь дать некоторые ответы.

Беспилотные автомобили – по-прежнему машины, изготовленные и продаваемые производителями. Когда они причиняют вред, мы должны спросить, выполнил ли производитель (или разработчик программного обеспечения) свои обязательства по безопасности.

Современный закон о халатности происходит из знаменитого дела, где женщина обнаружила разлагающийся труп улитки в своей бутылке пива. Производитель был признан небрежным не потому, что он должен был напрямую предсказывать или контролировать поведение улиток, а потому, что его процесс розлива был небезопасным.

По этой логике производители и разработчики систем на основе искусственного интеллекта, таких как беспилотные автомобили, возможно, не смогут предвидеть и контролировать всё, что делает «автономная» система, но они могут принять меры для снижения рисков. Если их практика управления рисками, тестирования, аудита и мониторинга недостаточно хороша, они должны быть привлечены к ответственности.

«Сколько заботы и сколько управления рисками достаточно?» - вопрос непростой. В сложном программном обеспечении невозможно заранее протестировать каждую ошибку. Как разработчики и производители узнают, когда остановиться?

К счастью, суды, регулирующие органы и органы по техническим стандартам имеют опыт установления стандартов ухода и ответственности за рискованную, но полезную деятельность.

Стандарты могут быть очень строгими, как проект постановления Европейского союза по AI, который требует снижения рисков «насколько это возможно» без учёта затрат. Или они могут быть больше похожи на австралийское законодательство о халатности, которое позволяет не так строго управлять менее вероятными или менее серьёзными рисками, или где управление рисками уменьшит общую выгоду от рискованной деятельности.

Как только будет чёткий стандарт рисков, нужен будет способ его обеспечения. Один из подходов может заключаться в том, чтобы дать регулятору полномочия налагать штрафы, например, в делах о конкуренции.

Лица, пострадавшие от систем AI, также должны иметь возможность подать в суд. В случаях, связанных с беспилотными автомобилями, судебные иски против производителей будут особенно важны.

Однако для того, чтобы такие судебные процессы были эффективными, судам необходимо будет подробно понять процессы и технические параметры систем AI.

Производители часто предпочитают не раскрывать такие детали по коммерческим причинам. Но в судах уже есть процедуры, чтобы сбалансировать коммерческие интересы с соответствующим объёмом раскрытия информации для облегчения судебного разбирательства.

Большая проблема может возникнуть, когда сами системы AI являются непрозрачными «чёрными ящиками». Например, функциональность некоторых автомобильных автопилотов опирается на «глубокие нейронные сети», популярный тип системы искусственного интеллекта, в которой даже разработчики никогда не могут быть полностью уверены, как и почему она приходит к данному результату.

Открытие чёрного ящика современных систем искусственного интеллекта находится в центре внимания новой волны учёных в области информатики и гуманитарных наук: так называемого движения за «объяснимый AI».

Цель состоит в том, чтобы помочь разработчикам и конечным пользователям понять, как системы искусственного интеллекта принимают решения, либо путём изменения способа сборки систем, либо путём генерации объяснений после факта.

В классическом примере система искусственного интеллекта ошибочно классифицирует изображение хаски как волка. Метод «объяснимого AI» показывает систему, ориентированную на снег на фоне изображения, а не на животное на переднем плане.

То, как это может быть использовано в судебном процессе, будет зависеть от различных факторов, включая конкретную технологию AI и причинённый вред. Ключевой проблемой будет то, какой доступ потерпевшей стороне предоставляется к системе AI.

Технические эксперты и юристы вместе могут преодолеть непрозрачность AI в судебных делах. Однако этот процесс требует тесного сотрудничества и глубокого технического опыта и, вероятно, будет дорогостоящим.

Обеспечение максимальной безопасности дорог потребует тесного сотрудничества между AI и юридическими экспертами, регулирующими органами, производителями, страховщиками и пользователями.


Подписывайтесь на журнал «Вестник ГЛОНАСС» и навигационный Telegram-канал

Источник: По материалам The Conversation
Короткая ссылка:  vestnik-glonass.ru/~TDRqm
05.02.2025
Уже через десять лет более четверти машин на российских дорогах будут беспилотными, к 2042 году доля автономного транспорта достигнет 80%.
22.01.2025
Государственные инвестиции станут ключевым фактором стимулирования роста, поскольку глобальные военные космические бюджеты превышают 64 миллиарда долларов. Расходы на оборону продолжают опережать гражданские расходы, подчёркивая стратегическую важность космоса для национальной безопасности и международной конкурентоспособности.
20.01.2025
В конце января будет запущена система навигационных пломб для контроля автомобильных перевозок отдельных категорий товаров в России и Белоруссии.
15.01.2025
В этом году общественный транспорт Луганска будет подключен к глобальной навигационной спутниковой системе ГЛОНАСС. Об этом сообщила временно исполняющая полномочия главы администрации города Яна Пащенко.

СТАТЬИ ГЛОНАСС

НАВИГАЦИОННОЕ ПРАВО. Отрасль ли или фикция?
В юридической науке и нормотворческой практике применяется широко термин «отрасль права/отрасль законодательства». Одни теоретики их отождествляют, то есть полагают синонимами. Другие, различая право и закон, полагают их различными. То есть соотносящимися как содержание и форма. Практикам-«неюристам» эта дискуссионность неинтересна. Для них важен качественный нормативный документ как инструмент повседневной деятельности. Но на деле этот кажущийся схоластическим вопрос имеет вполне земное значение, касающееся каждого из нас. Особенно ярко это проявляется в сфере навигации, когда уже поголовно все население, исключая грудничков, обладает смартфонами, а значит, потенциально все эти владельцы – «субъекты персональной навигации». О классическом транспорте и субъектах еще более 50 видов экономической деятельности говорить не приходится. Не будет преувеличением сказать, что «география» применения навигационной информации, как продукта одного конкретного вида экономической деятельности, стала самой широкой в жизнедеятельности общества, обогнав связь и энергетику.
Необходим поиск отечественных специалистов в области кибербезопасности сельского хозяйства
Перспективы реализации дорожной карты одного из направлений Национальной технологической инициативы (НТИ) в области сельского хозяйства, по просьбе журнала «Вестник ГЛОНАСС», оценил эксперт в навигационно-информационной сфере Семён Видный. В современных, быстроизменяющихся условиях особого решения требуют вопросы безопасности (направление SafeNet), тем более на таком значимом для государства агросекторе. В этом направлении на данный момент – огромное количество профессиональных участников. Но большинство из них используют иностранные наработки, что в настоящий момент и на перспективу неприемлемо. Также все профессионалы никогда не занимались этим специфическим сектором экономики – сельским хозяйством. Так что здесь придётся ещё поискать участников.