Даже самый нетупой ИИ не всякий раз среагирует на крайнюю ситуацию

В отличие от людей, роботакси не способны решить проблему, с которой они никогда раньше не сталкивались.
Разработка автономных транспортных средств заняла гораздо больше времени, чем прогнозировали многие представители отрасли. Одним из основных факторов, замедляющих прогресс, является тот факт, что искусственный интеллект, используемый в транспортных средствах, в настоящее время никак не может связать причину со следствием.
Хотя ИИ всех впечатляет, он отнюдь не настолько разумен, как человек. В настоящее время технология не позволяет ему рассуждать или делать выводы, по крайней мере, в большинстве транспортных средств. Это означает, что роботакси неспособны решать проблемы, столкнувшись с какой-нибудь новой ситуацией.
В результате хаос реального мира может стать большой проблемой для AV. В отрасли странные новые сценарии называют «пограничными случаями», и именно этот термин использовался для описания инцидента, из-за которого в прошлом году роботакси компании сошло с дороги.
В том случае женщину сбил другой автомобиль, и она отскочила под беспилотный автомобиль. Подавляющее большинство из нас никогда не сталкивались с этим, но мы все знаем, что нужно остановиться, а не пытаться съехать на обочину, как это сделало роботакси, протащив за собой раненую женщину несколько футов по дороге. Машинное действо не было злонамеренным, машина просто не могла понять, что происходит, и не была наделена способностью предсказывать, какое влияние могут иметь её действия.
Однако у независимых исследователей есть некоторые стратегии, позволяющие предотвратить принятие плохих решений. Например, люди-операторы могут взять на себя управление в ситуациях, когда программа не готова с чем-то справиться. Данные об этих инцидентах отслеживаются, передаются обратно в симуляторы, а реакция человека используется для подготовки транспортного средства к будущему.
В процессе обучения некоторые компании стараются продумать как можно больше сценариев ещё до того, как автомобиль отправится в путь. Это может включать в себя ручное кодирование или промежуточные сценарии, которые используются для обучения автономных транспортных средств в безопасном месте. Хотя исследователи признают, что они никогда не смогут продумать все крайние случаи, но стараются всё сделать по максимуму.
Однако некоторые эксперты теперь полагают, что эти методы обучения, возможно, никогда не смогут эффективно подготовить роботакси к хаосу реального мира. Без причинно-следственных рассуждений ИИ, возможно, никогда не сможет разобраться во всех существующих крайних случаях.
Решение проблемы означает нечто большее, чем просто дать ИИ возможность рассуждать причинно. Фактически, технология до сих пор не позволяла выносить слишком много причинно-следственных суждений, чтобы предотвратить возникновение непредсказуемых ложных срабатываний. Это решение было принято ради безопасности, но оно оставляет исследователям парадокс, который нужно решить, хотят ли они создать роботакси, которое действительно сможет самостоятельно перемещаться по дороге: должны ли беспилотные автомобили совершать ошибки, потому что они тупые, или потому, что они зашли не в ту сторону?
Подписывайтесь на журнал «Вестник ГЛОНАСС» и навигационный Telegram-канал
По материалам открытых источников