NBC News
Хотя конкретного ответа на этот вопрос нет, исследовательская группа из Германии считает, что мораль может вскоре сыграть определённую роль в том, как самоуправляемые автомобили будут принимать решения.
Факты говорят о том, что человеческая мораль слишком зависит от контекста происходящего для точного моделирования, а это означает, что её нельзя эффективно интегрировать в алгоритм самостоятельного управления. Исследователи из Института когнитивных наук при Оснабрюкском университете в Германии допускают, что на самом деле это не так.
SFGate
Участникам исследования было предложено управлять машиной в виртуальной реальности по городским улицам туманной ночью. В виртуальных путешествиях им создавали аварийные ситуации, когда невозможно было избежать столкновения с неодушевленными предметами, животными или людьми. Последующие решения были смоделированы и превращены в набор правил, создающих модель «ценности жизни» для каждого человека, животного и неодушевленного объекта, который может быть вовлечен в дорожный инцидент.
«Теперь, когда мы знаем, как внедрять человеческие этические решения в машины, мы, как общество, все ещё остаёмся с двойной дилеммой, — говорит профессор Питер Кениг, основной автор статьи в журнале Frontiers in Behavioral Neuroscience. — Во-первых, мы должны решить, должны ли моральные ценности быть включены в руководящие принципы поведения машин, а во-вторых, если они есть, должны ли машины действовать точно так же, как люди?».
Авторы исследования предупреждают, что автономные автомобили — это только начало, поскольку роботы и другие системы искусственного интеллекта становятся всё более распространенными. Мы сейчас находимся в начале новой эпохи, когда необходимо выработать чёткие правила, иначе машины начнут принимать решения без нас.