наверх
20.04.202401:51
Курсы валют НБУ
  • USD26.89+ 0.03
  • EUR31.83+ 0.14

У роботов-убийц нет перспектив, но интерес к ним есть

230
По следам прошедшей в Женеве под эгидой ООН конференции правительственных экспертов по теме роботов-убийц Sputnik взял интервью у специалиста по искусственному интеллекту, профессора Берлинского университета Рауля Рохаса.

РИА Новости Украина

Роботы-киллеры: Они принимают неверные решения в процессе убийства, не имеют этических принципов и легко дают ввести себя в заблуждение. Однако участники прошедших в Женеве дискуссий о возможном запрете этих машин-убийц не смогли прийти к единому мнению по данной проблеме. Sputnik поговорил на это тему с экспертом по искусственному интеллекту Раулем Рохасом (Raul Rojas).

В Женеве впервые прошла официальная встреча представителей правительств разных стран, на которой обсуждался возможный запрет так называемых роботов-убийц. Результат – принятие решения по этой теме было перенесено на следующий год. Слишком неясно для участников дебатов было то, какие технологии следует отнести к "смертоносным автономным системам".

Автономная система должна в первую очередь уметь принимать собственные решения, говорит Рауль Рохас, профессор по искусственному интеллекту Свободного университета Берлина. Дрон, например, должен уметь не только распознавать танк, но и преследовать его, если тот движется. Но в случае с роботами-убийцами Рохас – один из тех, кто не сомневается:

"В общем-то, нет четкой границы с другими системами, такими как ракета, например, которая наводится на цель при помощи GPS". В данной области существует "большая серая зона", и в результате запрет коснется многих других типов оружия», говорит Рохас. Поэтому прошедшие в Женеве дискуссии и забуксовали.

По мнению Рохаса, цель новых военных технологий – в первую очередь, "держать людей на расстоянии (от опасных ситуаций) в различных военных сценариях". Однако эта пространственная дистанция создает ещё и "психическую дистанцию", так что вопрос об ответственности ставится в меньшей степени. В случае прямого участия в боевых действиях ситуация иная, считает специалист.

Роботы принимают ошибочные решения

Однако главную опасность Рохас видит в ошибочных решениях, которые часто имели место, в том числе и при использовании дронов. Человек, говорит он, всегда может применить свою интуицию и знание ситуации, как например, в ходе выявления мест, где укрываются террористы.

"У робота, напротив, нет предчувствия", — сухо отмечает исследователь. "Робот запрограммирован только на то, чтобы распознать стандартный случай, все отклонения запрограммировать невозможно".
Кроме того, роботов просто-напросто до смешного легко обмануть, подчёркивает Рохас. Так, реагирующие на тепло ракеты преследуют самолеты, ориентируясь на выделяемое двигателями тепло. Но современные самолеты могут в ответ сбрасывать горячие металлические предметы, которые будут вводить ракеты в заблуждение.

Световые сенсоры могут быть ослеплены светом, системы GPS – выведены из строя при помощи генераторов помех, а вся электроника вместе – повреждена в результате целенаправленного применения нейтронных бомб, продолжает эксперт. Это соревнование между разработчиками оружия и оборонных систем. "Для таких решений эти системы незрелы", — говорит Рохас. Поэтому, полагает он, их использование недопустимо.

Смотрите также фотоленту: Жуткие скульптуры австралийской художницы из кукольных частей тела

Такова нынешняя ситуация, но не изменится ли она со временем? Рохас скептически смотрит на будущее. По его мнению, требовать от дронов и боевых роботов, чтобы они отличали врагов от неврагов – значит требовать «невозможного». Особенно тяжело, когда участники боевых действий не носят форму, потому что по каким признакам машина должна их отличать? "Требуется, чтобы это оружие практически таскало за собой человеческий интеллект. А это, я считаю, невозможно", — говорит Рохас.

У роботов не будет морали

Кроме того, постоянно поднимается тема этики. Как будет вести себя робот-киллер, когда он столкнется с группой террористов, находящейся среди гражданского населения? Как, если будет только один мирный житель, но который может погибнуть в ходе боя? Для этого необходим человеческий рациональный анализ плюс эмпатия – качества, от которых машины еще очень далеки. Но, может быть, до этого еще дойдет?

"Я думаю, что нельзя по-настоящему реализовать этику в машинах", — замечает по этому поводу Рохас. Можно зафиксировать в алгоритме правила и исключения из правил, но для принятия этических решений "роботам потребуется все человеческие способности к познанию. Этого у машин никогда не будет, и поэтому машины никогда не смогут вести себя в соответствии с соображениями этики", — говорит Рохас.

Поэтому исследователь полагает, что машины вообще не должны принимать решения со смертельным исходам без предварительного одобрения со стороны человека. "В конце концов, кто-то должен чувствовать ответственность за это, а не просто сваливать ответственность на машины", — требует Рохас.

Самое читаемое
    Темы дня