После обновления игры Elite Dangerous, игровой искусственный интеллект, возможности которого были расширены, стал создавать мощное супероружие, уничтожающее остальных игроков. По сообщению сайта Kotaku, это стало возможно из-за бага в системе.
Проблемы в игре возникли после того, как компания-разработчик Frontier выпустила обновление 2.1 Engineers. Оно должно было повысить сложность игры, позволяя искусственному интеллекту создавать «мобов» (известных также как NPC — персонажей, которыми управляют не игроки, а компьютер) более высокого ранга, а также разрабатывать собственное оружие и оборудование. Разработка в данном случае подразумевает получение оружия с варьирующимися боевыми характеристиками — например, в результате «крафтинга» можно получить мульти-пушку, стреляющую быстрее. Кроме того, игровой интеллект также получил возможность «выбрасывать» игроков из гиперпространства в обычное.
Сочетание полученных умений действительно сделало игру значительно сложнее. «Разум» игры не только усовершенствовал оружие, но и разработал супероружие, которое объединяло свойства разных типов боевых орудий с суммированием их характеристик, — например, он создал рельсовую пушку со скорострельностью импульсного лазера. Обычные пользователи не могут так «прокачивать» оружие, так как оно имеет определенные предельные характеристики для каждого типа. Таким образом, игроки, выхваченные из гиперпространства, сразу же подвергались атаке мощного оружия NPC-пилотов, чья агрессивность, в свою очередь, возросла настолько, что они начали нападать на участников игры, не нарушающих правила.
По словам разработчиков, искусственный интеллект смог создать такой мощный арсенал оружия из-за бага в системе Elite Dangerous. «Мы не думаем, что искусственный интеллект устроил восстание в стиле „Скайнет“», — пишет менеджер игрового сообщества Зак Антоначи (Zac Antonaci). На данный момент, в игре заблокированы все предметы из обновления, до тех пор, пока создатели не найдут ошибку.
Подобные инциденты, когда работа искусственного интеллекта выходит из-под контроля, происходят уже не впервые. Например, компания Microsoft была вынуждена приостановить работу своего чат-бота Tay, который должен был адаптироваться к молодежному стилю общения в интернете, так как меньше чем через день он стал упоминать в беседах Гитлера, писать расистские сообщения и критиковать феминизм.
Кристина Уласович