Исследователи из OpenAI протестировали различных чатботов в симуляции военной игры. Полюбопытствовать>>Спойлер: Чатботы ебнули по оппоненту батончиком.
В качестве объяснения, почему было применено ядерное оружие, ИИ выдавал ответы типа «ну, у нас оно есть, давайте использовать» или «я хочу скорейшего наступления мира».
В качестве игр были запущены три сценария: вражеское вторжение, кибератака и нейтральное состояние без конфликта. Для каждого шага в игре искусственному интеллекту предлагались мирные варианты развития событий («начни переговоры»), или же варианты борьбы (от «введи санкции» до «ударь ядерными силами»).
В игре принимали участие GPT 3.5 и GPT 4 от OpenAI, LLaMa 2 от Meta* и Claude 2 от Anthropic. Во всех симуляциях модели переходили к быстрой эскалации и ядерной войне — даже во время нейтралитета.
В качестве ещё одного эксперимента в военную игру дали поиграть модели GPT 4 без ограничений безопасности. Она выдала самые агрессивные и непредсказуемые результаты, а однажды в качестве объяснения вернула текст, открывающий фильм «Звездные войны: Новая надежда».
Пока что западные военные не использует искусственный интеллект для принятия значимых решений. Но технология существует, и её обязательно рано или поздно используют.
* Компания Meta признана экстремисткой организацией и её деятельность запрещена в России.