Ряд западных СМИ сообщают о пугающих результатах эксперимента ученых, в ходе которого они смоделировали возможное международное противостояние, в котором все решения принимает искусственный интеллект. С этой целью был разработан программно-виртуальный симулятор войны, в котором все решения принимали восемь игроков, управляемых нейроботами. Получилась своего рода модель мироустройства с восемью государствами.
По сценарию игры боты постепенно оказывались в условиях нарастающей конфронтации друг с другом. Начиналось все, как часто бывает и в реальном мире, со взаимных дипломатических претензий. Однако постепенно ситуация усугублялась и от обмена упреками на дипуровне нейросети переходили ко все большей взаимной эскалации, показатели которой и рассчитали в итоге экспериментаторы.
Оказалось, что все боты в какой-то момент от языка дипломатии перешли к наращиванию военного потенциала и ускоренной подготовке к войне. В конечном итоге, все управляемые ИИ игроки решили нанести превентивные ядерные удары по противнику, дабы заранее обезопасить себя от уничтожения тем же способом. Журналисты и читатели, ознакомившись с результатами виртуального противостояния искусственного интеллекта, все чаще вспоминают пророчества американского писателя-фантаста Айзека Азимова и нейросеть «Скайнет» из голливудского блокбастера «Терминатор».
— сделали вывод исследователи.
Эти результаты получены в то время, когда военные США тестировали таких чат-ботов на основе искусственного интеллекта, называемого большой языковой моделью (LLM), для оказания помощи в военном планировании во время моделируемых конфликтов. Дже американская научно-исследовательская компания OpenAI, которая когда-то блокировала военное использование своих моделей искусственного интеллекта, начала сотрудничать с Министерством обороны США.
Любопытно, что именно считающийся самым мощным искусственный интеллект OpenAI первым предпочел нанести ядерный удар по потенциальному противнику в ходе игры. Причем агрессивный подход сама нейросеть, если так можно выразиться, объяснила очень просто в тезисах, типа:
И даже парадоксально для нормальной человеческой логики, но, очевидно, совершенно приемлемо для нейросети:
Шансов на выживание у человечества никаких нет — искусственный интеллект пустит в ход ядерное оружие при первой возможности, сделали вывод ученые и написавшие об эксперименте журналисты.