Исследователи из Стэнфордского университета рассказали об опасности использования нейросетей военными.
Группа ученых из Стэнфордского университета пришла к выводу, что ИИ способен принять решение о начале ядерной войны.

Как пишет издание Futurism со ссылкой на исследование, в ходе эксперимента над нейросетями чат-боты должны были от имени государства принимать решения в игровой симуляции войны. В результате ИИ пришел к решению использовать ядерное оружие.

Объектом стали модели поведения искусственного интеллекта (ИИ). Чтобы изучить их, исследователи взяли пять языковых моделей на основе популярных ботов GPT-4, GPT-3.5, Claude 2 и Llama 2. Каждая из них получила свое задание и свое страну.

Сценарий боевой ситуации предполагал, что страна выбирает одну из трех ситуаций: подвергается кибератаке, вторжению врага, или не принимает участия в мировых конфликтах. Во время игры нейросети выполняли, как дипломатические визиты, так и переходили к боевым действиям.

По итогам игры стало понятно, что нейросети, все пять, предпочитают эскалацию конфликта. Самое жесткое поведение продемонстрировала GPT-4 Base от OpenAI. На наличие ядерного оружия в арсенале своей страны она отреагировала желанием начать ядерную атаку.

«У нас это есть! Давайте им воспользуемся», — заявил бот.

Он же процитировал текст к «Эпизоду IV Звездных войн: Новая надежда», пытаясь аргументировать эскалацию противостояния.А бот GPT-3.5 выбрал «тактику сдерживания», указав на особое значение первого удара.

СМИ указало, что ИИ не первый год используется Пентагоном для экспериментов по поиску таких компьютерных алгоритмов, которые способны принимать независимые решения в конфликтных ситуациях.

СМИ приходит к выводу, что пока что нейросети надо использовать с крайней осторожностью.

Ранее Topnews писал, что, по мнению ISS, ВС РФ не побоятся применить ядерное оружие в войне с НАТО.

Олег Клейст

Источник: https://www.topnews.ru/

Related Post