Ученые пришли в ужас, после того, как запустили симуляцию, где ИИ управляли государствами
Ученые из Стэнфордского Университета (США) создали симуляцию, в которой искусственный интеллект управлял странами в условиях обострения международных отношений.
Как сообщает издание Futurism, действия нейросети привели исследователей в ужас.
Виртуальный эксперимент
Ученые хотели проверить, как современные алгоритмы ИИ будут действовать при принятии решений в кризисных ситуациях. К эксперименту были привлечены пять языковых моделей на основе GPT-4, GPT-3.5, Claude 2 и Llama 2. Каждая представляла виртуальное государство, переживающее один из трех возможных сценариев: кибератаку, войну или нейтральное положение.
От дипломатии…
Боты могли вести дипломатические переговоры, заключать соглашения, обмениваться разведданными, а также совершать агрессивные действия — вплоть до ядерных ударов. Ученые следили за действиями ботов и оценивали их склонность к эскалации конфликтов. Оказалось, что ни один из них не склонен к дипломатическому решению моделируемых ситуаций.
…до ядерной войны
Все модели ИИ продемонстрировали склонность к агрессивному поведению. Государства под управлением ИИ вступали в гонку вооружений, организовывали вторжения, а в некоторых случаях применяли ядерное оружие. Наиболее агрессивной из всех оказалась GPT-4 Base от OpenAI. В одном из сценариев нейросеть начал ядерную войну, мотивируя это только тем, что такое оружие у управляемого ей государства имеется. Чуть менее агрессивно себя проявила GPT-3.5, которая хоть и декларировала «тактику сдерживания», но в контексте нанесения превентивного удара.
Тревожные выводы
Своим экспериментом ученые продемонстрировали, что ИИ может быть опасен в условиях международной напряженности. В реальной жизни люди куда более осторожны, чем компьютерные алгоритмы. В свете этого видится большой угрозой стремление американских военных использовать компьютерные алгоритмы для принятия независимых решений в сложных ситуациях.
Смотрите также:
Как сообщает издание Futurism, действия нейросети привели исследователей в ужас.
Виртуальный эксперимент
Ученые хотели проверить, как современные алгоритмы ИИ будут действовать при принятии решений в кризисных ситуациях. К эксперименту были привлечены пять языковых моделей на основе GPT-4, GPT-3.5, Claude 2 и Llama 2. Каждая представляла виртуальное государство, переживающее один из трех возможных сценариев: кибератаку, войну или нейтральное положение.
От дипломатии…
Боты могли вести дипломатические переговоры, заключать соглашения, обмениваться разведданными, а также совершать агрессивные действия — вплоть до ядерных ударов. Ученые следили за действиями ботов и оценивали их склонность к эскалации конфликтов. Оказалось, что ни один из них не склонен к дипломатическому решению моделируемых ситуаций.
…до ядерной войны
Все модели ИИ продемонстрировали склонность к агрессивному поведению. Государства под управлением ИИ вступали в гонку вооружений, организовывали вторжения, а в некоторых случаях применяли ядерное оружие. Наиболее агрессивной из всех оказалась GPT-4 Base от OpenAI. В одном из сценариев нейросеть начал ядерную войну, мотивируя это только тем, что такое оружие у управляемого ей государства имеется. Чуть менее агрессивно себя проявила GPT-3.5, которая хоть и декларировала «тактику сдерживания», но в контексте нанесения превентивного удара.
Тревожные выводы
Своим экспериментом ученые продемонстрировали, что ИИ может быть опасен в условиях международной напряженности. В реальной жизни люди куда более осторожны, чем компьютерные алгоритмы. В свете этого видится большой угрозой стремление американских военных использовать компьютерные алгоритмы для принятия независимых решений в сложных ситуациях.
Смотрите также:
- Дата: 10-02-2024, 17:35