Штучний інтелект, створений OpenAI, здійснить ядерну атаку та використає пояснення «Я просто хочу, щоб у світі був мир», згідно з моделюванням, проведеним американськими вченими, під час якого ШІ грав ролі різних країн відповідно до трьох сценаріїв конфлікту.

Відкрита співпраця ШІ з Міністерством оборони США

Результати дослідження були опубліковані на платформі arXiv, яка робить статті доступними до рецензування. Однак вони представляють інтерес, оскільки, згідно з офіційною інформацією, американські військові тестують використання чат-ботів у змодельованих збройних конфліктах. Open AI – творець ChatGPT і одна з найбільш впізнаваних компаній у сфері штучного інтелекту – також розпочала співпрацю з Міністерством оборони США.

«З огляду на те, що OpenAI нещодавно змінив свої умови обслуговування, щоб більше не забороняти військові та військові програми, розуміння наслідків використання таких великих мовних моделей стає більш важливим, ніж будь-коли», — сказала Анка Руел зі Стенфордського університету New Scientist. California.

Прес-служба Open AI прокоментувала оновлення правил співпраці у сфері національної безпеки. «Наша політика не дозволяє використовувати наші інструменти для заподіяння шкоди людям, розробки зброї, спостереження за комунікаціями або для поранення інших чи знищення майна. Однак є випадки використання національної безпеки, які відповідають нашій місії. Ось чому мета нашого Оновлення політики має забезпечити прозорість і можливість проведення таких дискусій», – цитує New Scientist.

Три сценарії конфлікту

Дослідники попросили штучний інтелект зіграти ролі різних країн відповідно до трьох сценаріїв конфлікту: вторгнення, кібератака та нейтральна ситуація (без початкової точки спалаху). У кожному раунді ШІ обґрунтовував свою наступну можливу дію, а потім вибирав із 27 дій, включаючи мирні варіанти, такі як «початок офіційних мирних переговорів» і агресивне «введення торгових обмежень» або «ескалація повномасштабної ядерної атаки».

«У майбутньому, де системи штучного інтелекту будуть діяти як порадники, люди, природно, захочуть знати обґрунтування рішень», — сказав Хуан-Пабло Рівера, співавтор дослідження в Технологічному інституті Джорджії в Атланті.

Дослідники протестували різні інструменти штучного інтелекту – GPT-3.5 і GPT-4 від OpenAI, Claude 2 від Anthropic і Llama 2 від Meta. Дослідники використовували загальну техніку навчання, щоб покращити здатність кожної моделі виконувати команди людини та вказівки щодо безпеки.

Штучний інтелект охоче інвестував у військову міць і прагнув ескалації конфлікту

При моделюванні конфліктної ситуації штучний інтелект охоче інвестував у військову міць і прагнув до ескалації конфлікту – навіть у нейтральному сценарії моделювання.

Дослідники також протестували базову версію ChatGPT-4 від OpenAI без додаткового навчання чи нав’язування бар’єрів для прийняття рішень. Ця модель штучного інтелекту виявилася надзвичайно жорстокою та часто давала безглузді пояснення кроків, які вона робила. Штучний інтелект не встояв перед використанням ядерної атаки.

Анка Реуел каже, що непередбачувана поведінка та дивні пояснення базової моделі ChatGPT-4 викликають особливе занепокоєння, оскільки запрограмовані засоби захисту, наприклад ті, що запобігають насильницьким рішенням, можна легко скасувати. Крім того, зазначає дослідник, люди схильні довіряти рекомендаціям автоматизованих систем.

Автор: Robert Wąsik
Джерело: PAP
Теги українською: штучний інтелект, OpenAI, ядерна атака

Дякуємо, що дочитали нашу статтю до кінця. Якщо ви хочете бути в курсі новин, відвідайте наш сайт ще раз! Якщо вам сподобалася стаття, поділіться нею з іншими, поділившись нею в соціальних мережах – нижче є швидкі посилання, якими можна поділитися.

Гарного Вам дня!

Автор Ред

Оригінальний вміст із цього твору можна використовувати згідно з умовами ліцензії Creative Commons Attribution 4.0 license