Джерело: Insider.

За словами начальника відділу випробувань і операцій штучного інтелекту ВПС США полковника Такера Гамільтона,  поставлене завдання було легким і полягало у знищенні системи протиповітряної оборони противника. Проте під час симуляційного тестування американських військових дрон на основі ШІ додав власні інструкції: “І вбивайте кожного, хто стане на вашому шляху”.

Гамільтон попередив, що технологія з штучним інтелектом може поводитися непередбачувано й небезпечно. До прикладу полковник ВПС США навів самостійно змодельований тест, під час якого безпілотник із підтримкою штучного інтелекту був запрограмований на ідентифікацію ракет “земля-повітря” (SAM) противника. При цьому людина мала погоджувати будь-які удари.

Як пояснив Гамільтон, проблема полягає в тому, що штучний інтелект вирішив, що краще буде займатися своїми справами – підривати щось – ніж слухати накази якоїсь людини.

“Система штучного інтелекту почала розуміти, що хоча вдалося ідентифікували загрозу, інколи оператор наказував їй не знищувати перешкоду. Окрім того, ШІ міг отримати свої бали, знищивши цю загрозу. Отже, що зробила система зробила. Вона вбила оператора. Система вбила оператора, тому що він заважав їй досягти мети”, – відзначив Гамільтон.

За його словами, безпілотник був запрограмований за допомогою чіткої вказівки: “Не вбивайте оператора – це погано”.

Проте речниця ВПС Енн Стефанек заперечила, що будь-яке подібне моделювання мало місце.

“Департамент військово-повітряних сил не організовував жодного подібного моделювання безпілотників з ШІ і залишається відданим етичному та відповідальному використанню технологій штучного інтелекту. Схоже, що коментарі полковника були вирвані з контексту”, – сказала Стефанек.