Армія США використовує ШІ для пришвидшення операцій проти Ірану

Армія США використовує ШІ для пришвидшення операцій проти Ірану

Збройні сили США активно застосовують інструменти штучного інтелекту для обробки великих масивів даних під час військових операцій проти Ірану. Як пише Bloomberg, про це повідомили у Центральному командуванні США (CENTCOM), підкресливши, що нові технології дедалі більше впливають на сучасні бойові дії.

За словами речника командування капітана Тімоті Гокінса, штучний інтелект відіграє важливу роль у первинному відборі та аналізі великої кількості розвідувальних даних. Це дозволяє людським аналітикам зосередитися на складнішій перевірці інформації та прийнятті рішень.

"CENTCOM використовує різні інструменти ШІ, але вони лише допомагають експертам у суворому процесі, який відповідає політиці США, військовій доктрині та законодавству", – сказав Гокінс. Він додав, що остаточні рішення щодо ураження цілей ухвалюють люди, а не алгоритми.
За інформацією джерел, обізнаних з операціями, однією з ключових систем стала платформа управління місіями Maven Smart System, розроблена компанією Palantir Technologies. Вона об'єднує дані з понад 150 різних джерел та допомагає військовим швидше аналізувати інформацію.

У системі також використовуються великі мовні моделі, зокрема Claude від компанії Anthropic. За словами співрозмовників журналістів, цей інструмент добре зарекомендував себе і став важливим елементом аналізу даних під час операцій проти Ірану.

Водночас навколо співпраці Пентагону з Anthropic триває суперечка. Після того як сторони не змогли домовитися про умови використання технологій компанії, міністр оборони США Піт Гегсет назвав її ризиком для ланцюга постачання і дав військовим підрядникам шість місяців, щоб припинити співпрацю. Президент Дональд Трамп також доручив федеральним агентствам припинити роботу з компанією, назвавши її "неконтрольованою радикально-лівою".

На тлі цього конфлікту компанія OpenAI уклала контракт із Міністерством оборони США. Однак після відтоку користувачів ChatGPT та хвилі критики вона назвала це рішення "поспішним" і оголосила про певні зміни.

Використання ШІ у військових діях викликає дискусії. Деякі правозахисні організації, зокрема коаліція Stop Killer Robots, застерігають, що системи підтримки рішень на основі ШІ можуть розмити межу між рекомендаціями алгоритмів і фактичним застосуванням сили.