Switch to desktop

НАТО РОЗРОБЛЯЄ СПІЛЬНІ ПІДХОДИ ДО ВИКОРИСТАННЯ ШТУЧНОГО ІНТЕЛЕКТУ В ОБОРОННИХ ПРОГРАМАХ НАПЕРЕДОДНІ САМІТУ НАТО 14 ЧЕРВНЯ

Представники НАТО обговорюють новий набір питань для держав-членів Альянсу щодо штучного інтелекту в оборонних програмах, оскільки Альянс шукає спільні домовленості до стратегічного документа, який має з'явитись цього літа.


Цей крок відбувається на тлі великих зусиль, щоб загострити перевагу НАТО у тому, що називається новими руйнуючими технологіями, або EDT. Останнім часом Альянс публічно заявив, що має справу з так званими EDT, і визначив сім областей науки і техніки, які можуть викликати пряму зацікавленість. Зараз, НАТО та представники його 30 держав-членів схвалили метод, який демонструє, як Альянс може сприяти розвитку цих прикладних наук - за рахунок посилення взаємозв'язків з інноваційними центрами та конкретними механізмами фінансування - та захищати інвестиції в EDT від зовнішніх впливів та експорту.
Зрештою, НАТО планує розробити індивідуальні стратегії для кожної із семи науково-технічних областей:

- штучного інтелекту,

- обробки даних та обчислювальної техніки,

- автономії,

- квантових технологій,

- біотехнологій,

- гіперзвукових технологій,

- космосу.

Однак на найближче майбутнє пріоритет мають штучний інтелект (ШІ) та інформаційні технології, повідомив Девід ван Веель (David van Weel), помічник Генерального секретаря НАТО з нових викликів у безпековій сфері.
Автономне та штучне інтелектуальне озброєння є ключовим елементом досягнення мети НАТО забезпечити технологічне лідерство у глобальному масштабі.
Очікується, що відповіді на саме ті питання, де Альянс потрапляє в діапазон між дозволом оборонних технологій на основі штучного інтелекту в деяких видах озброєння та відмовою від них в інших, будуть гостро обговорюватися напередодні саміту НАТО 14 червня.
"Ми домовились, що нам потрібні принципи відповідального використання, але ми також перебуваємо в процесі розмежування конкретних технологій", - заявив Девід ван Веель, на веб-заході, організованому на початку цього місяця Міністерством оборони Естонії.
Різні правила можуть застосовуватися до різних систем залежно від їх цільового використання та рівня автономності, зазначає він. Наприклад, алгоритм, що відбирає дані в рамках бек-офісної операції в штаб-квартирі НАТО в Брюсселі, буде розглядатися в іншому розрізі, ніж автономна зброя.
Крім того, для промисловості розробляються правила розуміння вимог, пов'язаних із забезпеченням системи дотримання майбутньої політики НАТО щодо штучного інтелекту. Ідея полягає в тому, щоб представити показники, що піддаються кількісному вимірюванню, щоб компанії змогли визначитись зі своїми розробками, сказав ван Веель.
Наразі представники Альянсу формують питання, щоб вести майбутню дискусію, додав він.
Вони варіюються від базових самоаналізів щодо того, чи підпадають системи, що підтримують ШІ, під “законодавчі мандати” НАТО, пояснив ван Веель, до того, чи є дана система вільною від упередженості.

Підзвітність та прозорість - ще два актуальні терміни, які, як очікується, стануть основними в дискусіях. Наприклад, аварії з автономними транспортними засобами піднімуть питання про те, хто несе відповідальність - виробники чи оператори.
На думку ван ВееляРівень бачення того, як системи приймають рішення, також буде мати вирішальне значення. “Чи можете Ви пояснити мені як оператору, чим займається ваш автономний автомобіль, і чому він робить певні речі? І якщо він робить те, чого ми не очікували, чи можемо ми його тоді вимкнути? " запитав він.
Зусилля НАТО найти спільну мову щодо штучного інтелекту є наслідком поштовху Європейського Союзу зробити те саме, хоча і без розгляду військових заявок. Крім того, Організація Об'єднаних Націй вже давно є форумом для обговорення наслідків зброї штучного інтелекту.
Деякі з цих організацій по суті щоразу переосмислювали ці питання, за словами Франка Зауера, дослідника з університету Бундесверу в Мюнхені.
За його словами, регулятори, як правило, надто зосереджуються на розбиранні різних визначень автономії та поєднанні їх з потенційними випадками використання.
"Ви повинні думати про це технологічно-агностично", - стверджував Зауер, пропонуючи чиновникам робити більший акцент на точній механіці людського контролю. "Давайте просто припустимо, що машина може робити все, що хоче - яку роль повинні відігравати люди?"