Чотири основні договори та три наступні протоколи Женевських конвенцій 1949 року, разом із Гаазькими конвенціями та Женевським протоколом, встановлюють правила використання звичайної, біологічної та хімічної зброї під час збройного конфлікту, визначають головні права військових персоналу, цивільних осіб, військовополонених, поранених і хворих у воєнний час.
Ці міжнародні угоди, особливо щодо типів та використання зброї, є продуктом епохи, в яку вони були написані, причому останнє оновлення було узгоджене понад 40 років тому - в Конвенції ООН про певні види звичайної зброї.
ПРИЄДНУЙТЕСЯ ДО НАС
Підписуйтесь на наш Viber-канал.
Нова технологічна епоха під знаком ШІ
Історія розробки нових договорів така, що до моменту, як проблема, що впливає на ведення війни, буде ідентифікована, інтерпретована відповідно до чинних угод, написана як документ, складений відповідно до міжнародних правових стандартів, узгоджена та переписана, вона може бути застарілою, оскільки характер збройного конфлікту вже змінився.
Багато хто вважає, що це стосується чинних угод, особливо коли ми зіткнулися з викликом справжнього "гіперстрибку" можливостей сучасних технологій, які штучний інтелект (ШІ), робототехніка та кіберзброя принесли на поле бою.
Досягнення в галузі ШІ та технології дронів прискорилися через масове їх застосування та ефективність на полі бою в Україні, що викликало етичні та моральні занепокоєння серед політиків, науковців, експертів з прав людини та, не в останню чергу, військових.
Адміністрація Байдена наполягає на досягненні міжнародного консенсусу щодо необхідності законодавчо передбачити включення етичних принципів для будь-якого процесу з залученням ШІ для завдання смертельної шкоди, зокрема, певний рівень контролю людиною будь-якого процесу автономного прийняття рішень. Ця ініціатива поки що не має підтримки більшості країн, зокрема, Китаю, Росії та КНДР.
Джеффрі Гінтон, відомий своєю роботою над штучними нейронними мережами, за що його назвали "хрещеним батьком ШІ", який пішов з Google через власні занепокоєння щодо технології, висловив свою стурбованість щодо напрямку досліджень у розробці зброї та інших галузях прийняття рішень в інтерв’ю японському інформаційному агентству Yomiuri Shimbun у грудні.
Згадуючи фільми "Термінатор", він сказав, що є реальна небезпека в тому, щоб передати системам штучного інтелекту можливість самостійно можливість приймати рішення, коли є дійсно масштабні проблеми, як-от зміна клімату. Він наголосив, що ШІ реально може визначити саме людство проблемою і може запровадити заходи безпеки, щоб захистити себе від втручання людини та уникнути відключення.
"Системи ШІ можуть швидко перевершити людей у все більшій кількості завдань... Вони можуть посилити соціальну несправедливість, підірвати соціальну стабільність і послабити наше спільне розуміння реальності, що є фундаментальним для суспільства", - сказав Гінтон.
Він сказав, що ще більше його турбує розробка озброєння, оснащеного ШІ, яке буде здатне самостійно приймати рішення про вибір цілей для атаки, без участі людей.
Апелюючи до розробки Женевських конвенцій необхідність яких виникла виникла лише після жахливих подій Першої світової війни (коли почали масово застосовувати хімічну зброю - ред.), він висловив стурбованість тим, що міжнародна спільнота почне діяти лише тоді, коли через ШІ станеться катастрофа.
Гінтон каже, що формування міжнародних угод щодо регулювання ШІ ускладнюється "через конкуренцію між великими технологічними компаніями, а також між державами".
Здатність ШІ підвищувати ефективність систем озброєння, особливо в поєднанні з технологічними досягненнями в сенсорах, комунікаціях та обчисленнях, підвищує можливості дронів на полі бою і, безперечно, має потенціал робити це з іншою тактичною, а також стратегічною зброєю.
Гінтон і Джоном Гопфілдом отримав Нобелівську премію з фізики 2024 року "за фундаментальні відкриття та винаходи, які дозволяють машинне навчання зі штучними нейронними мережами".
Необхідне міжнародне законодавство, яке регулювало б розвиток ШІ
Зараз поширеною стала тенденція до того, щоб збільшувати можливості автономного прийняття рішень для зброї зі ШІ. Так що день, коли деякі види такої зброї зможуть стати повністю автономними, не за горами.
Нездатність домовитися та дотримуватися етичних принципів та обмежень у застосуванні ШІ для військових цілей становить потенційно значний ризик для прав та захисту, які наразі мають як військові, так і некомбатанти, у майбутньому.
Зараз саме час для державних органів та інших організацій випередити час і, принаймні, розпочати дискусію щодо контролю глобальної гонки зброї штучного інтелекту.
На мій погляд, це має рухатися далі, ніж просто розмови. Найбільші потуги світу мають розпочати, безсумнівно, тривалий процес розробки та додавання протоколу до Женевських конвенцій, який закріпить у міжнародному гуманітарному праві контроль над загрозою, яку вже становить ШІ на полі бою.
Погляди, висловлені автором у цій статті, можуть не поділятися Kyiv Post.