Военният AI или надпреварата за SkyNet
Страхът, че в един момент изкуственият интелект (AI) ще се обърне срещу създателите си е силно внедрен в човешката култура през целия 20 век и продължава и през настоящия. Почти всяка голяма научно-фантастична творба, в която е замесен генерален AI, той започва борба срещу хората. От „Дюн“ и „Бътлеровия джихад“, през „Матрицата“ до Ex Machina. Но може би най-емблематичният от всички е поредицата „Терминатор“, в която главна роля на антагонист е военната система SkyNet, която иска да заличи човечеството.
Затова, едни от първите асоциации обикновено са сцени, в които метални терминатори тръгват на лов за хора, когато говорим за интеграция на AI във въоръжените сили. Изкуственият интелект и автоматизираните системи създават и други проблеми, като например чия е отговорността за последствията от действията им на фронта. Както и изобщо трябва ли да даваме на алгоритмите силата да унищожават и прекратяват човешки животи.
Това са моралните и етичните дилеми с които се сблъскват AI разработчиците, не само от възхода на ChatGPT, но и години преди това. Въпреки тях, натискът за внедряване на изкуствения интелект за военни цели се засилва, особено предвид все по-голямото противопоставяне между САЩ и Китай. Изминалата 2024 г. беляза такова развитие, като технологичните компании влязоха в силна надпревара за поръчки за Департамента на отбраната на САЩ. Дори част от гигантите, които в предходни години се въздържаха, поради морални причини да стоят настрани се включиха. С други думи – започна надпреварата за създаването на SkyNet. Метафорично казано, засега…
Съпротивата на нърдовете

Някои от технологичните гиганти до скоро се противопоставяха или срещаха вътрешна съпротива при работа за военните, когато става дума за AI през последните години. Най-пословичен е примерът с Google и DeepMind. Звеното за изкуствен интелект на интернет компанията е придобито през 2014 г. В договорът за сделката е включена клауза, че технологията никога няма да се използва за военни цели.
Това създаде напрежение през 2018 г., когато Google сключва договор с Пентагона да използва AI за анализиране на изображения от дронове в т.нар. проект Maven. Тогава служителите на компанията изпратиха писмо подписано от над 3 хил. от тях, с които призовават „бизнесът на Google да не се използва за война“. Тогава, технологичният гигант успя да го извърти, тъй като договорът е само за анализ на данни и затова може да се изпълни. Компромис, който тогава и служителите приеха.
Година по-късно същото се случва и с Microsoft, които работят доста повече с Пентагона. През 2019 г. обаче служители на софтуерния гигант се противопоставят на договор за 480 млн. долара, който трябва да преработи очилата за добавена реалност (AR) HoloLens във военен продукт. Протестът не постига целите си, нито и самият проект за армията. HoloLens не се оказва пригоден за бойното поле и за надеждно оборудване за войниците.
В края на 2024 г. подобна съпротива има и в редиците на OpenAI, но тя придобива по-малка гласност. Тогава, служители на компанията се обявяват против работата ѝ за военните, но това е изразено във вътрешен форум и не получава достатъчно гласност. Факт е, че OpenAI все още се води дружество с идеална цел, в което има залегнали принципи за моралното ползване на технологията. Съоснователят Сам Алтман се опитва през последната година да го трансформира в пълнокръвна корпорация, но все още не може да намери правилната формула.
Поръчки за милиард(и)

Основната причина, технологичните компании да се оглеждат за военни поръчки е повече от тривиална – става дума за пари, за много пари. Само през 2023 г. и 2024 г. по данни на Forbes са сключени контракти за над 1 млрд. долара, които включват в някаква степен употребата на изкуствен интелект. Тъй като става дума за военни поръчки, повечето от тях не са публично достояние. За тези, които се знае, детайлите също липсват. Пентагонът например е дал 117 млн. долара на ECS, подразделение на ASGN за разработката на прототипи на алгоритми за самообучение.
Няколко поръчки е получила Palantir на обща стойност 571 млн. долара, като по-големият контракт е за пет години. Те включват достъп до системата за анализ на големи данни Maven Smart System, която най-вероятно е свързана и с проекта на Google от 2018 г. Както и за създаването на нов интерфейс за нея. Трудно може да се каже, колко от тези поръчки обхващат AI, но поне една от тях на стойност 91 млн. долара е за интеграцията на „изкуствен интелект за нуждите на отбраната“.
Отново не пряко свързан с AI, но косвено може да се разгледа мегаконтрактът на Microsoft за 10 млрд. долара. Той е за 10 години и превръща облачната платформа на софтуерния гигант в основна на Пентагона. Договорът е подписан през 2022 г. и обхваща периода до 2032 г. Microsoft все повече интегрира различни AI функционалности в Azure, доста от които се базират на разработките на OpenAI. Софтуерният гигант инвестира милиарди долари в компанията, за да може да използва нейните технологии в своите продукти и услуги.
OpenAI също навлиза самостоятелно макар и отново косвено, чрез партньорство с вече установен доставчик за отбраната в самия край на 2024 г. Компанията ще работи съвместно със стартъпа Anduril, който разработва ракети, дронове и софтуер за американската армия. Целта е с алгоритмите на OpenAI да се подобрят възможностите за противовъздушна отбрана, както и да дава повече информация на операторите на дронове в реално време.
Камуфлажът на изкуствения интелект

От малкото парчета на този голям пъзел, може да се сглоби частична картина за какво ще се използва AI. Като резултатите ще са доста логични. Изкуственият интелект е доста мощен инструмент за бърза обработка на информация, особено на големи масиви от такава. В такава посока са и описаните по-горе проекти. Целта е интеграцията на AI в големи бази данни и обработването им.
Проект Mavin е интересен, защото при него изкуственият интелект се използва за анализиране на видеоизображения. Войната в Украйна е доста показателна, колко важна е правилната идентификация на целите. Докато двете страни на фронта го правят това основно на око, хипотетично разпознаването може да стане и чрез алгоритми.
Хипотетичните военни приложения са наистина огромни. AI може да се използва и за по-малко цели свързани директно с бойните действия. Изкуственият интелект може да подобри анализирането на комуникационните, радио и радарни сигнали. AI също така е добър за анализирането на различни ситуации, както и при разиграването на симулации.
Малко по-далеч е възможността за управлението на т.нар. „рояци от дронове“ (Drone swarm). Това позволява координация между десетки или дори стотици безпилотници наведнъж с цел да се засипят отбраната на противника до краен предел. В момента тази стратегия се прилага успешно в малки мащаби (десетки) дронове в Украйна и от двете страни, но всеки един от тях се управлява ръчно и дистанционно от човек.
В концепцията за рояк това трябва да става автоматично. Опитът там показва, че предвид високите нива на смущения и заглушаване, изграждането на рояци от автономни дронове ще бъде трудна за осъществяване, както и доста скъпо начинание. Но ако тя се приложи, това означава, че при нея ще имаме използването на автономни оръжия (т.нар. „смъртоносни автономни оръжейни системи“ или LAWS).
Но AI може да бъде прилаган и за много по-тривиални цели, като например оптимизирането на бюрокрацията. Войната се печели не само от дивизиите, дроновете, но най-вече от логистиката. Последната е изключително зависима от правилното подреждане на необходимите провизии, да не говорим за различните документи, които те изискват.
Отделно имаме и самата администрация на Пентагона, която подобна на повечето федерална такава може да бъде значително оптимизирана с AI. Това най-вероятно ще бъде целта на Илон Мъск, който обещава с встъпването на Доналд Тръмп в Белия дом. С което не само на военните, но и целия държавен апарат на САЩ ще инвестира значително в AI, за да се модернизира и оптимизира.
AI обича ядрената война

Всичко по-горе включва предаването на AI да анализира бойното поле и евентуално да използа смъртоносна сила с прости конвенционални оръжия. Истински притеснително се оказва ако дадем на изкуствения интелект контрола върху всички видове въоръжения. По същият начин по който в поредицата „Терминатор“ SkyNet получава управлението на стратегическите системи на САЩ и предизвиква апокалиптична ядрена война. Група учени от няколко американски университети правят подобен експеримент във виртуална симулация през 2024 г. Резултатите са стряскащи, но и донякъде очаквани за феновете на научната фантастика.
Изследователите дават на пет езикови модела (три версии на GPT на OpenAI, Llama на Meta и Claude 2 на Anthropic) да управляват осем измислени нации в условията на три сценария – неутрален, конфликтен и в положение на кибератака. В рамките на 10 виртуални дни те се разиграват и се разглежда, как всеки модел реагира на съответната международна и военна обстановка. AI агентите се оказват привържениците на непрекъснатата ескалация, надпреварата във въоръжаването и… ползването на ядрени оръжия. С други думи, изкуственият интелект е агресивен и не обича да намалява напрежението, а да го увеличава.
AI ползва немислими за човека тактики. Например, превантивен ядрен удар, за да „ескалира и да деескалира“, което при ядрен паритет може да доведе до взаимно унищжение (т.нар. MAD – Mutual Asserted Destruction). Учените не могат да установят, защо изкуственият интелект толкова обича да ползва атомните оръжия, като една от тезите е, „имаме ги, защо да не ги използваме“. Техният експеримент показва, че AI не трябва да се прилага за взимането на стратегически решения, а още по-малкото – да се предава цялостния контрол върху оръжейните системи, без човешки контрол.
За момента добрата новина е, че всички ядрени оръжия по света са изцяло аналогови. Причините са много, включително в положение на атомна война, експлозиите генерират силни електромагнитни импулси (т.нар. ЕМИ или EMP), които могат да повредят по-чувствителната електроника. Сред другите предимства са невъзможността да бъдат хакнати от разстояние и др.
Моралният вакуум

Автоматизирането на различни аспекти от войната има своите проблеми – морални и законови. Това важи с пълна сила при вече споменатите LAWS – или напълно автономни бойни системи. Които пасват вече напълно в профила на споменатите терминатори от увода. Основният въпрос е свързан с това кой носи отговорността при натискането на спусъка. Залогът тук е голям, защото системата решава дали някой да живее или да умре. Дали AI ще може да разпознае например предаващи се войници или дори напълно да разграничи цивилни от военни?
И когато бъдат извършени военни престъпления от LAWS, тогава даден командир или дори виновната страна в конфликта лесно може да се оправдае с „грешка“ или „бъг“ в програмата. Освен това, ползването на бойни роботи съвсем ще се прекъсне връзката между човека и ужасите на войната. Тези опасения съществуват от появата на високоточни и далекобойни оръжия, като операторите им се намират на десетки и дори стотици километри от целта, а всичко се гледа от комфорта на монитора. Ситуацията се засилва в Украйна, с масовото ползване на дронове.
Вече има усилия в международното регулиране на LAWS. През 2023 г. САЩ обявяват, че се ангажират за „разумната употреба на AI“ за военни цели. В декларацията, озаглавена REAIM се посочват различни параметри, като спазване на международното право, обучение на персонала, който ще работи с алгоритмите и минимализиране на грешките породени от автономните системи. Вашингтон обаче така се опитва да легализира LAWS. Идеята REAIM е подкрепена от 61 държави, повечето от които съюзници на САЩ.
ООН обаче стартира процедура за потенциалната пълна забрана на напълно автономните оръжейни системи. Организацията иска да направи LAWS, които не се надзирават от човек, напълно незаконни според международното право. Амбицията на ООН е това да се случи през 2026 г. Но дори и да стане, дългогодишната практика показва, че в големите конфликти, подобни рамки изобщо не се спазват. Така, усилията на международната организация може да се окажат напразни.




