Новости

Соединенные Штаты запускают «Манхэттенский проект 2.0», вступит ли ИИ в момент Оппенгеймера? В дроны брошено 6 миллиардов, из них уже 800

2024-07-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Новый отчет мудрости

Монтажер: Эней такой сонный

[Введение в новую мудрость] Будет ли Манхэттенский проект 2.0? На данный момент военные США реализуют более 800 активных проектов в области искусственного интеллекта и только за 24 года подали заявку на финансирование в размере 1,8 миллиарда долларов. В течение следующих пяти лет Соединенные Штаты также выделят 6 миллиардов долларов на исследования и разработку беспилотных совместных истребителей. Теперь ИИ, похоже, вступил в период Оппенгеймера.

Искусственный интеллект вступил в свой оппенгеймеровский момент.

Сейчас ИИ-оружие постоянно используется в военных целях, и смежные отрасли процветают.

Многомиллиардная гонка вооружений в области искусственного интеллекта привлекла гигантов Кремниевой долины и страны по всему миру.

Рост конфликтов по всему миру является одновременно катализатором и испытательным полигоном для войны с искусственным интеллектом. Военные разных стран проявляют большой интерес к ИИ, и в настоящее время в этой области отсутствует контроль.


Военные США уже реализуют более 800 активных проектов в области искусственного интеллекта. Только в 2024 году они подали заявку на финансирование в бюджете на развитие искусственного интеллекта на сумму 1,8 миллиарда долларов.

ИИ, внедряющийся в вооруженные силы и правительства по всему миру, вероятно, фундаментально изменит общество, изменит технологии и изменит методы ведения войны.

Реклама с помощью дронов становится реальностью

Группа солдат находится под ракетным обстрелом во время ближнего городского боя.

Один из них позвонил по радио, и вскоре прилетела целая группа небольших автономных дронов, оснащенных взрывчаткой.

Эти дроны-смертники влетают в здания и начинают поиск врагов. Как только они обнаруживают цель, они взрываются по команде.

Изображение выше взято из рекламы оружейной компании Elbit, рекламирующей, как дроны с искусственным интеллектом могут «максимизировать смертоносность и боевой ритм».


Сейчас технология, разработанная Elbit, все чаще проникает в реальный мир.

«Со временем мы можем увидеть, как люди будут уступать больше суждений машинам», — сказал Пол Шарр, исполнительный вице-президент и директор по исследованиям аналитического центра «Центр новой американской безопасности».

«Если мы оглянемся назад через 15 или 20 лет, мы поймем, что пересекли очень важный порог».


В 2023 году дрон со встроенным искусственным интеллектом обнаружит взрывные устройства

Соединенные Штаты тратят 1 миллиард долларов на «Проект репликатора»

Хотя в последние годы в развитие ИИ наблюдался всплеск инвестиций, развитие автономных систем вооружения для ведения войны можно проследить уже несколько десятилетий назад.

Конечно, эти разработки редко появляются в публичных дискуссиях, но являются предметом изучения небольшого числа ученых и военных стратегов.

Но сейчас общественное внимание к ИИ возрастает. Является ли оружие действительно «автономным», также стало горячо обсуждаемой темой.

По мнению экспертов и исследователей, мы можем понимать «автономию» как спектр, а не простое бинарное понятие.

Но в целом они согласны с тем, что машины теперь способны принимать больше решений без участия человека, чем когда-либо прежде.


Деньги текут в компании и правительственные учреждения, обещая, что ИИ сможет сделать войну умнее, дешевле и быстрее.

Пентагон планирует потратить 1 миллиард долларов на свою «Программу репликаторов» к 2025 году. Цель этой программы — разработать большое количество боевых беспилотных летательных аппаратов и использовать искусственный интеллект для поиска угроз.

В течение следующих пяти лет ВВС США планируют выделить около 6 миллиардов долларов на исследования и разработку беспилотных совместных истребителей для создания парка из 1000 истребителей с искусственным интеллектом, которые смогут летать автономно.

В последние годы Министерство обороны США также собрало сотни миллионов долларов для финансирования секретной программы искусственного интеллекта под названием Project Maven, которая фокусируется на таких технологиях, как автоматическое распознавание целей и наблюдение.


Британские солдаты используют ИИ во время учений

Технологические компании подписывают огромные контракты

В то же время растущий спрос на ИИ и автономию в вооруженных силах помог технологическим компаниям и торговцам оружием получить огромные заказы.

Anduril, компания, разрабатывающая автономные ударные дроны, беспилотные боевые самолеты и подводные аппараты, привлекает новый раунд венчурного капитала с ожидаемой оценкой в ​​12,5 миллиардов долларов.


Основатель Anduril Палмер Лаки — 31-летний миллиардер, который в этом году подписал контракт с Пентагоном на создание программы беспилотных истребителей.

Миллиардер Кремниевой долины Питер Тиль также основал Palantir, компанию в области технологий и наблюдения. Компания уже участвовала в проектах искусственного интеллекта, таких как «первая машина, управляемая искусственным интеллектом» армии США.


В мае Пентагон объявил, что заключил с Palantir контракт на сумму 480 миллионов долларов на технологию искусственного интеллекта, которая помогает идентифицировать цели противника.

В настоящее время технология Palantir используется в нескольких военных операциях.


Palantir участвует в создании «первой машины с искусственным интеллектом» для армии США

Андурил и Палантир, названные в честь Святого Меча и Философского камня из «Властелина колец» соответственно, представляют собой лишь малую часть международной золотой лихорадки войн ИИ.


Компания Helsing привлекла почти 500 миллионов долларов на финансирование своего программного обеспечения для защиты от искусственного интеллекта, и в этом месяце ее стоимость оценивается в 5,4 миллиарда долларов.

Между тем, в марте компания Elbit Systems сообщила в финансовой отчетности, что в 2023 году она подписала контракт на боеприпасы на сумму 760 миллионов долларов. А в прошлом году выручка достигла 6 миллиардов долларов.


Helsing привлекает почти 500 миллионов долларов на свое программное обеспечение для защиты искусственного интеллекта, которое в этом месяце оценивается в 5,4 миллиарда долларов.

Крупные технологические компании также более восприимчивы к оборонной промышленности и использованию ею искусственного интеллекта, чем в прошлые годы.

В 2018 году сотрудники Google протестовали против участия компании в военном проекте Maven, утверждая, что это нарушает этические и моральные обязательства. Тогда под давлением Google разорвала сотрудничество с проектом.

Однако с тех пор Google достигла соглашения на сумму 1,2 миллиарда долларов США с правительством определенной страны о предоставлении ей услуг облачных вычислений и возможностей искусственного интеллекта.

В этом году Google уволила десятки сотрудников, поскольку некоторые сотрудники протестовали против военных контрактов. Генеральный директор Пичаи прямо сказал сотрудникам: «Это бизнес».


Подобные протесты сотрудников произошли в Amazon в 2022 году, и компания снова не изменила свою политику.

двойной черный ящик

Исследователи предупреждают, что, поскольку в сектор оборонных технологий текут огромные суммы денег, многие компании и технологии работают с минимальной прозрачностью и подотчетностью.

Если продукт неожиданно выходит из строя, последствия могут быть фатальными, но торговцы оружием обычно не несут за это ответственности.

Более того, секретность аппарата национальной безопасности США также означает, что компании и правительства не обязаны раскрывать подробности того, как работают эти системы.

Когда правительство берет секретную, запатентованную технологию искусственного интеллекта и помещает ее в скрытый мир национальной безопасности, оно создает то, что профессор права Университета Вирджинии Эшли Дикс называет «двойным черным ящиком».

В этом случае общественности трудно узнать, работают ли эти системы правильно и этично. И, вообще говоря, это оставляет много места для ошибок.

«Я видел много ажиотажа вокруг ИИ в деловом мире, и слово «ИИ» повсеместно используется неправильно», — сказал Шарре из аналитического центра Центра американской безопасности. «Если вы копнете глубже, вы обнаружите это. это может быть не так сложно, как рекламируется».


Активисты протестуют перед Бранденбургскими воротами в Берлине, Германия, требуя «остановить роботов-убийц»

люди в цепи

Хотя компании и национальные вооруженные силы неохотно раскрывают конкретные эксплуатационные детали своих систем, они активно участвуют в дебатах об этической ответственности и регулировании систем ИИ.

Например, дипломаты и торговцы оружием обычно считают, что в процессе принятия решений всегда должно быть «человеческое участие», а не полный контроль машин.

Однако нет единого мнения о том, как осуществлять человеческий надзор.

«Каждый может согласиться с этой концепцией, но в то же время каждый имеет разное представление о том, что она означает на практике», — сказала Ребекка Крутоф, профессор права и эксперт по автономной войне в Университете Ричмонда и первый приглашенный ученый DARPA.

«С точки зрения фактического принятия решений по техническому проектированию эта концепция не так уж и полезна».


Протестующие собираются возле завода Elbit Systems в Лестере, Великобритания.

Кроме того, сложности человеческой психологии и ответственности делают дискуссии на высоком уровне о «людях в курсе» еще более неприятными.

Одним из примеров, часто приводимых исследователями, являются беспилотные автомобили, в которых люди должны вернуть себе контроль над транспортным средством, когда это необходимо для достижения «человеческого участия».

Но если беспилотный автомобиль совершает ошибку или заставляет человека принять неправильное решение, справедливо ли винить в этом водителя?

Если быть более конкретным, если беспилотный автомобиль передаст управление человеку в первые несколько секунд после аварии, кто будет нести ответственность?

Шарре из аналитического центра Центра американской безопасности отметил интересную вещь: иногда мы помещаем людей в кабину, чтобы найти кого-то, кто возьмет на себя ответственность, если что-то пойдет не так. Это так называемая «моральная буферная зона».

Существуют разные мнения о том, как контролировать ситуацию.

На конференции в Вене в конце апреля этого года международные организации и дипломаты из 143 стран собрались вместе, чтобы обсудить вопросы регулирования использования искусственного интеллекта и автономного оружия в войне.

На протяжении многих лет Совету Безопасности ООН не удавалось прийти к какому-либо всеобъемлющему договору по этому вопросу.

По сравнению с полным запретом автономного оружия призыв министра иностранных дел Австрии Александра Шалленберга гораздо мягче: «По крайней мере, мы должны принять самое далеко идущее и важное решение – кто будет жить, а кто умрет, по-прежнему находится в руках людей, а не машин. " .


Международный Красный Крест и компания Stop Killer Robots уже более десяти лет призывают к запрету некоторых типов автономных систем вооружения.

Кэтрин Коннолли, менеджер Stop Killer Robots, сказала: «Мы видим, как много денег инвестируется в такие технологии, как автономное оружие и системы наведения на базе искусственного интеллекта, что очень тревожит».

Сегодня ситуация становится все более актуальной.

Сторонники контроля над вооружениями также признают, что время для борьбы за регулирование истекает.

Мэри Уэрхэм, заместитель директора департамента по вопросам кризисов, конфликтов и вооружений организации, сказала: «Однажды мы призывали к превентивному запрету полностью автономных систем вооружений, а теперь мы больше не используем слово «превентивные», потому что мы так далеки от автономных систем вооружений. оружие очень близко».

Призыву к усилению надзора противостояли Соединенные Штаты и другие страны, а также торговцы оружием.

Основатель Anduril Лаки пообещал поддерживать «человеческое участие» в технологиях компании, но выступил против регулирования и запретов на автономное оружие.

Генеральный директор Palantir Алекс Карп много раз упоминал, что мы достигли момента Оппенгеймера.


Дрон со встроенным искусственным интеллектом разминирует мины

Эксперты говорят, что отсутствие надзора — это не просто явление, уникальное для автономного оружия, а общая проблема, с которой сталкивается международно-правовая система.

Но многие обеспокоены тем, что как только эти технологии будут разработаны и интегрированы в вооруженные силы, они сохранятся и их станет сложнее регулировать.

«Как только оружие используется в вооруженных силах, от него труднее отказаться, потому что они становятся от него зависимыми», — сказал Шарре из аналитического центра Центра американской безопасности. «Это уже не просто финансовые инвестиции».

Если автономное оружие и искусственный интеллект будут развиваться так же, как и другие военные технологии, их использование, вероятно, также перейдет к национальным правоохранительным органам и пограничным службам, что еще больше укрепит эту технологию.

«Часто технологии, использованные на войне, оказываются дома», — сказал Коннолли.

Использованная литература:

https://www.theguardian.com/technology/article/2024/jul/14/ais-oppenheimer-moment-autonomous-weapons-enter-the-battlefield