Сб. Дек 21st, 2024

Cтроительство бункера и выживание

Того, кто не задумывается о далеких трудностях, поджидают близкие неприятности. /Конфуций/

  • Уроки ядерной эпохи
  • Концептуальный арсенал
  • Контроль за ИИ
  • Две супердержавы в области ИИ

Путь к ограничению военного применения ИИ

Применение искусственного интеллекта в военной сфере может привести к катастрофическим последствиям, пишет FA. Авторы статьи сравнивают его с ядерной гонкой прошлого века. Они призывают выучить уроки истории и взять под контроль развитие ИИ, пока не стало поздно.

В этом году исполняется 78 лет со дня окончания самой смертоносной войны в истории человечества и начала самого длительного периода современности без вооруженных конфликтов между великими державами. Потому что всего два десятилетия спустя за Первой мировой войной последовала Вторая мировая война. Она стала провозвестником Третьей мировой войны. В ней было применено оружие настолько разрушительное, что теоретически оно могло угрожать всему человечеству. И эта угроза висела на протяжении десятилетий последовавшей за этим холодной войны. Когда атомное уничтожение Хиросимы и Нагасаки Соединенными Штатами вынудило Японию немедленно и безоговорочно капитулировать, никто не думал, что мир увидит фактический мораторий на использование ядерного оружия в течение следующих семи десятилетий. Еще более невероятным казалось то, что почти восемь десятилетий спустя в мире останется всего девять ядерных держав. Лидерство, продемонстрированное Соединенными Штатами на протяжении этих десятилетий в предотвращении ядерной войны, замедлении распространения ядерного оружия и формировании международного порядка, обеспечившего десятилетия мира между великими державами, войдет в историю как одно из самых значительных достижений Америки.

Сегодня, когда мир сталкивается с уникальными проблемами, создаваемыми другой беспрецедентной и в некотором смысле даже более ужасающей технологией — искусственным интеллектом — неудивительно, что многие обращаются к истории за советом. Будут ли машины со сверхчеловеческими способностями угрожать статусу человечества как хозяина Вселенной? Подрывает ли ИИ монополию отдельных стран на средства массового уничтожения? Позволит ли ИИ отдельным индивидам или небольшим группам людей создавать вирусы, способные убивать в масштабах, которые раньше были прерогативой только великих держав? Может ли ИИ разрушить средства ядерного сдерживания, которые были основой сегодняшнего мирового порядка?

На данный момент никто не может с уверенностью ответить на эти вопросы. Но, изучая эти вопросы в течение последних двух лет с группой технологических лидеров, находящихся в авангарде революции искусственного интеллекта, мы пришли к выводу, что перспективы того, что неограниченное развитие ИИ создаст катастрофические последствия для Соединенных Штатов и всего мира, проявляются настолько убедительно, что мировые лидеры должны начать действовать немедленно. Несмотря на то, что ни они, никто не знает, что нас ждет в будущем, сегодня мы уже знаем достаточно, чтобы начать делать трудный выбор и предпринимать действия, признавая, при этом что они будут подлежать неоднократному пересмотру по мере того, как мы будем открывать для себя все больше нового.

Когда лидеры делают данный выбор, повлиять на их решения могут уроки, извлеченные в ядерную эпоху. Даже наши противники, стремившиеся разработать и внедрить беспрецедентные технологии, которые могут убить сотни миллионов людей, обнаруживали, тем не менее, островки общих интересов. Будучи двумя полярными государствами, и Соединенные Штаты, и Советский Союз были заинтересованы в предотвращении быстрого распространения таких технологий на другие государства, которые могли бы им угрожать. И Вашингтон, и Москва осознавали, что если ядерные технологии попадут в руки злоумышленников или террористов в пределах их собственных границ, они могут быть использованы для угрозы США и СССР, и поэтому каждый из них разработал надежные системы безопасности для своих собственных арсеналов. И поскольку оба этих государства могли оказаться под угрозой, если злоумышленники из стана противника приобрели бы ядерное оружие, они сочли, что в их интересах обсудить данный риск друг с другом и разработать методы и технологии, чтобы гарантировать, что этого не произойдет. Как только арсеналы их ядерного оружия достигли уровня, на котором ни один из них не мог атаковать другого, не вызвав ответного удара, который уничтожил бы его самого, они обнаружили парадоксальную стабильность «гарантированного взаимного уничтожения» (MAD). По мере того, как эта ужасная реальность была ими усвоена, каждая держава научилась ограничивать себя и нашла способы убедить своего противника ограничить свои военные инициативы, чтобы избежать конфронтации, которая могла бы привести к войне. Действительно, лидеры США и советского правительства пришли к пониманию того, что предотвращение ядерной войны, первой жертвой которой станет их страна, являлось их важнейшей обязанностью.

Проблемы, с которыми сегодня сталкивается ИИ, — это не просто вторая глава ядерного века. История — это не кулинарная книга с рецептами, по которым можно приготовить суфле. Различия между ИИ и ядерным оружием столь же значительны, как и сходства. Однако правильно понятые и адаптированные уроки, извлеченные из формирования международного порядка, в результате которого почти восемь десятилетий не было войн между великими державами, представляют собой лучшее руководство, доступное для лидеров стран с противостоящими искусственными интеллектами.

от bunker

Добавить комментарий

Ваш адрес email не будет опубликован.

*