Все, кто интересуется военной тематикой, да и те, кто знает историю создания Интернета, знают про Управление перспективных исследовательских проектов Министерства обороны США, или DARPA. (Это только путинские балбесы считают, что Интернет придумали в ЦРУ для шпионажа.) Высококлассные специалисты, которые должны предвидеть будущее. Эти ребята находятся на пике военного прогресса и испытывают самые современные технологии в плане использования их в военном деле. Многое в их деятельности секретно.

Но одна из нынешних программ имеет высокую известность, и к ней приковано немало внимания. Программа ACE (Air Combat Evolution) занимается разработками систем искусственного интеллекта для воздушных боёв будущего. 20 августа 2020 года прошел заключительный третий раунд так называемого "испытания Alpha Dogfight". Алгоритмы Искусственного Интеллекта (ИИ) соревновались с реальными пилотами в виртуальных боях на истребителях F-16. "Кожаные вояки" проиграли всухую.

В данной ситуации важно то, что это был не дистанционно управляемый БПЛА (которые обладают низкой автономностью и не способны самостоятельно вести бой). Дроны с операторами уже давно заняли свою нишу и активно используются на войне. Но нажимать на гашетку роботам пока не позволяют. "Пока" — ключевое слово. Испытания 20 августа показали превосходство ИИ даже в условиях, когда живые пилоты, управляющие компьютерами, длительное время держали перегрузку 9G. В реальном бою живой пилот не смог бы выполнять такие манёвры и ИИ победил бы ещё быстрее.

Разработкам в сфере ИИ сегодня уделяется много внимания. Несколько лет Путин буквально грезил будущим величием России под управлением электроники. До 2020 года из бюджета планировалось выделить около 90 млрд рублей на работы по ИИ. В настоящий момент обсуждается сокращение суммы до 22,4 млрд рублей. Для сравнения: у американцев только один проект Maven (один из самых дорогих) от DARPA и Google составляет около 7,5 млрд долларов. В рамках Maven ИИ должен осуществлять анализ больших объёмов видеоматериала с имеющихся дронов и предоставлять операторам уже обработанную информацию о целях, которые подлежат уничтожению. Огромный массив работ ведётся по созданию так называемых "боевых роёв". Один из самых занятных и имеющих высокие перспективы на воплощение — "Золотая орда" (Golden Horde). В рамках этого проекта планируется наделить "умные" боеприпасы возможностью быстрого перенацеливания на новые цели в случае поражения заданной. Например, на цель было выпущено три ракеты, первая поразила цель, а две ракеты ещё находятся в полёте, и, получив сигнал об уничтожении, они могут быть быстро наведены на новые объекты системами искусственного интеллекта.

В гражданском секторе недавно прозвучало весьма интересное заявление из Финляндии, которая объявила о проекте по созданию ИИ, который должен взять на себя значительную часть чиновничьей рутины в государственном управлении и общественной жизни. Проект называется AuroraAI ("Северное сияние") и планируется к завершению в 2022 году. ИИ будет учитывать нужды и потребности как организаций, так и отдельных граждан, объединяя их в единую базу знаний, и помогать государственным чиновникам принимать оптимальные и наиболее оперативные решения на этой основе. Обучение ИИ планируется на конкретных жизненных ситуациях, которые в перспективе будут предсказываться. Например, если некий гражданин страны переживает жизненный кризис и в скором времени явно лишится работы, "Северное сияние" начнёт заранее подбирать для него подходящие вакансии для нового трудоустройства и в нужный момент предложит их.

При этом уже сегодня довольно хорошо видны реальные границы искусственного интеллекта. Машинный интеллект сильно отличается от биологического. Например, если машины легко работают со сложными математическими формулами, то для них является проблемой обычное передвижение в городской или природной среде. Там, где человек легко обходит движущиеся автомобили или зыбкую почву, машина испытывает серьёзные проблемы. Практически любой человек может работать в службе поддержки клиентов и мало кто из людей умеет играть в игру го на уровне гроссмейстера. В то же время машина, наоборот, гораздо увереннее справляется с играми, в которых имеются чётко очерченные правила, но при этом машине куда сложнее просчитать все детали простого человеческого разговора.

Сегодняшний обучаемый искусственный интеллект требует внесения в машину огромного количества "обучающих данных". Тщательно размеченные примеры действий должны вводить люди вручную. Например, китайская компания MBH имеет в штате более 300 тысяч человек, которые маркируют бесконечные изображения лиц, уличные ситуации, медицинские снимки и т.д., переводя их в понятную для машин форму. Системы машинного обучения способны сопоставлять входящие данные с имеющейся базой, но по факту компьютеры делают только то, что им говорят, не больше и не меньше. Машины точно следуют алгоритму, не обращая внимания на контекст.

В 2018 году исследователи из сети больниц Mount Sinai в Нью-Йорке обнаружили, что система искусственного интеллекта, обученная определять пневмонию на рентгеновских снимках грудной клетки, стала заметно менее компетентной при использовании в больницах, отличных от тех, в которых она проходила обучение. В одной из больниц, где проходило обучение, исходный уровень пневмоний оказался намного выше, чем в других. И в итоге система, оказавшись в иной среде, стала допускать ошибки.

Более забавная ситуация оказалась с отсутствием толерантности у ИИ. Например, когда Американский национальный институт стандартов и технологий протестировал около 200 алгоритмов распознавания лиц, обнаружилось, что многие алгоритмы менее точны при распознавании черных, чем белых. Проблема возникла из-за преобладания белых лиц в тренировочных данных. В 2017 году Amazon отказался от проекта по подбору персонала с использованием ИИ. Система должна была искать подходящих кандидатов по резюме. Но обнаружилось, что система отдаёт предпочтение кандидатам-мужчинам. Система была обучена на резюме предыдущих успешных кандидатов, которые состоят в основном из мужчин, и искусственный интеллект использовал мужской пол как надёжный показатель профпригодности.

Одной из серьёзных проблем искусственного интеллекта является так называемый "дрейф данных". Машины работают только с теми данными и правилами, которые в них вводят люди. Но устройство мира меняется, и старые машинные решения со временем становятся менее точными. Меняется поведение людей, меняется язык, регулирующие органы меняют правила и законы. Машинам нужно постоянно предоставлять новые обучающие данные.

Основная проблема такой работы с данными заключается в том, что машина неспособна справиться с редкими, крайними случаями, необычными обстоятельствами, которые тяжело предусмотреть, заложив в базу данных. Для автомобильных автопилотов проблемой становится случайное животное, человек в необычном костюме. Человек решает такие задачи без проблем. Машины могут заходить в тупик. Системы компьютерного зрения испытывают проблемы, когда снег закрывает полосы разметки на дороге. Наклейки на дорожных знаках затрудняют идентификацию, и знак "стоп" может превратиться в знак ограничения скорости, но не запрещать движение. Блики солнца тоже могут затруднять идентификацию. И решение таких проблем оказалось очень сложным. Заполнение последних 10% базы данных для автомобильных автопилотов оказалось многократно сложнее, чем первых 90%, и по сей день не закончено.

Забавный баг был обнаружен в системе Google Translate. Когда в 2018 году машину попросили перевести 18 раз слово "собака" на язык йоруба (язык некоторых частей Нигерии и Бенина) и обратно на английский, в итоге система выдала: "Часы Судного дня уже на подходе. Без трех минут двенадцать. Мы переживаем характеры и драматические события в мире, которые указывают на то, что мы все больше приближаемся к концу времен и возвращению Иисуса". Учёные говорят, что Google Translate не понимает основную структуру языка.

Исследователи отмечают, что биологический мозг человека учится на гораздо больших наборах данных, чем машины. Автоматические переводчики изучают исключительно текст или речь. Ребёнок слышит не только звуки, но и интонацию, замечает мимику других людей, смотрит на разнообразную окружающую среду. Абстрактные понятия сочетаются с реальным миром. Ученые сегодня изучают создание компьютерных процессоров, которые будут использовать биологические элементы. Но фундаментальной проблемой является то, что по сей день никто до конца не знает, как функционирует человеческий мозг.

За историю развития компьютеров сегодня происходит третья попытка массового внедрения компьютерного интеллекта. Предыдущие две упирались в мощность компьютеров. Сегодня проблемой становится ограниченность машин обучаться. Есть области, в которых ИИ имеет подавляющее преимущество перед человеком. Но во многих случаях компьютер уступает и ребёнку, и животным. И использование ИИ в военном деле может оказаться особенно опасным. Цена ошибки ИИ, управляющего автомобилем, очень высока. Цена ошибки компьютера, нажимающего на гашетку, может оказаться гораздо выше. Но в то же время симбиоз машины и человека может иметь огромные преимущества. Выдающая быстрые и эффективные решения машина и контролирующий вероятность ошибки человек. ИИ в сегодняшнем виде способен на многое. Но лучше всего ИИ работает, когда его держит за руку человек.

Алекс Кульманов

Ошибка в тексте? Выделите ее мышкой и нажмите Ctrl + Enter