Во вторник Министерство обороны Японии представило свою первую базовую политику по использованию искусственного интеллекта для адаптации оборонных операций к технологическому прогрессу.
План нацелен на оптимизацию работы министерства в семи ключевых областях, включая обнаружение и идентификацию военных целей, командование и управление, а также материально-техническое обеспечение.
В правительственном документе отмечается, что иностранные государства активно разрабатывают использование искусственного интеллекта для прогнозирования конфликтных ситуаций в ближайшем будущем.
В новой политике также указывается, что внедрение искусственного интеллекта ускорит выполнение боевых операций, сократит вероятность человеческих ошибок и сэкономит рабочую силу за счет автоматизации. Среди других важных направлений выделяются сбор и анализ информации, использование беспилотных систем обороны, кибербезопасность и повышение эффективности операционной деятельности.
Однако в новой политике отмечается, что искусственный интеллект имеет свои ограничения, особенно в ситуациях без предыдущих случаев, поскольку его обучение основано на анализе прошлых данных. В документе также подчеркивается, что остаются вопросы относительно надежности и возможных злоупотреблений этой технологией.
Также в этот же день министерство объявило о стратегической политике по укреплению кадровых ресурсов в области кибербезопасности. Планируется начать набор экспертов в этой области в рамках новой независимой категории с финансового года 2025, начиная с апреля следующего года.
На пресс-конференции министр обороны Минору Кихара заявил, что вопрос адаптации Японии к “новым формам ведения боевых действий” с использованием искусственного интеллекта и кибертехнологий представляет собой серьезный вызов для укрепления оборонного потенциала страны. Он также отметил намерение углублять сотрудничество с частным сектором и соответствующими иностранными агентствами для продвижения позиции Министерства обороны.
Кихара подчеркнул важность правильной оценки рисков, связанных с использованием ИИ, и необходимость принятия мер по устранению потенциальных недостатков этой технологии.