논문/REGULAR PAPERS
임의 탐지된 LPI 신호의 분류를 위한 딥러닝 모델 분석
김준섭,
조성환†,
황선일*,
이원진**,
최영윤***
Analysis of Deep Learning Model for Arbitrary Intercepted LPI Signal Classification
Junseob Kim,
Sunghwan Cho†,
Sunil Hwang*,
Wonjin Lee**,
Yeongyoon Choi***
Author Information & Copyright ▼
Department of Electrical Engineering, Korea Military Academy
*Department of Mathematics, Korea Military Academy
**Electronic Warfare R&D Center, LIG Nex1
***Department of Electrical and Computer Engineering, GIST
© Copyright 2024 The Korean Institute of Electromagnetic Engineering and Science. This is an Open-Access article distributed under the terms of the
Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0/) which permits
unrestricted non-commercial use, distribution, and reproduction in any
medium, provided the original work is properly cited.
Received: Feb 13, 2024; Revised: Feb 26, 2024; Accepted: Mar 04, 2024
Published Online: Mar 31, 2024
요 약
본 논문은 임의 탐지된 저피탐(LPI, low probability of intercept) 신호를 모의하기 위한 신호 생성 아키텍처를 소개하고, 이를 통해 생성된 신호의 변조 기법을 분류하기 위한 딥러닝 모델의 성능을 비교하여 제시한다. 기존 연구에서 신호의 분류 시간을 최소화하고 정확도를 향상하기 위해 앙상블 학습이 활용되었으나, 딥러닝 모델 채택에 대한 명확한 기준이 부족하다. 본 연구에서는 시뮬레이션 결과를 통해 11개의 딥러닝 모델의 성능을 분석하고, 앙상블 학습 시 MobileNet V3 Small을 메인 모델로, Densenet-169를 서브 모델로 활용하는 방안을 제안한다.
Abstract
This paper presents a signal generation architecture for simulating arbitrarily intercepted low-probability-of-intercept (LPI) signals in a battlefield environment. Additionally, the performances of deep learning models in classifying the generated signals are compared in terms of the classification time, GPU memory usage, and accuracy. Previous studies have utilized ensemble learning to minimize signal classification time and enhance accuracy; however, an explicit criteria for the adoption of deep learning models have been lacking. This paper presents the analysis of the performances of 11 deep learning models on the basis of simulation results and proposes an ensemble model that utilizes MobileNet V3 Small as the main model and Densenet-169 as the sub-model.
Keywords: LPI Radar; Deep Learning; Electronic Warfare; Time-Frequency Analysis; Ensemble
Ⅰ. 서 론
전자전(EW, electronic warfare)은 전자기 스펙트럼을 활용하는 군사 작전으로, 전자공격(EA, electronic attack), 전자보호(EP, Electronic protection) 및 전자전지원(ES, electronic support)으로 구분된다[1]. 그중 ES는 통신 및 레이다 장비로부터 방사된 신호를 탐지 및 분석하는 활동으로, 이를 통해 적의 위치와 신호의 특성을 파악하여 적을 정밀 타격하거나 신호를 효과적으로 방해할 수 있다. 이에 대응하여, 저전력의 신호를 방출하고 다양한 변조 기법을 활용하여 신호의 탐지 확률을 낮추는 저피탐(LPI, low probability of intercept) 레이다가 사용되고 있다.
LPI 레이다는 pulse Compression 기술을 활용하여 레이다 신호의 최대 피크 전력 값은 줄이면서 분해능은 유지하는 장점을 갖고 있다. 이를 위해, 펄스의 주파수 및 위상을 변조하여 신호의 대역폭을 확장시키는 과정이 수반된다[2]. 레이다는 운용 목적과 요구되는 성능에 따라서 다양한 변조 방식을 사용하며, 만약 ES 장비가 탐지한 레이다 신호의 변조 방식을 분류해 낼 수 있다면 레이다의 제원 및 특성을 판단하는데 결정적인 역할을 할 수 있다. 따라서 LPI 신호의 탐지 및 분류 성능을 향상하는 것은 ES 작전을 성공적으로 수행하기 위해 매우 중요하다[3].
이에 최근에는 딥러닝 모델을 활용한 LPI 신호의 변조 방식을 분류하는 연구가 이루어지고 있다. 특히, STFT (short-time Fourier transform), CWD(choi-williams distribution), WVD(wigner-ville distribution) 등의 시간-주파수 분석(TFA, time-frequency analysis)을 통해 신호를 시간-주파수 이미지(TFI, time-frequency image)로 변환 후 CNN 기반의 딥러닝 모델을 활용하는 방법은 기존 푸리에변환 기반의 방법보다 높은 신호 분류 성능을 보인다 [4]~[9]. 한편, 기존의 연구들은 주로 신호 펄스에 대해 시작과 종료 시점을 정확하게 알고 있다는 가정하에 진행되었다. 그러나 전장 환경의 신호 잡음 및 간섭으로 인해 LPI 신호의 시작 및 종료 시점을 정확히 포착하는 것은 매우 어렵다. 따라서 ES의 실전적 수행 방안을 고려하기 위해서는 임의로 탐지된 LPI 신호를 모의하고 이를 분류하는 연구가 필요하다.
이는 이전 연구들에 비해 더욱 어려운 과제이기 때문에 딥러닝 모델의 성능을 향상하기 위한 다양한 방법을 적용해야 한다. 이를 위해 여러 모델을 조합하여 최적의 성능을 달성할 수 있는 앙상블 학습을 고려해 볼 수 있다. 구체적으로 앙상블 학습이란 2개 이상의 딥러닝 분류 모델을 순차적으로 적용하여 각 모델의 장점을 동시에 이용할 수 있게 하는 접근방식을 의미한다. 예를 들어, 참고문헌 [8]에서는 ShuffleNetV2 ×0.5를 1차 메인 모델로, Shuffle-NetV2 ×1.5를 2차 서브 모델로 활용하는 방법을 제시하였다. ShuffleNetV2 ×0.5는 분류 시간이 빠르다는 장점이 있지만, 특정 몇 개의 변조 기법에 대해선 분류 정확도가 급격하게 떨어진다. 따라서 참고문헌 [8]에서는 ShuffleNetV2×0.5를 통한 1차 분류 결과가 만약 해당 변조 기법으로 분류되었을 때는 2차 서브 모델인 ShuffleNetV2×1.5를 활용하여 좀 더 정확한 분류를 시행하는 방식을 제안하였다.
하지만 참고문헌 [8]은 ShuffleNet을 채택한 이유와 각 모델의 GPU 메모리 사용량 및 분류 시간, 다른 모델들과의 비교 등에 대한 명확한 근거를 제시하지 않고 있으며, 더욱이 모사된 LPI 신호의 처음과 끝을 정확히 알고 있다고 가정하여 잡음과 간섭이 많은 실제 전장 환경을 제대로 반영하지 못하고 있다. 따라서 본 논문에서는 실제 전장 환경에서 임의로 탐지된 LPI 신호를 모의하기 위한 아키텍처를 제시하고, 명확한 근거에 기반한 딥러닝 모델의 채택을 위해 다양한 모델의 정확도, GPU 메모리 사용량, 분류 시간 등을 비교, 분석하여 제시하고자 한다.
본 논문의 구성은 다음과 같다. Ⅱ장에서는 LPI 신호 및 대표적인 TFA 방법인 CWD에 대해 소개한다. Ⅲ장에서는 임의 탐지된 LPI 신호 생성 아키텍처에 대해 제시하고 Ⅳ장에서는 다양한 딥러닝 모델의 분류 성능을 비교한다. Ⅴ장에서는 결론 및 향후 연구 방향을 제시한다.
Ⅱ. 시스템 모델
2-1 LPI 신호
일반적인 LPI 신호는 식 (1)과 같이 표현된다.
이때, A, fc, ϕ(t), n(t)는 각각 신호의 진폭, 반송파 주파수, 위상, 가우시안 잡음(AWGN, additive white Gaussian noise)을 의미한다. LPI 신호의 변조 기법은 크게 주파수 변조와 위상 변조로 구분된다. 주파수 변조는 위상 성분 ϕ(t)가 시간 t에 대해 일정할 때 주파수 성분 fc가 변하는 변조 방식으로 LFM(linear frequency modulation), Costas 등이 있다. 반면 fc가 일정할 때 ϕ(t)가 변하는 방식을 위상 변조 기법으로 분류하며 BPSK(binary phase shift keying), Frank 등의 방법이 있다. 본 연구에서는 LPI 레이다 시스템에서 활발하게 사용되는 BPSK, Costas, Frank, LFM, P1-P4, T1-T4 등 12개 변조 기법을 채택하였다.
2-2 신호의 시간-주파수 분석
STFT, WVD, CWD 등 식 (1)의 LPI 신호를 TFI로 변환하기 위한 다양한 TFA 방법이 존재한다. 본 연구에서는 주파수 성분이 상호작용하여 나타나는 cross-term 성분들을 효과적으로 줄이면서, 신호의 특성을 보존하는 CWD를 채택하였다[2]. CWD를 통한 TFA 과정은 식 (2)와 같이 나타낼 수 있다.
이때, ω, σ (σ > 0)는 각각 각주파수, 스케일 팩터를 나타내며, G(μ,τ), J(μ,τ)는 식 (3)과 같이 정의된다.
다음 장에서는 임의 탐지된 신호 생성 아키텍처와 이를 통해 생성된 CWD-TFIs를 소개한다.
Ⅲ. 임의 탐지 LPI 신호 생성 모델
레이다는 신호를 방사하고 타겟에 도달하여 반사되는 왕복 신호를 수신 및 분석해야 하지만, ES 장비의 경우에는 레이다로부터 편도로 전송된 신호를 분석하면 되기 때문에 일반적으로 ES의 탐지 거리가 레이다보다 최소 1.2배에서 1.5배까지 긴 것으로 알려져 있다[10]. 따라서 이 논문에서는 ES 장비에 일정 레벨 이상의 신호가 감지되면 신호를 포착할 수 있다고 가정하였다. 그림 1은 임의 탐지된 LPI 신호를 생성하는 아키텍처를 나타낸다. 신호의 유무에 대한 판단이 가능하다고 할지라도 신호의 간섭 및 잡음이 많은 전장 환경에서 펄스의 정확한 시작 및 종료 시점을 알기 어렵다고 가정하였다. 이를 모사하기 위해 T에서 2T까지 존재하는 펄스폭 T를 가지고 있는 LPI 신호를 TC ∈ [0.7T, 1.3T]의 무작위한 크기를 가진 획득 윈도우를 사용하여 포착하였다. 여기서 LPI 신호 펄스폭 T는 LPI 신호의 변조 기법 및 파라미터에 따라 다른 값을 가진다. 또한, 획득 윈도우의 시작 지점 Tsp는 0.5T에서 1.5T까지의 값 중 무작위로 설정하였다.
그림 1. | Fig. 1.
임의 탐지된 LPI 신호 생성 아키텍처 | Architecture for generating arbitrary intercepted LPI signals.
Download Original Figure
그림 2(a)는 CWD-TFIs는 신호대 잡음비(SNR, signal-to-noise ratio)가 10 dB일 때 임의의 크기를 가진 윈도우를 통해 탐지된 LPI 신호들을 CWD 분석을 활용하여 TFI로 변환한 결과를 보여준다. 이전 연구들과는 다르게 신호 성분의 시작점과 끝점이 무작위한 위치에 나타나며, 일부 신호의 경우 전체 신호 성분이 아닌 일부분만 나타나는 것을 확인할 수 있다. 이에 따라 일부 변조 기법에 대한 분류가 더욱 어려워짐을 예상할 수 있다. 또한, 그림 2(b)와 같이 SNR이 −10 dB정도로 낮은 경우 신호에 비해 잡음 레벨이 매우 높아 변조 기법에 대한 특징을 파악하기 위한 정보가 더욱 부족하다. 따라서, 딥러닝 모델의 성능을 향상하기 위한 앙상블 학습 등의 방안이 고려되어야 하고, 이를 위해 다양한 이미지 분류 모델들의 정확도, GPU 메모리 사용량, 분류 시간 등의 기준이 필요하다.
Ⅳ. 시뮬레이션 결과
시뮬레이션을 위해 Ⅲ장에서 제시한 아키텍처를 바탕으로 각 신호 변조 방식별(클래스별) 각각 4,000개의 CWD-TFIs를 생성하였다. 이 데이터는 학습, 검증, 테스트를 위해 각각 클래스별 2,600개, 400개, 800개로 구분하였다. 식 (2)의 CWD 스케일 팩터 σ는 1로, 각 이미지는 224× 224 픽셀을 갖도록 설정하였다. SNR 범위는 −10 dB에서 0 dB까지 2 dB 단위로 설정하였고 대역폭, 주파수, 코드 길이 등의 세부 파라미터는 참고문헌 [9]의 범위를 참고하여 무작위로 설정하였다.
신호를 분류하기 위해 PyTorch의 torchvision 라이브러리에 속한 torchvision.models 모듈에서 제공하는 다양한 딥러닝 모델들을 활용했다. 이 중에서 참고문헌 [8]에서 소개된 ShuffleNet을 비롯하여 ResNet, MobileNet 등 총 11개의 대표적인 이미지 분류 모델을 선택하였다. ShuffleNetV2 ×2.0 모델을 활용하여 학습률 최적화를 진행하였으며, 그림 3과 같이 학습률이 2 × 10−3일 때 최적의 성능을 보였다. 따라서 11개의 모델에 대해 2 × 10−3의 학습률을 적용하여 40 epochs씩 학습하였다. 배치 크기는 모든 모델에 대해 64로 설정하였다. 시뮬레이션은 Intel Core I7-12700K CPU(12코어, 2.1 GHz, 25MB 캐시)와 NVIDIA GeForce RTX 3090Ti GPU(24GB GDDR6X 메모리, 10752 CUDA 코어) 및 PyTorch 2.1.1 환경에서 진행되었다.
표 1은 각 모델의 성능을 비교하여 보여준다. 800장의 테스트 데이터를 모델에서 분류하는 데 걸리는 시간과, 이때 사용하는 평균 GPU 메모리를 측정하였으며, Top-n Acc는 모델이 예측한 분류 확률 중 가장 높은 확률을 가진 상위 n개의 클래스 중에서 실제 정답 클래스가 포함되어 있는 비율을 나타낸다. 분류 시간과 GPU 메모리에서는 ShuffleNetV2×0.5가, 정확도에서는 Densenet과 ResNet 이 가장 좋은 성능을 보였다. 참고문헌 [8]에서 제시한 ShuffleNetV2×0.5를 메인 모델로 사용하는 것은 시간과 메모리 사용량 측면에서는 좋은 방안이나, 임의 탐지 신호를 분류하는 데에는 정확도가 다른 모델들에 비해 매우 낮다. 따라서 이러한 한계점을 해결하기 위하여 MobileNetV3 Small을 메인 모델로, Densenet-169를 서브 모델로 채택하는 것이 더욱 최적화된 방안이 될 수 있다. MobileNetV3 Small은 ShuffleNetV2×0.5와 유사한 분류 시간과 GPU 메모리 사용량을 가지고 있지만 높은 분류 정확도를 보이며, Densenet-169는 분류 시간 및 GPU 메모리 사용량은 다소 높지만, 정확도 측면에서 가장 우수한 성능을 보인다.
표 1. | Table 1.
모델별 성능 비교 | Comparative analysis of model performances.
Model |
Inference time (sec) |
GPU Memory (MByte) |
Top-1 Acc (%) |
Top-2 Acc (%) |
Top-5 Acc (%) |
ShuffleNet V2 x0.5 |
2.99 |
592 |
81.83 |
93.18 |
98.46 |
ShuffleNet V2 x2.0 |
3.75 |
602 |
87.38 |
95.68 |
99.10 |
ResNet-50 |
5.54 |
1,102 |
89.89 |
96.25 |
99.14 |
ResNet-152 |
8.55 |
1,420 |
89.84 |
96.66 |
99.25 |
ResNext-101-32x8d |
11.10 |
1,626 |
89.98 |
96.49 |
99.30 |
MobileNet V3 Small |
3.75 |
668 |
88.11 |
95.56 |
98.85 |
MobileNet V3 Large |
4.31 |
925 |
89.36 |
95.85 |
98.92 |
Wide ResNet-50-2 |
6.56 |
1,363 |
89.97 |
96.47 |
99.20 |
Wide ResNet-101-2 |
10.93 |
1,709 |
89.73 |
96.46 |
99.34 |
Densenet-169 |
6.63 |
971 |
90.24 |
96.56 |
99.24 |
Densenet-201 |
7.84 |
984 |
89.90 |
96.61 |
99.41 |
Download Excel Table
표 2는 Densenet-169와 MobileNetV3 Small의 혼동 행렬을, 그림 4는 이 두 모델 및 ShuffleNetV2×0.5의 SNR별 분류 정확도를 보여준다. Densenet-169와 MobileNetV3 Small의 분류 정확도(괄호 안의 값)를 보면 P1, P4, T2, T4의 변조 기법 간의 분류 정확도 차이가 큰 것을 알 수 있다.
표 2. | Table 2.
Densenet-169 및 MobileNetV3 Small(괄호 안)의 혼동행렬 | Confusion Matrix for Densenet-169 and MobileNetV3 Small.
A |
BPSK |
Costas |
Frank |
LFM |
P1 |
P2 |
P3 |
P4 |
T1 |
T2 |
T3 |
T4 |
P |
BPSK |
92.1 (91.3) |
0.5 (0.8) |
0.0 (0.1) |
0.0 (0.0) |
0.3 (0.1) |
0.5 (0.0) |
0.0 (0.4) |
0.0 (0.1) |
2.0 (2.9) |
3.0 (2.9) |
0.9 (0.6) |
0.8 (0.9) |
Costas |
1.3 (0.9) |
98.1 (98.5) |
0.0 (0.1) |
0.0 (0.0) |
0.1 (0.0) |
0.3 (0.1) |
0.0 (0.3) |
0.3 (0.0) |
0.0 (0.0) |
0.0 (0.0) |
0.0 (0.1) |
0.0 (0.0) |
Frank |
0.5 (0.5) |
0.1 (0.0) |
85.0 (82.5) |
0.4 (0.6) |
1.4 (1.3) |
0.0 (0.0) |
10.8 (12.8) |
0.6 (0.8) |
0.0 (0.4) |
0.1 (0.0) |
0.6 (0.6) |
0.5 (0.6) |
LFM |
0.1 (0.1) |
0.0 (0.0) |
0.4 (0.3) |
96.5 (95.5) |
0.9 (1.6) |
0.0 (0.0) |
0.3 (0.1) |
1.4 (2.1) |
0.0 (0.0) |
0.3 (0.1) |
0.0 (0.0) |
0.3 (0.1) |
P1 |
0.1 (0.3) |
0.1 (0.1) |
1.4 (1.3) |
2.3 (2.9) |
78.6 (74.1) |
0.0 (0.1) |
0.4 (1.0) |
15.8 (18.6) |
0.3 (0.3) |
0.3 (0.0) |
0.1 (0.6) |
0.8 (0.8) |
P2 |
0.5 (1.0) |
0.4 (0.3) |
0.0 (0.1) |
0.0 (0.0) |
0.0 (0.0) |
97.8 (96.5) |
0.1 (0.1) |
0.1 (0.1) |
0.0 (0.0) |
0.4 (0.3) |
0.4 (0.8) |
0.4 (0.9) |
P3 |
0.4 (0.6) |
0.4 (0.1) |
11.3 (11.4) |
0.0 (0.4) |
1.5 (1.4) |
0.1 (0.0) |
83.4 (82.6) |
1.9 (1.8) |
0.5 (0.4) |
0.0 (0.1) |
0.4 (0.5) |
0.3 (0.8) |
P4 |
0.1 (0.3) |
0.3 (0.3) |
0.5 (1.1) |
2.3 (3.3) |
11.5 (13.6) |
0.1 (0.0) |
1.0 (1.9) |
83.3 (78.9) |
0.3 (0.3) |
0.0 (0.0) |
0.1 (0.0) |
0.6 (0.5) |
T1 |
2.1 (3.5) |
0.3 (0.1) |
0.3 (0.4) |
0.3 (0.1) |
0.1 (0.0) |
0.4 (0.6) |
0.3 (0.4) |
0.4 (0.5) |
89.9 (87.4) |
2.6 (1.9) |
1.4 (2.8) |
2.1 (2.4) |
T2 |
1.4 (2.5) |
0.0 (0.0) |
0.1 (0.0) |
0.1 (0.1) |
0.1 (0.4) |
0.4 (0.3) |
0.0 (0.1) |
0.1 (0.1) |
0.9 (1.3) |
93.5 (90.5) |
1.3 (1.3) |
2.1 (3.5) |
T3 |
0.6 (0.6) |
0.3 (0.3) |
0.4 (0.6) |
0.0 (0.0) |
0.1 (0.1) |
0.9 (0.3) |
0.3 (0.1) |
0.0 (0.3) |
1.3 (2.8) |
0.5 (0.6) |
94.8 (93.4) |
1.0 (1.0) |
T4 |
0.8 (1.1) |
0.0 (0.4) |
0.1 (0.4) |
0.1 (0.0) |
0.8 (1.1) |
0.9 (1.0) |
0.3 (0.0) |
0.5 (0.6) |
2.0 (3.1) |
3.4 (4.3) |
1.3 (1.8) |
90.0 (86.3) |
Download Excel Table
그림 4. | Fig. 4.
SNR에 따른 변조 기법 분류 정확도 비교 | A classification accuracy for twelve LPI radar waveforms across a range of SNR from −10 dB to 0 dB.
Download Original Figure
따라서 그림 5와 같이 MobileNetV3 Small을 통해 전체 클래스를 최단 시간 내에 분류하고, 분류 난이도가 높은 P1, P4, T2, T4를 Densenet-169로 재분류하는 앙상블 모델을 통해 분류 시간, 메모리 사용량, 정확도에서 높은 성능을 달성할 수 있다.
그림 5. | Fig. 5.
임의 탐지된 LPI 신호 분류를 위한 앙상블 모델 | Ensemble model for the classification of arbitrary intercepted LPI signals.
Download Original Figure
Ⅴ. 결 론
본 논문에서는 전장 환경에서 발생하는 신호 잡음 및 간섭으로 인해 펄스의 일부 정보만 파악할 수 있는 상황을 고려하여, 임의로 탐지된 LPI 신호를 생성하는 아키텍처를 제시하였다. 또한 임의 탐지된 LPI 신호들의 변조 기법을 분류하기 위한 딥러닝 모델들의 성능을 비교하였다. 이를 통해 분류 시간 및 GPU 메모리 사용량에서 우수한 성능을 보이는 MobileNet V3 Small을 메인 모델로, 정확도에서 높은 성능을 보이는 Densenet-169을 서브 모델로 활용하여 구성된 앙상블 모델을 제안하였다. 본 연구에서 제시된 결과를 바탕으로, 향후 더욱 실전적인 LPI 신호 분류 연구가 진행될 수 있을 것이다.
Acknowledgements
이 연구는 2021년 정부(방위사업청)의 재원으로 국방기술진흥연구소의 지원을 받아 수행된 연구임(KRIT-CT-21-033).
이 연구는 육군사관학교 미래전략기술연구소의 연구활동비 지원을 받아 수행되었음(23-AI-연구소-05).
References
D. C. Schleher,
Introduction to Electronic Warfare, Dedham, MA, Artech House, 1986.
P. E. Pace,
Detecting and Classifying Low Probability of Intercept Radar, Boston, MA, Artech House, 2009.
D. C. Schleher, "LPI radar: Fact or fiction,"
IEEE Aerospace and Electronic Systems Magazine, vol. 21, no. 5, pp. 3-6, May 2006.
L. M. Hoang, M. J. Kim, and S. H. Kong, "Deep learning approach to LPI radar recognition," in
2019 IEEE Radar Conference(RadarConf), Boston, MA, 2019, pp. 1-8.
Z. Qu, W. Wang, C. Hou, and C. Hou, "Radar signal intra-pulse modulation recognition based on convolutional denoising autoencoder and deep convolutional neural network,"
IEEE Access, vol. 7, pp. 112339-112347, Aug. 2019.
Z. Xiao, Z. Yan, "Radar emitter identification based on novel time-frequency spectrum and convolutional neural network,"
IEEE Communications Letters, vol. 25, no. 8, pp. 2634-2638, May 2021.
D. H. Park, J. H. Bang, J. H. Park, and H. N. Kim, "A fast and accurate convolutional neural network for LPI radar waveform recognition," in
2022 19th European Radar Conference(EuRAD), Milan, 2022, pp. 89-92.
S. H. Kong, M. Kim, L. M. Hoang, and E. Kim, "Automatic LPI radar waveform recognition using CNN,"
IEEE Access, vol. 6, pp. 4207-4219, Jan. 2018.
L. Bo, W. Jun, "Research on the tactical and technical index system of electronic reconnaissance system of early warning aircraft,"
Electronic Information Warfare Technology, vol. 35, no. 1, pp. 21-25, 2020.