현재 연구되고 있는 많은 인공지능 관련 분야의 경우, 개인정보보호 문제 등으로 인하여 민감한 데이터의 공유가 불가능한 실정이다. 이러한 문제 해결을 위하여 연합학습이 주목받고 있으나, 기존의 연합학습 방법은 낮은 성능을 지닌 일부 클라이언트로 인하여 글로벌 모델 생성 시 성능 저하가 발생할 수 있다. 본 논문에서는 연합학습 과정에서 글로벌 모델의 성능에 악영향을 미치는 파라미터를 제외하고 집계하는 방법인 정확도 기반 참여 제한 연합학습을 제안한다. 제안하는 방법은 정확도를 기반으로 낮은 성능의 클라이언트를 감지하고 글로벌 모델 생성 시 참여를 제한하도록 동작한다. MNIST 데이터를 활용해 구성한 iid 및 non-iid환경에서 성능 평가를 시행하여 기존 연합학습 대비 글로벌 모델이 목표 성능에 도달하는 라운드 횟수를 iid 상황에서는 평균 2라운드, non-iid 상황에서는 평균 7.77라운드 단축하였음을 보인다.
In many fields of artificial intelligence research currently underway, the sharing of sensitive data is often impossible due to issues such as privacy protection. Federated learning has been gaining attention as a solution to this problem, however, the conventional federated learning methods can degrade the performance of the global model due to the influence of some low-performance clients. This paper proposes an accuracy-based participation restriction federated learning technique, which excludes parameters that negatively impact the performance of the global model during the federated learning process. The proposed method operates by detecting low-performance clients based on accuracy and limiting their participation in the creation of the global model. Performance evaluation was carried out in iid and non-iid environments using MNIST data, demonstrating that compared to traditional federated learning, the number of rounds required for the global model to reach the target performance is reduced by an average of 2 rounds in the iid situation, and an average of 7.77 rounds in the non-iid situation.