https://baechu-story.tistory.com/61
[논문 리뷰] Mechanisms that Incentivize Data Sharing in Federated Learning
1. 요약 이 논문은 2022 NeuralPS 연합학습 Workshop에서 발표되었다. 논문에서는 연합학습 환경에서 합리적인 행동을 하는 agent(client)를 가정하고, 데이터의 공유를 막는 free-riding 문제를 제시한다. 그
baechu-story.tistory.com
지난 글에 이어 두 번째로 연합학습에서 인센티브 메커니즘을 다룬 논문이다.
1. 요약
클라이언트가 local 모델보다 높은 정확도를 갖는 global 모델을 얻는 것을 incentive로 정의한다. 또한 Incentivce 효과를 측정할 metric으로 Incentivized Participation Rate(IPR)을 제시한다. 마지막으로, aggregation 과정에서 client weight를 동적으로 조절해 IPR을 최대화하는 알고리즘 INCFL(INCentive FL)을 제안한다.
2. Incentivized Participation Rate(IPR)
연합학습에서 global model을

II는 주어진 원소가 집합에 속하면 1을, 아니면 0을 리턴하는 지시함수다. 만약 global 모델 loss 값이 더 작으면 II는 1을 리턴한다. 위 식을 최대화하는 w를 찾는 것은 다음 식을 최소화하는 것과 같다.

위 식에서 sign(x)는 x가 양수면 1을, 아니면 0을 리턴한다. sign 함수 안에 있는 식은 인센티브의 정의인
1. 미분 불가능한 지점이 있는 sign 함수를 sigmoid로 교체
2. 실제 데이터 분포에 따른 loss function
이에 따라 다음과 같이 INCFL의 목적함수를 설정할 수 있다.

3. INCFL
위에서 제시된 INCFL의 목적함수

이 결과를 이해하기 위해서는
위 gradient는 사실 standard FL 알고리즘의 gradient

또한 논문에서는 빠른 수렴을 위해 FedAvg처럼 여러 local update 후, 서버에서 aggregation을 진행한다. 서버와 client는 다른 learning rate를 사용하고, 서버의 learning rate는 해당 round client들의 가중치
4. 실험 결과
실험은 INCFL과 standard FedAvg, 데이터 이질성 해결을 목표로 하는 FedProx, client 참여에 인센티브를 제공하는 MW-Fed를 대상으로 진행됐다. INCFL은 학습 과정에서 global model을 local data에 맞게 fine-tuning하는 Personalization 방법을 적용했다. Metric으로는 1) Incentivized Participation Rate(IPR) 2) global 모델, client 모델 중 더 나은 모델의 정확도 두 가지를 사용했다.

위 그래프에서 볼 수 있듯이, INCFL의 IPR과 test accuracy는 다른 어떤 알고리즘보다 높은 모습을 보였다.

3가지 데이터셋에서 train에 참여하지 않은 client의 IPR과 test accuracy을 비교해보았다. 그 결과 IPR은 다른 알고리즘에 비해 최소 40%, 정확도는 최소 6% 더 높은 결과를 보여, INCFL의 높은 일반화 능력을 확인할 수 있었다.
train data 비율의 효과
train data의 비율이 높으면 client model은 더 잘 훈련되어, 자신의 데이터를 좀 더 잘 예측할 수 있다. train data를 80%로 높게 설정해도 INCFL은 비교 알고리즘에 비해 높은 IPR을 기록했다.
5. 결론 및 느낀점
인센티브를 local 모델보다 좋은 성능의 global 모델을 가지는 것이라고 새롭게 정의한 내용이 인상 깊었다. 이를 통해 기존 personalization 방법들을 인센티브 메커니즘에 적용할 수 있겠다는 생각이 들었다. 아쉬운 점은 본문의 실험에서 INCFL에만 local fine-tuning을 진행하고 다른 personalization 알고리즘은 비교 대상에 넣지 않은 점이 아쉽다. 이런 방법으로는 fine-tuning 과정을 거친 INCFL의 성능이 좋게 나오는 게 당연한 것 같다. 또한 논문의 결론에서는 cross-slio, cross-device에 모두 적용이 가능하다고 하지만 cross-device에서는 client가 성능을 비교하고 연합학습에 참여하는 일은 없을 것 같아 cross-device에만 적용이 가능할 것 같다. 한편으로는 INCFL이 일반화 성능이 좋아 train에 참여하지 않은 client에서도 좋은 성능을 내는 것을 보고, free-riding 문제가 해결이 안될 것 같다고도 느꼈다.