Fair And Robust Contribution Evaluation For Federated Learning
Кросс-сайловое федеративное обучение позволяет нескольким организациям совместно обучать модели машинного обучения, не обмениваясь необработанными данными, но обновления клиентов все еще могут приводить к утечке конфиденциальной информации посредством инференсных атак. Безопасная агрегация защищает конфиденциальность, скрывая отдельные обновления, но это усложняет оценку вклада, которая имеет решающее значение для справедливого вознаграждения и выявления некачественных или злонамеренных участников. Существующие методы оценки предельного вклада, такие как значение Шепли, несовместимы с безопасной агрегацией, а практические альтернативы, такие как Leave-One-Out, являются грубыми и полагаются на самооценку.
Новые методы оценки вклада
Представлены два показателя предельного различия вклада, совместимые с безопасной агрегацией. Fair-Private удовлетворяет стандартным аксиомам справедливости, в то время как Everybody-Else устраняет самооценку и обеспечивает устойчивость к манипуляциям, решая проблему, которая часто упускается из виду.
Теоретические гарантии и оценка
Предложены теоретические гарантии справедливости, конфиденциальности, надежности и вычислительной эффективности. Методы были протестированы на нескольких наборах данных медицинских изображений и CIFAR10 в кросс-сайловых средах. Результаты показали, что предлагаемые показатели постоянно превосходят существующие базовые уровни, лучше приближают рейтинги клиентов, основанные на значении Шепли, и повышают эффективность модели и обнаружение деструктивного поведения. Эти результаты демонстрируют, что справедливость, конфиденциальность, надежность и практическая применимость могут быть достигнуты совместно при оценке вклада в федеративном обучении, предлагая принципиальное решение для развертывания в реальных кросс-сайловых условиях.
Авторизуйтесь, чтобы оставить комментарий.
Нет комментариев.
Тут может быть ваша реклама
Пишите info@aisferaic.ru