Аспирант Копенгагенского университета усовершенствовал один из основных алгоритмов дифференциальной приватности — метода, позволяющего использовать данные о группе людей и делать на их основании полезные выводы, не раскрывая при этом сведения о конкретных членах группы.
Для извлечения индивидуальной информации, как уже было показано многими исследователями, иногда достаточно иметь доступ к агрегированным данным — например, средним или суммарным значениям за период или географическим регионам. Дифференциальная приватность основана на внесении в данные случайного шума по определенным, достаточно сложным алгоритмам. Разумеется, часть информации при этом теряется, но статистические параметры даже по зашумленным данным удается подсчитать с удовлетворительной точностью. Алгоритмы разрабатываются так, чтобы можно было менять уровень вносимого шума в зависимости от того, насколько важно скрыть индивидуальные данные по сравнению с тем, насколько важно получить более точные результаты при анализе. Усовершенствованный алгоритм позволяет защитить данные с той же надежностью, но с меньшими вычислительными затратами на добавление шума, что важно при работе с большими массивами данных.