Одной из главных тем прошедшей в Гааге конференции Global Conference on CyberSpace стали этические вопросы, связанные с работой алгоритмов.
В частности, при обсуждении за круглым столом делегат от Electronic Frontier Foundation отметил, что алгоритм выявления популярных тем на Twitter ротирует их, чтобы одни и те же «тренды» не сохранялись слишком подолгу, что в некоторых случаях это может быть приравнено к цензуре. Участники напомнили также, что Mattel разрабатывает новую Барби, которая сможет поддерживать разговор с детьми, после того как послушает их беседы друг с другом и с родителями — в Центре прав человека им. Роберта Кеннеди считают, что это неэтично, так как алгоритм по сути будет участвовать в воспитании детей. А участники от Electronic Privacy Information Center заявили, что в Facebook фактически «манипулировали сознанием» людей в ходе психологического эксперимента с 700 тыс. пользователями, выяснявшего, как на их настроение влияют изменения алгоритма формирования ленты. Было также отмечено, что алгоритмы могут влиять на исход выборов, отбирая для показа читателям новости, выставляющие кандидата в определенном свете.
Что касается мер контроля этикии, участники круглого стола сошлись во мнении, что нужно публиковать общие принципы работы алгоритмов, но при этом у компаний-разработчиков должна быть возможность вносить изменения без того, чтобы каждый раз получать одобрение регулирующих органов. Было также высказано мнение, что «нейтральных» алгоритмов не существует, каждый основан на «неизвестной идеологии», поэтому проверке должен подвергаться не код, а идеологические установки тех, кто его пишет.
Между тем, некоторые меры контроля алгоритмов на государственном уровне уже принимаются. На прошлой неделе сенат Франции внес в экономический законопроект поправку о том, что поисковые системы должны публиковать сведения о том, как они классифицируют и индексируют сайты. А в Федеральной комиссии по торговле США недавно было создано бюро, занимающееся вопросами прозрачности алгоритмов.