17.06.2016
«Техносерв» примет участие в конференции «Технологии Больших Данных 2016»«Техносерв» примет участие в конференции «Технологии Больших Данных 2016»
Компания «Техносерв», крупнейший российский системный интегратор, выступит партнером конференции «Технологии Больших Данных» (ТБД-2016), которая состоится 21 июня 2016 г. в гостинице «Интурист Коломенское» (Москва, ш. Каширское, д. 39Б). Организаторами мероприятия являются издательство «Открытые системы» и агентство корпоративных коммуникаций OSP-Con.\r\n\r\nСоциальные сети, интернет вещей и мобильные решения привели к экспоненциальному росту объемов данных, для оперативной и эффективной обработки которых традиционные инструменты и средства программирования бессильны. Вместе с тем, для интенсивной обработки больших массивов разнородных и разноформатных данных можно применять набор таких инструментов, как: in-memory базы данных, Apache Hadoop, NoSQL и Spark, однако реализация промышленных проектов больших данных на их базе не всегда безболезненна. В ходе конференции участники обсудят проблемы обработки данных, все новейшие технологии и опыт работы с большими данными, применение отечественных и свободных СУБД, инструментов оперативной аналитики и машинного обучения, и многое другое.\r\n\r\nВ рамках программы форума в секции «Инструменты Больших Данных», в 14:45 с докладом «Масштабирование методов Deep Learning для обработки видеопотоков» выступит Константин Киселев, руководитель направления машинного обучения и компьютерного зрения компании «Техносерв». В своем выступлении он расскажет о том, как построить систему, способную анализировать видеопотоки со 10 тысяч камер в режиме реального времени, какие методы использовать для решения подобной задачи, а также об алгоритмах распознавания и их масштабировании в кластере. \r\n\r\n«В задачах продвинутой видеоаналитики требуется детектировать различные объекты (людей, животных, автомобили и др.) и распознавать их (распознать лицо человека или номер/марку машины). Для этого применяются методы Deep Learning - разные архитектуры сверточных нейронных сетей. Такие алгоритмы часто работают в 10-ки раз быстрее на GPU. С какими объемами данных мы имеем дело? Одна HD-камера генерирует около 4 Mb/s. Если 10 тыс. камер, это уже 40 Gb/s. И на каждом кадре могут быть интересные нам объекты и возникать события, на которые необходимо реагировать. Как построить систему, способную анализировать видеопотоки с большое количество камер в real time? Какие методы использовать для такой задачи? В своем докладе я доступно расскажу об алгоритмах распознавания и их масштабировании в кластере», - прокомментировал суть выступления Константин Киселев.\r\n\r\nНапомним, что «Техносерв» обладает большой экспертизой в области продвинутой аналитики, а его специалисты проводят лекции в рамках различных образовательных программ, посвященных работе в направлении больших данных. «Сегодня залогом успеха проектов в области Big Data и продвинутой аналитики являются эксперты, глубоко понимающие свою область и активно интересующиеся технологиями. Не секрет, что основной проблемой рынка остается именно нехватка специалистов, аналитиков, способных разработать стратегию эффективного применения данных для бизнеса и извлечь из них практическую пользу, – отмечает Евгений Линник, начальник отдела по работе с большими данными компании «Техносерв». – В «Техносерве» есть такие специалисты, и мы готовы делиться своим практическим опытом. Надеемся, что наши знания будут полезны для всех участников форума».\r\n