Трудно представить более благородное и большое дело для молодых людей, ищущих себе занятие, связанное с инновациями, чем экология. Одна из задач, которые надо решить для защиты окружающей среды, состоит в том, чтобы создать инфраструктуру сбора данных и обеспечить прозрачность их циркуляции.
В чем важность социальных проектов, основанных на данных? Как подготовить себя к участию в таких проектах? Какие качества помогут преуспеть в анализе данных? Своим мнением делится Виктор Кантор, Chief Data Scientist компании «МТС», преподаватель МФТИ и Coursera, участник рейтинга Forbes 30 under 30 в категории «Наука и технологии».
Всероссийский ИТ-конкурс, цель которого — найти новые кадры для цифровой экономики, привлекает все больше талантливой и подготовленной молодежи. В прошлом году «Цифровой прорыв» попал в Книгу рекордов Гиннесса как самый масштабный хакатон.
В Карелии собирают банк биомедицинских данных и создают цифрового помощника врача с искусственным интеллектом, способного предсказывать будущее.
Искусствовед при помощи машинного обучения и Photoshop обработал сотни изображений бюстов правителей Древнего Рима и воссоздал их портреты.
Издательство «Открытые системы» запускает специальный проект «Данные на службе добра» (DobroData). C такого ракурса Вig Data вы еще не видели!
Физики уверены: информацию следует считать пятым состоянием материи. Человечество активно «перерабатывает» материю, превращая атомы в биты.
В 2020 году объем данных составит 40 зеттабайт, предсказали аналитики.
Данные, записываемые акселерометрами, могут предупредить о землетрясении почти за минуту до его начала.
Результаты нового опроса Anaconda показывают, что на очистку и подготовку данных они расходуют почти половину своего рабочего времени.
Одно из преимуществ нового сервиса — тесная интеграция с другими сервисами используемыми для построения озер данных: Hadoop, Spark, Airflow и Kafka.
Облачные вычисления формируют новую парадигму применения ИКТ для повышения экономической эффективности предприятий.
Данные — топливо для систем искусственного интеллекта, сырье для аналитических алгоритмов и основа для систем автоматизации бизнес-процессов. Однако наивно ожидать, что данные изначально будут чистыми и пригодными для обработки, а если исходные данные некорректны, то и результаты будут соответствующими. Что можно сделать для устранения дефектов в данных? Как определить, что следует исправить, а что нет? Как узнать, когда надо устранить проблему, а когда лучше ничего не трогать? Иначе говоря: как управлять качеством данных?
В торговой сети реализуется проект автоматизированной верификации информации, среди целей которого : повышение безопасности перевозок, сокращение хищений, обеспечение надежности поставок товара, выявление неблагонадежных водителей.