首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何巧用工具实现百亿级互联网数据快速清洗?

分享背景

当下,大数据已然成为了重要的战略资源,市场规模高速增长,市场发展潜力巨大。在线社交媒体,通过数据洞察用户喜喜好,精准匹配内容与广告;金融巨鳄,从大量的数据中获得深层信息,时刻预测行业走势;电商BAT等坐拥海量数据,争相投入大数据相关产品,以数据为基础发展新型服务。一夜之间,数据相关的职业成为高潜能的香饽饽,各大企业疯抢不同领域的数据人才:市场分析师、咨询分析师、数据挖掘分析师等等。

然而,要成为专业数据挖掘和分析的工作人员并不容易,单数据清洗和转化是一项非常繁琐和复杂的工作,占用了很大的工作量。本次分享将整体介绍数据清洗的全过程,并以实战案例出发教大家在数据清洗过程中如何巧用工具。

分享主题

如何巧用工具实现百亿级互联网数据快速清洗?

分享提纲

如何解决数据采集的问题

数据质量要关注哪些问题

如何进行数据审查,并制定数据清洗计划

数据清洗实操

分享人简介

杨飞,DataStory高级数据挖掘工程师。毕业于暨南大学计算机科学,曾参与搭建DataStory亿级微博人群画像分析系统;NLP核心算法研究;大数据商业智能分析工具数说立方主力研发。

分享时间

北京时间 12 月 28 日(周四)20:00

参与方式

扫描海报二维码添加社长微信,备注「杨飞

上海交通大学博士讲师团队

从算法到实战应用

涵盖 CV 领域主要知识点

手把手项目演示

全程提供代码

深度剖析 CV 研究体系

轻松实战深度学习应用领域!

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171226A02EZZ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券