大数据在公司使用的阶段

虽然大家都在玩大数据,但是大部分人还是在第1和2阶段,部分公司可能到了第3阶段,因为其中涉及的专业知识太多,运维工程师,开发工程师,数据工程师,云工程师等等不一而足。

 

阶段1 技术试验阶段

在此阶段,你的团队可能会安装一个Hadoop集群和Hive(可能带有Sqoop),以便将一些数据传输到集群并运行一些查询。近年来,包括Kafka和Spark在内的组件也被考虑在内。如果要进行日志分析,也可以安装ELK(ElasticSearch,LogStash,Kibana)等套件。

但是,这些系统大多数都是复杂的分布式系统,其中一些系统需要数据库支持。虽然许多提供单节点模式供你使用,但你的团队仍需要熟悉常见的Devops工具,如Ansible,Puppet,Chef,Fabric等。

由于开源社区的辛勤工作,对大多数工程团队来说,使用这些工具和原型设计应该是可行的。如果团队里面有一些优秀的工程师,你可能会在几周内设置好一个可以联通及运行的系统,具体的工作量一般取决于你要安装的组件数量。

 

 

阶段2 自动化阶段

在这个阶段,你已经拥有了一个基本的大数据系统,接下来你的需求可能有:

  • 一些定期运行的Hive查询,比如每小时一次或每天一次,以生成一些商业智能报告;

  • 使用一些Spark程序运行机器学习程序,生成一些用户分析模型,使你的产品系统可以提供个性化服务;

  • 一些需要不时从远程站点提取数据的爬虫程序;

  • 或一些流数据处理程序,用于创建实时数据仪表板,显示在大屏幕上。

要实现这些需求,你需要一个作业调度系统,以根据时间或数据可用性来运行它们。像Oozie,Azkaban,Airflow等工作流系统允许你指定何时运行程序(类似Linux机器上的Cron程序)。

工作流系统之间的功能差异很大。例如,一些系统提供依赖关系管理,允许你指定调度逻辑,如作业A仅在作业B和作业C完成时运行;一些系统允许仅管理Hadoop程序,而另一些系统则允许更多类型的工作流程。你必须决定一个最符合你要求的。

除了工作流程系统,你还有其他需要自动化的任务。例如,如果你的HDFS上的某些数据需要在一段时间后删除,假设数据只保留一年,那么在第366天,我们需要从数据集中最早的一天中删除数据,这称为数据保留策略。你需要编写一个程序,为每个数据源指定并实施数据保留策略,否则你的硬盘将很快耗尽。

 

 

阶段3 投入生产阶段

现在你已经拥有了一个自动数据管道,数据终于可以在这个数据流水线上流动起来!大功告成?现实情况是你的生产环境会遇到下面这些棘手的问题:

  • 第一年硬盘故障率为5.1%(与第一年服务器故障率类似)

  • 第4年服务器的故障率为11%

  • 大量使用的开源程序有很多bug

  • 你的程序可能估计也会有一些bug

  • 外部数据源有延迟

  • 数据库有停机时间

  • 网络有错误

  • 有人在运行“sudo rm -rf / usr / local /”时使用了额外的空格

这些问题发生的次数会比你想象的要频繁得多。假设你有50台机器,每台机器有8个硬盘驱动器,那么一年内将有20个硬盘驱动器故障,一个月大约2个。经过几个月的手动过程挣扎,你终于意识到你迫切地需要:

  • 监控系统:你需要一个监控程序来监控硬件,操作系统,资源使用情况,程序运行;
  • 系统探针:系统需要告诉你它的各种运行指标,以便它可以被监控;

  • 警报系统:出现问题时,需要通知运维工程师;

  • SPOF:避免单点故障,如果你不想在凌晨3点被叫醒,最好系统里不要出现SPOF;

  • 备份:你需要尽快备份重要数据;不要依赖Hadoop的3份数据副本,它们可以通过一些额外的空格被轻松删除;

  • 恢复:如果你不希望每次发生时都手动处理所有错误,那么这些错误最好尽可能自动恢复。

在这个阶段你意识到建立一个企业级的系统并不像安装一些开源程序那么容易,可能我们要多下一点苦功了。

 

 

阶段4 数据管理阶段

一个企业级的大数据系统不仅要处理与任何标准系统操作类似的硬件和软件故障问题,还要处理与数据相关的问题。对于一个真正数据驱动的IT系统,你需要确保你的数据完整,正确,准时,并为数据进化做好准备。

那么这些意味着什么?

  • 你需要知道在数据流水线的任何步骤中数据都不会丢失。因此,你需要监控每个程序正在处理的数据量,以便尽快检测到任何异常;

  • 你需要有对数据质量进行测试的机制,以便在数据中出现任何意外值时,你接收到告警信息;

  • 你需要监控应用程序的运行时间,以便每个数据源都有一个预定义的ETA,并且会对延迟的数据源发出警报;

  • 你需要管理数据血缘关系,以便我们了解每个数据源的生成方式,以便在出现问题时,我们知道哪些数据和结果会受到影响;

  • 系统应自动处理合法的元数据变更,并应立即发现和报告非法元数据变更;

  • 你需要对应用程序进行版本控制并将其与数据相关联,以便在程序更改时,我们知道相关数据如何相应地更改。

此外,在此阶段,你可能需要为数据科学家提供单独的测试环境来测试其代码。并给他们提供各种便捷和安全的工具,让他们能快速验证自己的想法,并能方便地发布到生产环境。

 

 

阶段5 重视安全性阶段

在这个阶段大数据已经与你密不可分:面向客户的产品由数据驱动,你的公司管理层依靠实时的业务数据分析报告来做出重大决策。你的数据资产安全将变得非常最重要,你能确定你的数据只有合适的人员才能访问吗?并且你的系统拥有身份验证和授权方案吗?

一个简单的例子是Hadoop的Kerberos身份验证。如果你没有使用Kerberos集成运行Hadoop,那么拥有root访问权限的任何人都可以模拟Hadoop集群的root用户并访问所有数据。其他工具如Kafka和Spark也需要Kerberos进行身份验证。由于使用Kerberos设置这些系统非常复杂(通常只有商业版本提供支持),我们看到的大多数系统都选择忽略Kerberos集成。

除了身份验证问题,以下是你在此阶段需要处理的一些问题:

  • 审计:系统必须审计系统中的所有操作,例如,谁访问了系统中的内容

  • 多租户:系统必须支持多个用户和组共享同一个集群,具有资源隔离和访问控制功能;他们应该能够安全,安全地处理和分享他们的数据;

  • 端到端安全性:系统中的所有工具都必须实施正确的安全措施,例如,所有Hadoop相关组件的Kerberos集成,所有网络流量的https / SSL;

  • 单点登录:系统中的所有用户在所有工具中都应具有单一身份,这对于实施安全策略非常重要。

由于大多数开源工具都没有在其免费版本中提供这些功能,因此许多项目在安全问题上采用“撞大运”的方法并不奇怪。我们同意安全的价值对不同的项目来说有不同的理解,但人们必须意识到潜在的问题并采取适当的方法。

 

 

阶段6 云基础架构的大数据阶段

在这个阶段随着业务的不断增长,越来越多的应用程序被添加到大数据系统中。除了像Hadoop / Hive / Spark这样的传统大数据系统,你现在需要使用TensorFlow运行深度学习,使用InfluxDB运行一些时间序列分析,使用Heron来处理流数据,或者一些Tomcat程序来提供数据服务API。每当你需要运行一些新程序时,你会发现配置机器和设置生产部署的过程非常繁琐,并且有很多的坑要踩。此外,有的时候你需要临时搞到一些机器来完成一些额外的分析工作,例如,可能是一些POC,或者要对一个比较大的数据集进行训练。

这些问题是你首先需要在云基础架构上运行大数据系统的原因。像Mesos这样的云平台为分析工作负载和一般工作负载提供了极大的支持,并提供了云计算技术提供的所有好处:易于配置和部署,弹性扩展,资源隔离,高资源利用率,高弹性,自动恢复。

在云计算环境中运行大数据系统的另一个原因是大数据工具的发展。传统的分布式系统(如MySQL集群,Hadoop和MongoDB集群)倾向于处理自己的资源管理和分布式协调。但是现在由于Mesos / Yarn这样的分布式资源管理器和调度程序的出现,越来越多的分布式系统(如Spark)将依赖底层分布式框架来提供这些资源分配和程序协调调度的分布式操作原语。在这样的统一框架中运行它们将大大降低复杂性并提高运行效率。

 

 

总结

我们看到过处于各种阶段的实际的大数据项目。在Hadoop被采用了10多年之后,我们看到的大部分项目仍然停留在第1阶段或第2阶段。这里主要的问题是在第3阶段实施系统需要大量的专业知识和大量投资。Google的一项研究表明,构建机器学习系统所花费的时间中只有5%用于实际的机器学习代码,另外95%的时间用于建立正确的基础架构。由于数据工程师因难以培训而非常昂贵(由于需要对分布式系统有很好的理解),因此大多数公司都很不幸的没能走进大数据时代的快车道。

 

转载自:https://mp.weixin.qq.com/s/gpN1RcFZBKGCYtlG9UIPuw

posted @ 2019-09-12 17:07  boiledwater  阅读(429)  评论(0编辑  收藏  举报