要建立一个大数据系统,我们需要从数据流的源头跟踪到最后有价值的输出,并在现有的 Hadoop 和大数据生态圈内根据实际需求挑选并整合各部分合适的组件来构建一个能够支撑多种查询和分析功能的系统平台。这其中既包括了对数据存储的选择,也涵盖了数据线上和线下处理分离等方面的思考和权衡。此外,没有任何一个引入大数据解决方案的商业应用在生产环境上承担的起安全隐患。
1. 计算框架篇
大数据的价值
只有在能指导人们做出有价值的决定时,数据才能体现其自身的价值。因此,大数据技术要服务于实际的用途,才是有意义的。一般来说,大数据可以从以下三个方面指导人们做出有价值的决定:
报表生成(比如根据用户历史点击行为的跟踪和综合分析、 应用程序活跃程度和用户粘性计算等);诊断分析(例如分析为何用户粘性下降、根据日志分析系统为何性能下降、垃圾邮件以及病毒的特征检测等);决策(例如个性化新闻阅读或歌曲推荐、预测增加哪些功能能增加用户粘性、帮助广告主进行广告精准投放、设定垃圾邮件和病毒拦截策略等)。图 1
进一步来看,大数据技术从以下三个方面解决了传统技术难以达成的目标(如图 1):
在历史数据上的低延迟(交互式)查询,目标是加快决策过程和时间, 例如分析一个站点为何变缓慢并尝试修复它;在实时数据上的低延迟查询,目的是帮助用户和应用程序在实时数据上做出决策, 例如实时检测并阻拦病毒蠕虫(一个病毒蠕虫可以在 1.3 秒内攻击 1 百万台主机);更加精细高级的数据处理算法,这可以帮助用户做出“更好”的决策, 例如图数据处理、异常点检测、趋势分析及其他机器学习算法。蛋糕模式
从将数据转换成价值的角度来说,在 Hadoop 生态圈十年蓬勃成长的过程中,YARN 和 Spark 这二者可以算得上是里程碑事件。Yarn 的出现使得集群资源管理和数据处理流水线分离,大大革新并推动了大数据应用层面各种框架的发展(SQL on Hadoop 框架, 流数据,图数据,机器学习)。
它使得用户不再受到 MapReduce 开发模式的约束,而是可以创建种类更为丰富的分布式应用程序,并让各类应用程序运行在统一的架构上,消除了为其他框架维护独有资源的开销。就好比一个多层蛋糕,下面两层是 HDFS 和 Yarn, 而 MapReduce 就只是蛋糕上层的一根蜡烛而已,在蛋糕上还能插各式各样的蜡烛。
在这一架构体系中,总体数据处理分析作业分三块(图 2),在 HBase 上做交互式查询(Apache Phoenix, Cloudera Impala 等), 在历史数据集上编写 MapReduce 程序抑或利用 Hive 等做批处理业务, 另外对于实时流数据分析 Apache Storm 则会是一种标准选择方案。
虽然 Yarn 的出现极大地丰富了 Hadoop 生态圈的应用场景,但仍存有两个显而易见的挑战:一是在一个平台上需要维护三个开发堆栈;二是在不同框架内很难共享数据,比如很难在一个框架内对流数据做交互式查询。这也意味着我们需要一个更为统一和支持更好抽象的计算框架的出现。
图 2
一统江湖
Spark 的出现使得批处理任务,交互式查询,实时流数据处理被整合到一个统一的框架内(图 3),同时 Spark 和现有的开源生态系统也能够很好地兼容(Hadoop, HDFS, Yarn, Hive, Flume)。 通过启用内存分布数据集,优化迭代工作负载, 用户能够更简单地操作数据,并在此基础上开发更为精细的算法,如机器学习和图算法等。
有三个最主要的原因促使 Spark 目前成为了时下最火的大数据开源社区(拥有超过来自 200 多个公司的 800 多个 contributors):
Spark 可以扩展部署到超过 8000 节点并处理 PB 级别的数据,同时也提供了很多不错的工具供应用开发者进行管理和部署;Spark 提供了一个交互式 shell 供开发者可以用 Scala 或者 Python 即时性试验不同的功能;Spark 提供了很多内置函数使得开发者能够比较容易地写出低耦合的并且能够并发执行的代码,这样开发人员就更能集中精力地为用户提供更多的业务功能而不是花费时间在优化并行化代码之上。当然 Spark 也和当年的 MapReduce 一样不是万灵药,比如对实时性要求很高的流数据处理上 Apache Storm 还是被作为主流选择, 因为 Spark Streaming 实际上是 microbatch(将一个流数据按时间片切成 batch, 每个 batch 提交一个 job)而不是事件触发实时系统,所以虽然支持者们认为 microbatch 在系统延时性上贡献并不多,但在生产环境中和 Apache Storm 相比还不是特别能满足对低延时要求很高的应用场景。
比如在实践过程中, 如果统计每条消息的平均处理时间,很容易达到毫秒级别,但一旦统计类似 service assurance(确保某条消息在毫秒基本能被处理完成)的指标, 系统的瓶颈有时还是不能避免。
但同时我们不能不注意到,在许多用例当中,与流数据的交互以及和静态数据集的结合是很有必要的, 例如我们需要在静态数据集上进行分类器的模型计算,并在已有分类器模型的基础上,对实时进入系统的流数据进行交互计算来判定类别。
由于 Spark 的系统设计对各类工作(批处理、流处理以及交互式工作)进行了一个共有抽象,并且生态圈内延伸出了许多丰富的库(MLlib 机器学习库、SQL 语言 API、GraphX), 使得用户可以在每一批流数据上进行灵活的 Spark 相关操作,在开发上提供了许多便利。
Spark 的成熟使得 Hadoop 生态圈在短短一年之间发生了翻天覆地的变化, Cloudera 和 Hortonworks 纷纷加入了 Spark 阵营,而 Hadoop 项目群中除了 Yarn 之外已经没有项目是必须的了(虽然 Mesos 已在一些场合替代了 Yarn), 因为就连 HDFS,Spark 都可以不依赖。但很多时候我们仍然需要像 Impala 这样的依赖分布式文件系统的 MPP 解决方案并利用 Hive 管理文件到表的映射,因此 Hadoop 传统生态圈依然有很强的生命力。
另外在这里简要对比一下交互式分析任务中各类 SQL on Hadoop 框架,因为这也是我们在实际项目实施中经常遇到的问题。我们主要将注意力集中在 Spark SQL, Impala 和 Hive on Tez 上, 其中 Spark SQL 是三者之中历史最短的,论文发表在 15 年的 SIGMOD 会议上, 原文对比了数据仓库上不同类型的查询在 Shark(Spark 最早对 SQL 接口提供的支持)、Spark SQL 和 Impala 上的性能比较。
也就是说, 虽然 Spark SQL 在 Shark 的基础上利用 Catalyst optimizer 在代码生成上做了很多优化,但总体性能还是比不上 Impala, 尤其是当做 join 操作的时候, Impala 可以利用“predicate pushdown”更早对表进行选择操作从而提高性能。
不过 Spark SQL 的 Catalyst optimizer 一直在持续优化中,相信未来会有更多更好的进展。Cloudera 的 Benchmark 评测中 Impala 一直比其他 SQL on Hadoop 框架性能更加优越,但同时 Hortonworks 评测则指出虽然单个数据仓库查询 Impala 可以在很短的时间内完成,但是一旦并发多个查询 Hive on Tez 的优势就展示出来。另外 Hive on Tez 在 SQL 表达能力也要比 Impala 更强(主要是因为 Impala 的嵌套存储模型导致的), 因此根据不同的场景选取不同的解决方案是很有必要的。
图 3
各领风骚抑或代有才人出?
近一年比较吸引人眼球的 Apache Flink(与 Spark 一样已有 5 年历史,前身已经是柏林理工大学一个研究性项目,被其拥趸推崇为继 MapReduce, Yarn,Spark 之后第四代大数据分析处理框架)。 与 Spark 相反,Flink 是一个真正的实时流数据处理系统,它将批处理看作是流数据的特例,同 Spark 一样它也在尝试建立一个统一的平台运行批量,流数据,交互式作业以及机器学习,图算法等应用。
Flink 有一些设计思路是明显区别于 Spark 的,一个典型的例子是内存管理,Flink 从一开始就坚持自己精确的控制内存使用并且直接操作二进制数据,而 Spark 一直到 1.5 版本都还是试用 java 的内存管理来做数据缓存,这也导致了 Spark 很容易遭受 OOM 以及 JVM GC 带来的性能损失。
但是从另外一个角度来说, Spark 中的 RDD 在运行时被存成 java objects 的设计模式也大大降低了用户编程设计门槛, 同时随着 Tungsten 项目的引入,Spark 现在也逐渐转向自身的内存管理, 具体表现为 Spark 生态圈内从传统的围绕 RDD(分布式 java 对象集合)为核心的开发逐渐转向以 DataFrame(分布式行对象集合) 为核心。
总的来说,这两个生态圈目前都在互相学习,Flink 的设计基因更为超前一些,但 Spark 社区活跃度大很多,发展到目前毫无疑问是更为成熟的选择,比如对数据源的支持(HBase, Cassandra, Parquet, JSON, ORC)更为丰富以及更为统一简洁的计算表示。另一方面,Apache Flink 作为一个由欧洲大陆发起的项目,目前已经拥有来自北美、欧洲以及亚洲的许多贡献者,这是否能够一改欧洲在开源世界中一贯的被动角色,我们将在未来拭目以待。
2. NoSQL 数据库篇
NoSQL 数据库在主流选择上依旧集中在 MongoDB, HBase 和 Cassandra 这三者之间。在所有的 NoSQL 选择中,用 C++ 编写的 MongoDB 几乎应该是开发者最快也最易部署的选择。MongoDB 是一个面向文档的数据库,每个文档/记录/数据(包括爬取的网页数据及其他大型对象如视频等)是以一种 BSON(Binary JSON)的二进制数据格式存储, 这使得 MongoDB 并不需要事先定义任何模式, 也就是模式自由(可以把完全不同结构的记录放在同一个数据库里)。
MongoDB 对于完全索引的支持在应用上是很方便的,同时也具备一般 NoSQL 分布式数据库中可扩展,支持复制和故障恢复等功能。 MongoDB 一般应用于高度伸缩性的缓存及大尺寸的 JSON 数据存储业务中,但不能执行“JOIN”操作,而且数据占用空间也比较大,最被用户诟病的就是由于 MongoDB 提供的是数据库级锁粒度导致在一些情况下建索引操作会引发整个数据库阻塞。一般来说,MongoDB 完全可以满足一些快速迭代的中小型项目的需求。
下面来主要谈谈 Cassandra 和 HBase 之间的比较选择。Cassandra 和 HBase 有着截然不同的基因血统。HBase 和其底层依赖的系统架构源自于著名的 Google FileSystem(发表于 2003 年)和 Google BigTable 设计(发表于 2006 年), 其克服了 HDFS 注重吞吐量却牺牲 I/O 的缺点,提供了一个存储中间层使得用户或者应用程序可以随机读写数据。
具体来说,HBase 的更新和删除操作实际上是先发生在内存 MemStore 中, 当 MemStore 满了以后会 Flush 到 StoreFile, 之后当 StoreFile 文件数量增长到一定阈值后会触发 Compact 合并操作,因此 HBase 的更新操作其实是不断追加的操作,而最终所有更新和删除数据的持久化操作都是在之后 Compact 过程中进行的。
这使得应用程序在向内存 MemStore 写入数据后,所做的修改马上就能得到反映,用户读到的数据绝不会是陈旧的数据,保证了 I/O 高性能和数据完全一致性; 另一方面来说, HBase 基于 Hadoop 生态系统的基因就已经决定了他自身的高度可扩展性、容错性。
在数据模型上,Cassandra 和 HBase 类似实现了一个 key-value 提供面向列式存储服务,其系统设计参考了 Amazon Dynamo (发表于 2007 年) 分布式哈希(DHT)的 P2P 结构(实际上大部分 Cassandra 的初始工作都是由两位从 Amazon 的 Dynamo 组跳槽到 Facebook 的工程师完成),同样具有很高的可扩展性和容错性等特点。
除此之外, 相对 HBase 的主从结构,Cassandra 去中心化的 P2P 结构能够更简单地部署和维护,比如增加一台机器只需告知 Cassandra 系统新节点在哪,剩下的交给系统完成就行了。同时,Cassandra 对多数据中心的支持也更好,如果需要在多个数据中心进行数据迁移 Cassandra 会是一个更优的选择。
Eric Brewer 教授提出的经典 CAP 理论认为任何基于网络的数据共享系统,最多只能满足数据一致性、可用性、分区容忍性三要素中的两个要素。实际分布式系统的设计过程往往都是在一致性与可用性上进行取舍,相比于 HBase 数据完全一致性的系统设计,Cassandra 选择了在优先考虑数据可用性的基础上让用户自己根据应用程序需求决定系统一致性级别。
比如:用户可以配置 QUONUM 参数来决定系统需要几个节点返回数据才能向客户端做出响应,ONE 指只要有一个节点返回数据就可以对客户端做出响应,ALL 指等于数据复制份数的所有节点都返回结果才能向客户端做出响应,对于数据一致性要求不是特别高的可以选择 ONE,它是最快的一种方式。
从基因和发展历史上来说,HBase 更适合用做数据仓库和大规模数据处理与分析(比如对网页数据建立索引), 而 Cassandra 则更适合用作实时事务和交互式查询服务。Cassandra 在国外市场占有比例和发展要远比国内红火, 在不少权威测评网站上排名都已经超过了 HBase。目前 Apache Cassandra 的商业化版本主要由软件公司 DataStax 进行开发和销售推广。另外还有一些 NoSQL 分布式数据库如 Riak, CouchDB 也都在各自支持的厂商推动下取得了不错的发展。
虽然我们也考虑到了 HBase 在实际应用中的不便之处比如对二级索引的支持程度不够(只支持通过单个行键访问,通过行键的范围查询,全表扫描),不过在明略的大数据基础平台上,目前整合的是依然是 HBase。
理由也很简单,HBase 出身就与 Hadoop 的生态系统紧密集成,其能够很容易与其他 SQL on Hadoop 框架(Cloudera Impala, Apache Phoenix, or Hive on Tez)进行整合,而不需要重新部署一套分布式数据库系统,而且可以很方便地将同样的数据内容在同一个生态系统中根据不同框架需要来变换存储格式(比如存储成 Hive 表或者 Parquet 格式)。
我们在很多项目中都有需要用到多种 SQL on Hadoop 框架,来应对不同应用场景的情况,也体会到了在同一生态系统下部署多种框架的简便性。 但同时我们也遇到了一些问题, 因为 HBase 项目本身与 HDFS 和 Zookeeper 系统分别是由不同开源团队进行维护的,所以在系统整合时我们需要先对 HBase 所依赖的其他模块进行设置再对 HBase 进行配置,在一定程度上降低了系统维护的友好性。
目前我们也已经在考虑将 Cassandra 应用到一些新的客户项目中,因为很多企业级的应用都需要将线上线下数据库进行分离,HBase 更适合存储离线处理的结果和数据仓库,而更适合用作实时事务和并发交互性能更好的 Cassandra 作为线上服务数据库会是一种很好的选择。
3. 大数据安全篇
随着越来越多各式各样的数据被存储在大数据系统中,任何对企业级数据的破坏都是灾难性的,从侵犯隐私到监管违规,甚至会造成公司品牌的破坏并最终影响到股东收益。给大数据系统提供全面且有效的安全解决方案的需求已经十分迫切:
大数据系统存储着许多重要且敏感的数据,这些数据是企业长久以来的财富与大数据系统互动的外部系统是动态变化的,这会给系统引入新的安全隐患在一个企业的内部,不同 Business Units 会用不同的方式与大数据系统进行交互,比如线上的系统会实时给集群推送数据、数据科学家团队则需要分析存储在数据仓库内的历史数据、运维团队则会需要对大数据系统拥有管理权限。因此为了保护公司业务、客户、财务和名誉免于被侵害,大数据系统运维团队必须将系统安全高度提高到和其他遗留系统一样的级别。同时大数据系统并不意味着引入大的安全隐患,通过精细完整的设计,仍然能够把一些传统的系统安全解决方案对接到最新的大数据集群系统中。
一般来说,一个完整的企业级安全框架包括五个部分:
Administration: 大数据集群系统的集中式管理,设定全局一致的安全策略Authentication: 对用户和系统的认证Authorization:授权个人用户和组对数据的访问权限Audit:维护数据访问的日志记录Data Protection:数据脱敏和加密以达到保护数据的目的系统管理员要能够提供覆盖以上五个部分的企业级安全基础设施,否则任何一环的缺失都可能给整个系统引入安全性风险。
在大数据系统安全集中式管理平台这块,由 Hortonworks 推出的开源项目 Apache Ranger 就可以十分全面地为用户提供 Hadoop 生态圈的集中安全策略的管理,并解决授权 (Authorization) 和审计 (Audit)。例如,运维管理员可以轻松地为个人用户和组对文件、数据等的访问策略,然后审计对数据源的访问。
与 Ranger 提供相似功能的还有 Cloudera 推出的 Apache Sentry 项目,相比较而言 Ranger 的功能会更全面一些。
而在认证(Authentication)方面, 一种普遍采用的解决方案是将基于 Kerberos 的认证方案对接到企业内部的 LDAP 环境中, Kerberos 也是唯一为 Hadoop 全面实施的验证技术。
另外值得一提的是 Apache Knox Gateway 项目,与 Ranger 提高集群内部组件以及用户互相访问的安全不同,Knox 提供的是 Hadoop 集群与外界的唯一交互接口,也就是说所有与集群交互的 REST API 都通过 Knox 处理。这样,Knox 就给大数据系统提供了一个很好的基于边缘的安全(perimeter-based security)。
基于以上提到的五个安全指标和 Hadoop 生态圈安全相关的开源项目, 已经足已证明基于 Hadoop 的大数据平台我们是能够构建一个集中、一致、全面且有效的安全解决方案。
4. 总结
本文主要介绍了如何将 Hadoop 和大数据生态圈的各部分重要组件有机地联系在一起去创建一个能够支撑批处理、交互式和实时分析工作的大数据平台系统。其中,我们重点尝试从计算框架、 NoSQL 数据库以及大数据平台安全这三方面分析了在不同的应用场景中相应的技术选型以及需要考虑到的权衡点,希望让大家对如何建立一个完整可用的安全大数据平台能有一个直观的认识。
本文作者:江金陵
来源:51CTO
相关资源:七夕情人节表白HTML源码(两款)