- PySpark Tutorial
- PySpark - Home
- PySpark - Introduction
- PySpark - Environment Setup
- PySpark - SparkContext
- PySpark - RDD
- PySpark - Broadcast & Accumulator
- PySpark - SparkConf
- PySpark - SparkFiles
- PySpark - StorageLevel
- PySpark - MLlib
- PySpark - Serializers
- PySpark Useful Resources
- PySpark - Quick Guide
- PySpark - Useful Resources
- PySpark - Discussion
PySpark 教程
Apache Spark 是用 Scala 编程语言编写的。为了支持 Python 与 Spark,Apache Spark 社区发布了一个工具 PySpark。使用 PySpark,您还可以使用 Python 编程语言处理 RDD。正是因为有一个名为 Py4j 的库,他们才能够实现这一目标。这是一个介绍性教程,涵盖了数据驱动文档的基础知识,并解释了如何处理其各种组件和子组件。
观众
本教程是为那些有志于在编程语言和实时处理框架领域发展的专业人士准备的。本教程旨在让读者轻松开始使用 PySpark 及其各种模块和子模块。
先决条件
在继续讨论本教程中给出的各种概念之前,假设读者已经了解什么是编程语言和框架。除此之外,如果读者对 Apache Spark、Apache Hadoop、Scala 编程语言、Hadoop 分布式文件系统 (HDFS) 和 Python 有深入的了解,将会非常有帮助。