wird in neuem Tab geöffnet
Cloud Hadoop: Scaling Apache Spark
Verfasser:
Suche nach diesem Verfasser
Langit, Lynn
Mehr...
Jahr:
2020
Mediengruppe:
e-Medien Onleihe
Link zu einem externen Medieninhalt - wird in neuem Tab geöffnet
Aktion | Zweigstelle | Standorte | Mediengruppe | Status | Frist | Vorbestellungen |
Vorbestellen
|
Zweigstelle:
Onleihe
|
Standorte:
|
Mediengruppe:
e-Medien Onleihe
|
Status:
download
|
Frist:
|
Vorbestellungen:
0
|
Apache Hadoop and Spark make it possible to generate genuine 476536564 insights from big data. The Amazon cloud is natural home for this powerful toolset, providing a variety of services for running large-scale data-processing workflows. Learn to implement your own Apache Hadoop and Spark workflows on AWS in this course with big data architect Lynn Langit. Explore deployment options for production-scaled jobs using virtual machines with EC2, managed Spark clusters with EMR, or containers with EKS. Learn how to configure and manage Hadoop clusters and Spark jobs with Databricks, and use Python or the programming language of your choice to import data and execute jobs. Plus, learn how to use Spark libraries for machine learning, genomics, and streaming. Each lesson helps you understand which deployment option is best for your workload.
Jahr:
2020
Aufsätze:
Zu diesem Aufsatz wechseln
opens in new tab
Diesen Link in neuem Tab öffnen
Mehr...
Systematik:
Suche nach dieser Systematik
eLearning
Interessenkreis:
Suche nach diesem Interessenskreis
eLearning
Beschreibung:
03:13:26.00
Suche nach dieser Beteiligten Person
Mediengruppe:
e-Medien Onleihe