AWS. Curso de Big Data Architect en en Hadoop, Spark y Amazon

Apache Hadoop y Apache Spark fueron diseñados para trabajar en un mismo contexto y aunque ambos realizan muchas funciones similares, ambos son un complemento perfecto el uno del otro en el sector del Big Data y la minería de datos.

Sobre el Curso de AWS. Big Data Architect en Hadoop, Spark y Amazon

Este curso está desarrollado de un modo totalmente práctico con la intención de afianzar las habilidades adquiridas en cada clase y afrontar el examen de certificación oficial de Cloudera. Además, dispondrás de acceso total a todo el contenido durante 3 años, para que puedas repasar y practicar cuanto necesites en cualquiera de las modalidades, ya sea telepresencial u online.

 Duración:

200 Horas / 3-5 meses

 Modalidad:

Presencial, Telepresencial y Online

 Requisitos Previos:

Conocimientos previos de Sistemas. Existen programas específicos para las personas que parten de cero. 

Sobre la certificación:

El curso incluye un seminario de certificación para prepararte para las certificaciones oficiales de Cloudera Certified Associate (CCA) Data Analyst, Cloudera Certified Associate (CCA) Spark and Hadoop Developer y AWS Certified Cloud Practitioner (CLF-C01).

Para qué te prepara este curso:

Al finalizar este curso comprenderás todo el funcionamiento del BigData desde su base en los entornos Hadoop, el procesamiento de datos con Spark y su almacenamiento y estructuración en Amazon. Conocerás sus usos en la inteligencia artificial, el machine learning y en diversas industrias, las redes sociales, el marketing, los riesgos financieros y la toma de decisiones estratégicas.

Temario:

Formación Técnica

Formación técnica

Tendencias actual en Big Data.
Entorno virtual Cloudera.
Primeras operaciones con Cloudera.
Lenguajes Hive e Impala
Paas, Iaas, Saas
AWS.

Formación Específica

Big Data con MongoDB
Introducción a MongoDB.
Organización de los datos.
Manejo básico de datos.
Big Data y su ecosistema Hadoop

Introducción al Big Data.
Introducción a Hadoop y su arquitectura.
Hadoop en detalle:
a) Sistema de ficheros HDFS.
b) El paradigma MapReduce.
c) Estructura de un cluster Hadoop: JobTracker, TaskTracker, NameNode y Datanode.
d) Arquitectura YARN. Despliegue de sandbox Big Data y configuración inicial.
Ejercicios con el sistema de ficheros de Hadoop.
Ecosistema Hadoop:
a) Herramientas
b) Distribuciones: Cloudera, Horton, MapR.
c) Tecnologías Datawarehouse:
   a) Hive
   b) Ejercicios Hive.
Tecnologías Desarrollo:
a) Pig.
b) Sqoop.

Agregación de datos

Métodos básicos de agregación.
MapReduce.
Aggregation Framework.

Arquitectura de una solución MongoDB

Uso de índices.
Modelado de datos.
Replicación de los datos.
Distribución de los datos.

Big Data con Hadoop

Introducción a Hadoop.
Componentes.
Sistema de ficheros distribuido.
MapReduce.
Historia de Hadoop.
Ecosistema Hadoop.

Desarrollo con Hadoop

Configuración del entorno.
Creación y ejecución de trabajos.
Opciones de ejecución.
Interfaz para múltiples lenguajes.

Ecosistema Hadoop

Interfaces de consulta de alto nivel.
Programación basada en tuberías.
Bases de datos.
Otros proyectos.

Preparación Cloudera Certified Associate (CCA) Data Analyst

Apache Hadoop Fundamentals.
Introduction to Apache Pig.
Querying with Apache Hive and Impala.
Common Operators and Built-In Functions.
Data Management.
Data Storage and Performance.
Working with Multiple Datasets.
Analytic Functions and Windowing.
Complex Data.
Analyzing Text.
Apache Hive Optimization.
Apache Impala Optimization.
Extending Apache Hive and Impala.
Choosing the Best Tool for the Job.

Preparación Cloudera Certified Associate (CCA) Spark & Hadoop Developer

Introduction to Apache Hadoop and the Hadoop Ecosystem.
Apache Hadoop File Storage.
Distributed Processing on an Apache Hadoop Cluster.
Apache Spark Basics.
Working with DataFrames and Schemas.
Analyzing Data with DataFrame Queries.
RDD Overview.
Transforming Data with RDDs.
Aggregating Data with Pair RDDs.
Querying Tables and Views with Apache Spark SQL.
Working with Datasets in Scala.
Writing, Configuring, and Running Apache Spark Applications.
Distributed Processing.
Distributed Data Persistence.
Common Patterns in Apache Spark Data Processing.
Apache Spark Streaming: Introduction to DStreams.
Apache Spark Streaming: Processing Multiple Batches.
Apache Spark Streaming: Data Source.

Cloud Concepts

Definir la nube de AWS y su propuesta de valor.
Identificar aspectos de la economía de la nube de AWS
Enumerar los diferentes principios de diseño de la arquitectura de la nube.

Seguridad

Definir el modelo de Responsabilidad Compartida de AWS.
Definición de la página de conceptos de seguridad y cumplimiento en la nube de AWS.
Identificar las capacidades de gestión de acceso de AWS.
Identificar recursos para soporte de seguridad.

Tecnología

Definir métodos de implementación y operación en la nube de AWS
Definir la infraestructura global de AWS
Identificar los servicios centrales de AWS
Identificar recursos para soporte tecnológico.

Facturación y precios

Compare y contraste los diferentes modelos de precios para AWS.
Reconocer las diversas estructuras de cuentas en relación con la facturación y los precios de AWS.
Identificar recursos disponibles para soporte de facturación.

Proyecto & certificación

Al finalizar las clases de la formación específica realizarás, con la supervisión de tu tutor, un Proyecto de implantación sobre los conocimientos adquiridos. También, asíncronamente, tienes acceso a exámenes “tipo” para preparar por libre la Certificación oficial, prueba que se puede realizar en cualquier centro homologado de PSI.

SOLICITA MÁS INFORMACIÓN
SOLICITA MÁS INFORMACIÓN

¿Quieres este curso gratis?

Todos los cursos y másters de Cloud Formación son bonificables a través de Fundae, por lo que tienes la oportunidad de formarte tú o a tus trabajadores a un precio reducido o incluso gratis en algunos casos. Calcula tu crédito de Fundae y solicita más información