Hadoop es un marco de trabajo de código abierto que permite almacenar y procesar big data en un entorno distribuido a través de clusters de ordenadores utilizando modelos de programación simples. Está diseñado para escalar desde servidores individuales hasta miles de máquinas, cada una de las cuales ofrece computación y almacenamiento local.
Esta breve aplicación proporciona una rápida introducción a Big Data, al algoritmo MapReduce y al sistema de archivos distribuidos Hadoop.
Esta aplicación ha sido preparada para los profesionales que aspiran a aprender los fundamentos del análisis de Big Data utilizando el marco Hadoop y convertirse en desarrolladores de Hadoop. Los profesionales del software, los profesionales de la analítica y los desarrolladores de ETL son los principales beneficiarios de este curso.
Temas
Introducción a Big Data
Soluciones de Big Data en Hadoop
Configuración del entorno Hadoop
Hadoop HDFS Overview
Hadoop HDFS Operations
Command Reference
MapReduce Hadoop tutorial
Streaming en Hadoop
Hadoop Multi- Node Cluster