Aprende a gestionar y analizar grandes volúmenes de datos con Hadoop, Spark y Hive. Domina conceptos y técnicas para resolver problemas de Big Data.
Aprende a gestionar y analizar grandes volúmenes de datos con Hadoop, Spark y Hive. Domina conceptos y técnicas para resolver problemas de Big Data.
Este curso proporciona una introducción práctica al ecosistema de herramientas Big Data, enfocándose en la adquisición y almacenamiento de datos masivos. Los estudiantes aprenderán los principios fundamentales y terminología del Big Data, explorando conceptos como sistemas distribuidos, el teorema CAP, y las diferencias entre tecnologías SQL y NoSQL. El curso cubre herramientas esenciales como Apache Hadoop, HDFS, Spark, Hive, Sqoop y Flume, con énfasis en su aplicación para resolver problemas reales de análisis de datos. A través de ejercicios prácticos utilizando una máquina virtual Cloudera, los participantes adquirirán experiencia directa implementando soluciones para la recolección, monitorización, almacenamiento y análisis de grandes volúmenes de datos. Al finalizar, los estudiantes podrán seleccionar las herramientas más adecuadas para diferentes escenarios de análisis de datos y comprenderán cómo diseñar flujos de trabajo efectivos para proyectos de Big Data.
4.4
(625 ratings)
18,415 already enrolled
Instructors:
Spanish
Not specified
What you'll learn
Comprender los conceptos fundamentales y la terminología del Big Data
Dominar el uso de Apache Hadoop y HDFS para el almacenamiento distribuido de datos
Diferenciar entre tecnologías SQL y NoSQL según las necesidades del proyecto
Implementar procesos de adquisición de datos con herramientas como Sqoop, Flume y Kafka
Utilizar Apache Hive y Spark para el análisis de grandes volúmenes de datos
Aplicar el teorema CAP para evaluar sistemas distribuidos en términos de consistencia, disponibilidad y tolerancia a particiones
Skills you'll gain
This course includes:
5 Hours PreRecorded video
8 assignments
Access on Mobile, Tablet, Desktop
FullTime access
Shareable certificate
Get a Completion Certificate
Share your certificate with prospective employers and your professional network on LinkedIn.
Created by
Provided by

Top companies offer this course to their employees
Top companies provide this course to enhance their employees' skills, ensuring they excel in handling complex projects and drive organizational success.





There are 6 modules in this course
Este curso ofrece una introducción completa al ecosistema Big Data, centrándose en la adquisición y almacenamiento de datos masivos. Los estudiantes aprenderán sobre arquitecturas distribuidas como Hadoop, el sistema de archivos HDFS y el modelo MapReduce, así como la diferencia entre tecnologías SQL y NoSQL aplicando el teorema CAP para entender aspectos de consistencia, disponibilidad y tolerancia a particiones. El curso cubre herramientas de adquisición de datos como Apache Flume, Sqoop y Kafka, además de sistemas analíticos como Hive, Impala y Spark. A través de ejercicios prácticos en una máquina virtual Cloudera, los participantes ganarán experiencia directa aplicando estas tecnologías para resolver problemas reales de análisis de datos en contextos industriales y científicos.
INTRODUCCIÓN
Module 1 · 40 Minutes to complete
LA MÁQUINA VIRTUAL
Module 2 · 1 Hours to complete
Introducción al ecosistema Apache Hadoop
Module 3 · 2 Hours to complete
Tecnologías SQL y NoSQL. Consistencia, fiabilidad y escalabilidad
Module 4 · 1 Hours to complete
Adquisición de datos
Module 5 · 1 Hours to complete
Herramientas para el análisis de datos industrial
Module 6 · 3 Hours to complete
Fee Structure
Instructors
Expert in Computer Architecture and Data Analysis at UAB
Antonio Espinosa is a Computer Engineer from the Universitat Autònoma de Barcelona (UAB), where he also completed his PhD in Computer Science in the Department of Computer Architecture and Operating Systems, presenting his doctoral thesis in 2000. He has worked in various technology-based companies, including Isoco, Oryzon Genomics, Strands Labs, and Blueknow until 2008, when he joined the UAB as a Postdoctoral Researcher in the Computer Architecture Department.
Pioneering High-Performance Computing at Universitat Autònoma de Barcelona
Tomás Margalef is a distinguished professor at the Universitat Autònoma de Barcelona (UAB). He earned his degree in Physical Sciences in 1988 and later joined the Department of Computer Science (Unit of Computer Architecture and Operating Systems) at UAB, where he completed his Ph.D. in 1993. In 1994, he became a Professor Titular, and since 2007, he has been a Catedrático in the area of Computer Architecture and Technology. Margalef served as the director of the Department of Computer Architecture and Operating Systems from 2008 to 2014. With over 25 years of teaching experience in computer architecture, he has also been an investigator in numerous national and international projects focused on high-performance computing, parallel and distributed computing, and their applications. Additionally, he has coordinated national projects on these topics.
Testimonials
Testimonials and success stories are a testament to the quality of this program and its impact on your career and learning journey. Be the first to help others make an informed decision by sharing your review of the course.
4.4 course rating
625 ratings
Frequently asked questions
Below are some of the most commonly asked questions about this course. We aim to provide clear and concise answers to help you better understand the course content, structure, and any other relevant information. If you have any additional questions or if your question is not listed here, please don't hesitate to reach out to our support team for further assistance.