Contenido
Especialista en Big Data con Apache Hadoop.
Duración: 5 Semanas
Conoce las funciones del marco de trabajo Apache Haddop en JAVA para aplicar las técnicas y herramientas del Big Data cuando lo requieras
Presentación:
Big Data es el término que se utiliza para describir los grandes volúmenes de datos que componen Internet y la posibilidad de obtener información sobre ellos. La información en Internet está formada por datos estructurados, y por desestructurados, que en cantidad superan tres veces a los primeros y que provienen mayormente de las herramientas de redes sociales. Actualmente en menos de un minuto: se generan cerca de 100.000 tweets, se descargan 25.000 aplicaciones, 300.000 personas se loguean a Facebook y se ven 1,5 millones de videos en YouTube. Se estima que en 2014 cada día fueron creados cerca de 3 trillones de bytes de datos y se espera que para el año 2020 haya 35 zettabytes de información. La disciplina dedicada a los datos masivos y que se ocupa de todas las actividades relacionadas con los sistemas que manipulan grandes conjuntos de datos es Big Data. Las dificultades más habituales vinculadas a la gestión de estas cantidades de datos se centran en la captura, el almacenamiento, búsqueda, distribución (compartir), análisis y visualización de los datos. Dentro de las herramientas para trabajar con Big Data Apache Software Foundation creó Hadoop. Haddop es un marco de trabajo de software basado en Java y que soporta aplicaciones distribuidas bajo una licencia de software libre – freeware. Permite a las aplicaciones trabajar con miles de nodos y petabytes de datos. La formación de Especialista en Big Data tiene como objetivo familiarizar a los participantes con el uso de las técnicas y herramientas más difundidas de Hadoop. Se espera que los participantes incorporen criterios para saber cuándo emplear y cuando no emplear las técnicas y herramientas de Big Data.
Modalidad: A distancia
100% a distancia
Material descargable
Acompañamiento de tutores
En vivo o acceso a las grabaciones
Qué vas a aprender:
Objetivo general:
Formar a los asistentes en Big Data, para lo que se requiere que los participantes: Entiendan las ventajas y desventajas de las técnicas de Big Data Sepan distinguir los problemas que son susceptibles de emplear las técnicas de Big Data Comprendan los contextos en los cuales Big Data no tiene sentido desde el punto de vista de almacenamiento y explotación de la información Conozcan las herramientas disponibles identificando sus fortalezas y debilidades Sepan utilizar las funciones más difundidas de Apache Hadoop Puedan diseñar un flujo de trabajo con MapReduce, el modelo de programación utilizado por Google para dar soporte a la computación paralela
Objetivos específicos:
Que los participantes Conozcan las futuras tendencias sobre Hadoop
Que los participantes manejen la escritura de código para la fase map y para la fase reduce.
Que los participantes Conozcan proyectos relacionados de Apache con Hadoop
Que los participantes descubran como paralelizar los problemas para sacar ventaja cabal del procesamiento distribuido.
Que los participantes Entiendan las diferencias entre Hive y Pig
Que los participantes entiendan la arquitectura de HDFS y desde esa comprensión valoren el impacto de los comandos de manipulación de archivos.
Que los participantes utilicen las herramientas de HDFS para manipulación de archivos.
Que los participantes puedan elegir apropiadamente la distribución de Apache Hadoop que mejor se adapta a su problemática. Que los participantes puedan configurar adecuadamente los recursos de Apache Hadoop que van a utilizar. Que los participantes conozcan el impacto de los principales parámetros de configuración en el comportamiento futuro de las herramientas Apache Hadoop
Que los participantes desarrollen un criterio propio para saber cuándo aplicar herramientas de Big Data y cuando no. Que los participantes tengan como referencia aplicaciones útiles ya establecidas de las herramientas de Big Data para guiar su accionar.
Que los participantes comprendan las diferentes herramientas que conforman el ecosistema de Apache Hadoop y el lugar que ocupan en el mismo.
Que los participantes conozcan las razones que llevan al desarrollo de las técnicas de Big Data y puedan distinguir con claridad Big Data.
Temario:
1 Modulos • 5 Unidades • Carga Horaria 38 horas
Modulo 1: Especialista en Big Data con Apache Hadoop
Unidad 1: ¿Qué es Apache Hadoop?
Unidad 2: ¿Cuando usar Apache Hadoop?
Unidad 3: ¿Como configuramos un entorno Apache Hadoop?
Unidad 4: HDFS y MAP REDUCE
Unidad 5: Otros Lenguajes para Hadoop y Pasos Siguientes
Destinatarios:
Profesionales que quieran aplicar herramientas y técnicas de Big Data a problemas de negocios ya sea en forma general o dentro de las herramientas propuestas por Apache Hadoop.
Requisitos:
Los alumnos se beneficiarán de conocimientos básicos de estadística, de nociones de manejo de bases de datos SQL y de programación estructurada. Carecer de toda esta información hará difícil aunque no imposible seguir ágilmente el curso.
Se incluirán materiales complementarios y se responderán las preguntas individuales necesarias para asegurar el éxito de todos los participantes.
Metodología de enseñanza-aprendizaje:
Toda la comunicación con los tutores la tendrás por medio de nuestro Campus Virtual, el cual está disponible las 24hs y donde encontrarás:
Foros de debate.
Consultas al tutor por medio de foros y mensajería interna.
Material de lectura obligatoria.
Contenidos complementarios.
Actividades y trabajos integradores individuales y/o grupales.
Clase en tiempo real, mínimo 1 encuentro cada 15 días, a través de Zoom.
Modalidad de evaluación y acreditación:
Estudiar de forma online te permitirá organizar tus horarios y actividades cotidianas en relación con la cursada, brindándote autonomía en el aprendizaje y permitiendo que puedas estudiar cuando y donde quieras.
La modalidad es 100% a distancia, cada uno de nuestros cursos cuenta con un Campus Virtual que incluye todo el material de estudio necesario y donde se llevan a cabo las actividades necesarias para comprender e incorporar los conocimientos esperados de los temas desarrollados.
Entre las actividades que se llevan a cabo en el Aula Virtual están:
Foros de discusión: Los docentes moderarán foros en los que se podrán presentar dudas y consultas y que también funcionarán como medio de debate para desarrollar conceptos del cursado.De igual forma los foros serán el principal espacio para la generación de retroalimentación entre los tutores y los alumnos, permitiendo así construir el conocimiento de manera grupal y aprender de las experiencias o visiones de los compañeros de cursado.
Consultas al docente:El Campus Virtual cuenta con un servicio de mensajería privada que permitirá al alumno comunicarse con el docente de manera personal.
Actividades: Se desarrollarán actividades individuales y/o grupales de aplicación práctica de los conocimientos adquiridos. Algunas de las actividades serán obligatorias y evaluativas mientras otras serán de presentación opcional, pero que servirán para mejorar el conocimiento adquirido. Todas las actividades se realizan de forma online
Clases virtuales en tiempo real: En forma periódica se realizarán clases en formato videoconferencia. Estas clases, guiadas por el tutor, servirán para ahondar y complementar los temas tratados en los módulos y foros de discusión.
Certificación:
- Diploma digital verificable a través del sistema de verificación de autenticidad.
- Certificados extendidos por la Secretaría de Cultura y Extensión Universitaria de Universidad Tecnológica Nacional Regional Buenos Aires.