
Los cursos de capacitación en vivo de gran Data, dirigidos por instructores, comienzan con una introducción a conceptos elementales de grandes datos, luego progresan en los lenguajes de programación y las metodologías utilizadas para realizar análisis de datos. Se discuten, comparan e implementan las herramientas e infraestructuras para permitir el almacenamiento de datos grandes, el procesamiento distribuido y la escalabilidad en sesiones de práctica de demostración.
El entrenamiento de datos grandes está disponible como "entrenamiento en vivo en el sitio" o "entrenamiento remoto en vivo". El entrenamiento en vivo se puede realizar localmente en las instalaciones del cliente en Uruguay o en los centros de entrenamiento corporativos de NobleProg en Uruguay. El entrenamiento remoto en vivo se lleva a cabo por medio de un escritorio remoto interactivo.
NobleProg--su proveedor de capacitación local
Machine Translated
Testimonios
Me gusto la metodologia esperada por Jorge
Experian Colombia S.A
Curso: Spark para Desarrolladores
Se abarcaron otros temas adicionales que se sugirieron
German Alonso Durango Colmenares
Curso: Capacitación de Administrador para Apache Hadoop
La capacitacidad de la herramienta
Gerardo Avila - Reckitt Benckizer
Curso: KNIME Analytics Platform for BI
APRENDIZAJE DE UNA HERRAMIENTA NUEVA
MARIA ELENA DOMINGUEZ ESCUDERO - Reckitt Benckizer
Curso: KNIME Analytics Platform for BI
utilidad de los ejercicios
Algomine sp.z.o.o sp.k.
Curso: Apache NiFi para administradores
Machine Translated
Me pareció que la capacitación era buena, muy informativa ... pero podría haberse extendido durante 4 o 5 días, lo que nos permite profundizar más en diferentes aspectos.
Veterans Affairs Canada
Curso: Administración de Hadoop
Machine Translated
Realmente disfruté el entrenamiento. Anton tiene mucho conocimiento y expuso la teoría necesaria de una manera muy accesible. Es genial que el entrenamiento haya sido una gran cantidad de ejercicios interesantes, por lo que hemos estado en contacto con la tecnología que conocemos desde el principio.
Szymon Dybczak - Algomine sp.z.o.o sp.k.
Curso: Apache NiFi para administradores
Machine Translated
Encontré que este curso ofreció una excelente visión general y rápidamente toqué algunas áreas que ni siquiera estaba considerando.
Veterans Affairs Canada
Curso: Administración de Hadoop
Machine Translated
La amplia cobertura de los temas.
Roche
Curso: Big Data Solución de Almacenamiento - NoSQL
Machine Translated
Small group (4 trainees) and we could progress together. Also the trainer could so help everybody.
ICE International Copyright Enterprise Germany GmbH
Curso: Spark para Desarrolladores
Ajay fue muy amable, servicial y también conocedor del tema que estaba discutiendo.
Biniam Guulay - ICE International Copyright Enterprise Germany GmbH
Curso: Spark para Desarrolladores
Machine Translated
Los ejercicios de laboratorio. Aplicando la teoría desde el primer día en los días siguientes.
Dell
Curso: Una introducción práctica al procesamiento de flujo
Machine Translated
* Organization * Trainer's expertise with the subject
ENGIE- 101 Arch Street
Curso: Python y Spark para Big Data (PySpark)
The trainer was passionate and well-known what he said I appreciate his help and answers all our questions and suggested cases.
Curso: Una introducción práctica al procesamiento de flujo
the good energy of the trainer, he explained everything clearly and precisely
MicroStrategy Poland Sp. z o.o.
Curso: Fundamentos de Teradata
Materials (code, presentation) were good
MicroStrategy Poland Sp. z o.o.
Curso: Fundamentos de Teradata
Nice training, full of interesting topics. After each topic helpful examples were provided.
Pawel Wojcikowski - MicroStrategy Poland Sp. z o.o.
Curso: Fundamentos de Teradata
Me gusta el enfoque integral de la asignatura impartida. El curso estuvo bien estructurado, los temas se prepararon y presentaron en un buen orden, lo que nos ayudó a comprender la lógica paso a paso de cómo funcionan aspectos particulares de Teradata . Especialmente me gusta que se haya tenido un gran impacto en el tema de los índices. Pablo es una persona muy simpática y un buen maestro. El tiempo dedicado a este entrenamiento definitivamente se pasó bien.
MicroStrategy Poland Sp. z o.o.
Curso: Fundamentos de Teradata
Machine Translated
interaction
Maastricht University | UMIO
Curso: Fundamentos de Teradata
Discussing many examples.
Emily Chesworth - Maastricht University | UMIO
Curso: Fundamentos de Teradata
exercises & subquery
Maastricht University | UMIO
Curso: Fundamentos de Teradata
I liked the depth of the training. I was able to understand most of it and definitely learned from this training
Maastricht University | UMIO
Curso: Fundamentos de Teradata
passionate trainer
Sylvia Baniak - Maastricht University | UMIO
Curso: Fundamentos de Teradata
x
Maastricht University | UMIO
Curso: Fundamentos de Teradata
New learned skills
Maastricht University | UMIO
Curso: Fundamentos de Teradata
The enthusiasm of the trainer
Maastricht University | UMIO
Curso: Fundamentos de Teradata
Explicando el paso a seguir al intentar responder una pregunta a través de SQL
Maastricht University | UMIO
Curso: Fundamentos de Teradata
Machine Translated
The Topic
Accenture Inc.
Curso: Bóveda de Datos: Creación de un Almacén de Datos Escalable
Content was good
Northrop Grumman
Curso: Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data
Instructor very knowledgeable and very happy to stop and explain stuff to the group or to an individual.
Paul Anstee - Northrop Grumman
Curso: Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data
the follow along style instead of just sitting and listening.
Jack Gallacher - Northrop Grumman
Curso: Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data
The ability of the trainer to break down complex topics to simple topics.
Northrop Grumman
Curso: Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data
Fulvio took time and attention from the outset to check what delegates wanted most out of their training days and in particular I liked that he focused quite a lot of attention to working with the Shell e.g. scan, grep, egrep commands – particularly filtering over a system time period e.g. last hour. Fulvio's style and pace can be quite quick at times which mostly suited me as there were a lot of topics covered especially in the last 2 days. I realise that the class was a bit of a mixed audience with varying technical skills, so it was good to see that he was able to allow others to catchup and to help them fix their problems whenever encountered. Nothing seemed to be too much trouble for Fulvio and enjoyed this course a lot.
Northrop Grumman
Curso: Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data
Conocimiento muy bien transferido por el profesor, sin preguntas sin respuesta.
Karolin Papaj - Mowi Poland SA
Curso: Minería y Análisis de Datos
Machine Translated
Covered a lot in a short space of time. Gained a good overall knowledge of Accumulo and knowledge gained will be useful for other NoSQL databases.
Lauren Rees - Northrop Grumman
Curso: Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data
Realmente me gustaron los ejercicios de trabajo con clúster para ver el rendimiento de los nodos en el clúster y la funcionalidad extendida.
CACI Ltd
Curso: Apache NiFi para desarrolladores
Machine Translated
The trainers in depth knowledge of the subject
CACI Ltd
Curso: Apache NiFi para administradores
Ajay era un consultor muy experimentado y pudo responder a todas nuestras preguntas e incluso hizo sugerencias sobre las mejores prácticas para el proyecto en el que estamos comprometidos actualmente.
CACI Ltd
Curso: Apache NiFi para administradores
Machine Translated
That I had it in the first place.
Peter Scales - CACI Ltd
Curso: Apache NiFi para desarrolladores
content & detail to the point
Sirat Khwaja - Northrop Grumman
Curso: Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data
Codifique ejemplos a continuación en ejercicios prácticos.
Northrop Grumman
Curso: Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data
Machine Translated
El profesor ha adaptado el programa de capacitación a nuestras necesidades actuales.
EduBroker Sp. z o.o.
Curso: Python y Spark para Big Data (PySpark)
Machine Translated
The NIFI workflow excercises
Politiets Sikkerhetstjeneste
Curso: Apache NiFi para administradores
New knowledge about SOAP and Rest API.
Total Access Communication Public Company Limited
Curso: Talend Open Studio para Integración de Datos
It Good for many exercise.
Gun Thepinjai - Total Access Communication Public Company Limited
Curso: Talend Open Studio para Integración de Datos
The trainer was passionate and well-known what he said I appreciate his help and answers all our questions and suggested cases.
Curso: Una introducción práctica al procesamiento de flujo
Algunos de nuestros clientes


















.jpg)

















.png)
.jpg)








.jpg)



Programa del curso Big Data
Este curso cubre los principios de trabajo detrás de Accumulo y guía a los participantes a través del desarrollo de una aplicación de muestra en Apache Accumulo.
Audiencia
Desarrolladores de aplicaciones
Ingenieros de software
Consultores técnicos
Formato del curso
Conferencia de parte, parte de discusión, desarrollo e implementación práctica, pruebas ocasionales para medir comprensión
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo integrar Kafka Streams en un conjunto de aplicaciones Java de muestra que pasan datos desde y hacia Apache Kafka para el procesamiento de flujo.
Al final de esta capacitación, los participantes podrán:
- Comprenda las características y ventajas de Kafka Streams frente a otros marcos de procesamiento de flujos
- Procesar datos de flujo directamente dentro de un clúster de Kafka
- Escriba una aplicación Java o Scala o microservicio que se integre con Kafka y Kafka Streams
- Escribe un código conciso que transforme los temas de entrada de Kafka en temas de salida de Kafka
- Construye, empaqueta y despliega la aplicación
Audiencia
- Desarrolladores
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Notas
- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo usar Matlab para construir modelos predictivos y aplicarlos a grandes conjuntos de datos de muestra para predecir eventos futuros basados en los datos.
Al final de esta capacitación, los participantes podrán:
- Crear modelos predictivos para analizar patrones en datos históricos y transaccionales
- Use modelos predictivos para identificar riesgos y oportunidades
- Cree modelos matemáticos que capturen tendencias importantes
- Use datos de dispositivos y sistemas comerciales para reducir el desperdicio, ahorrar tiempo o reducir costos
Audiencia
- Desarrolladores
- Ingenieros
- Expertos de dominio
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Al final de esta capacitación, los participantes podrán construir aplicaciones para productores y consumidores para el procesamiento de datos de flujo en tiempo real.
Audiencia
- Desarrolladores
- Administradores
Formato de la carrera
- Parte de lectura, parte de discusión, ejercicios y práctica práctica
Nota
- Para solicitar un entrenamiento personalizado para esta carrera, contáctenos para organizarlo.
Esta capacitación en vivo dirigida por un instructor presenta los conceptos y enfoques para implementar el análisis geospacial y guía a los participantes a través de la creación de una aplicación de análisis predictivo utilizando Magellan en Spark.
Al final de esta capacitación, los participantes podrán:
- Consultar, analizar y unir datos geoespaciales de manera eficiente a escala
- Implementar datos geoespaciales en inteligencia empresarial y aplicaciones de análisis predictivo
- Utilice el contexto espacial para ampliar las capacidades de dispositivos móviles, sensores, registros y dispositivos portátiles
Audiencia
- Desarrolladores de aplicaciones
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Apache Kylin para configurar un depósito de datos en tiempo real.
Al final de esta capacitación, los participantes podrán:
- Consume datos de transmisión en tiempo real usando Kylin
- Utilice las potentes funciones de Apache Kylin, incluido el soporte del esquema de copos de nieve, una rica interfaz de SQL, cubicación de chispa y latencia de consulta de segundo plano
Nota
- Usamos la última versión de Kylin (al momento de escribir esto, Apache Kylin v2.0)
Audiencia
- Grandes ingenieros de datos
- Analistas de Big Data
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
This instructor-led, live training (onsite or remote) is aimed at developers who wish to implement Apache Kafka stream processing without writing code.
By the end of this training, participants will be able to:
- Install and configure Confluent KSQL.
- Set up a stream processing pipeline using only SQL commands (no Java or Python coding).
- Carry out data filtering, transformations, aggregations, joins, windowing, and sessionization entirely in SQL.
- Design and deploy interactive, continuous queries for streaming ETL and real-time analytics.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
Este curso para KNIME Analytics Platform es una oportunidad ideal para que los principiantes, usuarios avanzados y expertos de KNIME se presenten a KNIME , aprendan cómo usarlo de manera más efectiva y cómo crear informes claros y completos basados en los flujos de trabajo de KNIME
En este curso, presentamos los procesos involucrados en KDD y llevamos a cabo una serie de ejercicios para practicar la implementación de esos procesos.
Audiencia
- Analistas de datos o cualquier persona interesada en aprender a interpretar datos para resolver problemas
Formato del curso
- Después de una discusión teórica sobre KDD, el instructor presentará casos de la vida real que requieren la aplicación de KDD para resolver un problema. Los participantes prepararán, seleccionarán y limpiarán conjuntos de datos de muestra y utilizarán sus conocimientos previos sobre los datos para proponer soluciones basadas en los resultados de sus observaciones.
Resumen
- Un programa de entrenamiento avanzado que cubre el estado actual del arte en Internet de las Cosas
- Cortes en múltiples dominios de tecnología para desarrollar el conocimiento de un sistema IoT y sus componentes y cómo puede ayudar a las empresas y organizaciones.
- Demo en vivo de las aplicaciones modelo IoT para mostrar implementaciones prácticas de IoT en diferentes dominios de la industria, como Industrial IoT, Smart Cities, Retail, Travel & Transportation y casos de uso relacionados con dispositivos conectados y cosas
Público objetivo
- Gerentes responsables de los procesos comerciales y operativos dentro de sus respectivas organizaciones y quieren saber cómo aprovechar IoT para hacer que sus sistemas y procesos sean más eficientes.
- Emprendedores e Inversores que buscan desarrollar nuevas empresas y desean desarrollar una mejor comprensión del panorama de la tecnología IoT para ver cómo pueden aprovecharla de manera efectiva.
Duración 3 días (8 horas / día)
Las estimaciones para Internet of Things o el valor de mercado de IoT son masivas, ya que, por definición, el IoT es una capa integrada y difusa de dispositivos, sensores y potencia informática que superpone a industrias de consumo, de empresa a empresa y gubernamentales. El IoT representará un número cada vez mayor de conexiones: 1.900 millones de dispositivos en la actualidad y 9.000 millones en 2018. Ese año, será aproximadamente igual a la cantidad de teléfonos inteligentes, televisores inteligentes, tabletas, computadoras portátiles y PC combinadas.
En el espacio para el consumidor, muchos productos y servicios ya han entrado en el IoT, incluyendo cocina y electrodomésticos, estacionamiento, RFID, productos de iluminación y calefacción, y varias aplicaciones en Internet Industrial.
Sin embargo, las tecnologías subyacentes de IoT no son nada nuevas, ya que la comunicación M2M existía desde el nacimiento de Internet. Sin embargo, lo que cambió en los últimos años es la aparición de tecnologías inalámbricas de bajo costo agregadas por la abrumadora adaptación de teléfonos inteligentes y tabletas en todos los hogares. El crecimiento explosivo de los dispositivos móviles condujo a la demanda actual de IoT.
Debido a las oportunidades ilimitadas en el negocio de IoT, un gran número de pequeños y medianos empresarios se subieron al carro de la fiebre del oro de IoT. También debido a la aparición de la electrónica de código abierto y la plataforma IoT, el costo de desarrollo del sistema IoT y la gestión adicional de su producción considerable es cada vez más asequible. Los propietarios de productos electrónicos existentes están experimentando presión para integrar su dispositivo con Internet o la aplicación móvil.
Esta capacitación está destinada a una revisión tecnológica y empresarial de una industria emergente para que los entusiastas / emprendedores de IoT puedan comprender los conceptos básicos de tecnología y negocio de IoT.
Objetivo del curso
El objetivo principal del curso es presentar opciones tecnológicas emergentes, plataformas y estudios de casos de implementación de IoT en automatización de hogares y ciudades (hogares y ciudades inteligentes), Internet Industrial, salud, Gobierno, Mobile Cellular y otras áreas.
- Introducción básica de todos los elementos de IoT-Mechanical, electrónica / plataforma de sensores, protocolos inalámbricos y alámbricos, integración móvil a electrónica, integración móvil a empresa, análisis de datos y plano de control total
- Protocolos inalámbricos M2M para IoT-WiFi, Zigbee / Zwave, Bluetooth, ANT +: ¿Cuándo y dónde usar cuál?
- Aplicación móvil / de escritorio / web para registro, adquisición de datos y control - Plataforma de adquisición de datos M2M disponible para IoT - Xively, Omega y NovoTech, etc.
- Problemas de seguridad y soluciones de seguridad para IoT
- Plataforma electrónica de código abierto / comercial para IoT-Raspberry Pi, Arduino, ArmMbedLPC, etc.
- Plataforma cloud de empresa abierta / comercial para aplicaciones AWS-IoT, Azure -IOT, Watson-IOT en la nube, además de otras nubes menores de IoT
- Estudios de negocios y tecnología de algunos de los dispositivos comunes de IoT como Domótica, Alarma de humo, vehículos, militares, salud en el hogar, etc.
By the end of this training, participants will:
- Understand the evolution and trends for machine learning.
- Know how machine learning is being used across different industries.
- Become familiar with the tools, skills and services available to implement machine learning within an organization.
- Understand how machine learning can be used to enhance data mining and analysis.
- Learn what a data middle backend is, and how it is being used by businesses.
- Understand the role that big data and intelligent applications are playing across industries.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
En este entrenamiento en vivo dirigido por un instructor (in situ o remoto), los participantes aprenderán cómo configurar e integrar diferentes marcos de Procesamiento de Stream con los sistemas de almacenamiento de big data existentes y aplicaciones de software y microservicios relacionados.
Al final de esta capacitación, los participantes podrán:
- Instale y configure diferentes marcos de procesamiento de flujo, como Spark Streaming y Kafka Streaming
- Comprender y seleccionar el marco más adecuado para el trabajo
- Proceso de datos de forma continua, concurrente y de forma récord por registro
- Integre soluciones de procesamiento de flujo con bases de datos existentes, almacenes de datos, lagos de datos, etc.
- Integración de la biblioteca de procesamiento de flujo más apropiada con aplicaciones empresariales y microservicios
Audiencia
- Desarrolladores
- Arquitectos de software
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Notas
- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
- Desarrolladores
Formato del curso
- Conferencias, práctica práctica, pequeñas pruebas en el camino para medir la comprensión
Impala permite a los usuarios emitir consultas SQL de baja latencia a los datos almacenados en Hadoop Distributed File System y Apache Hbase sin necesidad de movimiento o transformación de datos.
Audiencia
Este curso está dirigido a analistas y científicos de datos que realizan análisis sobre datos almacenados en Hadoop a través de herramientas de Business Intelligence o SQL.
Después de este curso, los delegados podrán
- Extraer información significativa de los clústeres de Hadoop con Impala.
- Escriba programas específicos para facilitar la Inteligencia de Negocios en Impala SQL Dialect.
- Solucionar problemas de Impala.
Esta capacitación en vivo dirigida por un instructor presenta a Hortonworks y guía a los participantes a través del despliegue de la solución Spark + Hadoop.
Al final de esta capacitación, los participantes podrán:
- Use Hortonworks para ejecutar confiablemente Hadoop a gran escala
- Unifique las capacidades de seguridad, gobierno y operaciones de Hadoop con los flujos de trabajo analíticos ágiles de Spark.
- Use Hortonworks para investigar, validar, certificar y dar soporte a cada uno de los componentes en un proyecto Spark
- Procese diferentes tipos de datos, incluidos estructurados, no estructurados, en movimiento y en reposo.
Audiencia
- Administradores de Hadoop
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Vamos a recorrer un desarrollador a través de la arquitectura de HBase y modelado de datos y desarrollo de aplicaciones en HBase. También discutirá el uso de MapReduce con HBase y algunos temas de administración relacionados con la optimización del rendimiento. El curso es muy práctico con muchos ejercicios de laboratorio.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo trabajar con Hadoop, MapReduce, Pig y Spark utilizando Python, ya que pasan por múltiples ejemplos y casos de uso.
Al final de esta capacitación, los participantes podrán:
- Comprender los conceptos básicos detrás de Hadoop, MapReduce, Pig y Spark
- Utilice Python con Hadoop Distributed File System (HDFS), MapReduce, Pig y Spark
- Utilice Snakebite para acceder mediante programación a HDFS dentro de Python
- Usa mrjob para escribir trabajos de MapReduce en Python
- Escribir programas Spark con Python
- Extienda la funcionalidad del cerdo usando las UDF de Python
- Administrar trabajos de MapReduce y scripts Pig utilizando Luigi
Audiencia
- Desarrolladores
- Profesionales de TI
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Este curso pretende desmitificar la tecnología de datos / hadoop y demostrar que no es difícil de entender.
Este curso presenta a los Project Managers al marco de procesamiento de Big Data más popular: Hadoop.
En esta capacitación dirigida por un instructor, los participantes aprenderán los componentes principales del ecosistema de Hadoop y cómo estas tecnologías pueden usarse para resolver problemas a gran escala. Al aprender estas bases, los participantes también mejorarán su capacidad de comunicarse con los desarrolladores e implementadores de estos sistemas, así como con los científicos y analistas de datos que involucran muchos proyectos de TI.
Audiencia
- Project Managers que desean implementar Hadoop en su infraestructura de TI o desarrollo existente
- Los gerentes de proyectos necesitan comunicarse con equipos multifuncionales que incluyen grandes ingenieros de datos, científicos de datos y analistas de negocios
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los elementos esenciales de MemSQL para el desarrollo y la administración.
Al final de esta capacitación, los participantes podrán:
- Comprender los conceptos clave y las características de MemSQL
- Instalar, diseñar, mantener y operar MemSQL
- Optimizar esquemas en MemSQL
- Mejorar las consultas en MemSQL
- Rendimiento de referencia en MemSQL
- Construya aplicaciones de datos en tiempo real usando MemSQL
Audiencia
- Desarrolladores
- Administradores
- Ingenieros de operación
Formato del curso
- Conferencia de parte, discusiaón en parte, ejercicios y práctica práctica
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo usar MonetDB y cómo sacar el máximo provecho de ella.
Al final de esta capacitación, los participantes podrán:
- Comprender MonetDB y sus características
- Instalar y comenzar con MonetDB
- Explora y realiza diferentes funciones y tareas en MonetDB
- Acelere la entrega de su proyecto maximizando las capacidades de MonetDB
Audiencia
- Desarrolladores
- Expertos técnicos
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Audiencia: desarrolladores
Duración: tres días
Formato: conferencias (50%) y laboratorios prácticos (50%).
- para ejecutar consultas SQL .
- para leer datos de una instalación de Hive existente.
En esta capacitación en vivo dirigida por un instructor (en el sitio o remota), los participantes aprenderán cómo analizar varios tipos de conjuntos de datos usando Spark SQL .
Al final de esta capacitación, los participantes podrán:
- Instalar y configurar Spark SQL .
- Realizar análisis de datos usando Spark SQL .
- Consultar conjuntos de datos en diferentes formatos.
- Visualizar datos y resultados de consultas.
Formato del curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
Esta capacitación en vivo dirigida por un instructor presenta los conceptos detrás del análisis interactivo de datos y guía a los participantes a través de la implementación y el uso de Zeppelin en un entorno de usuario único o multiusuario.
Al final de esta capacitación, los participantes podrán:
- Instalar y configurar Zeppelin
- Desarrollar, organizar, ejecutar y compartir datos en una interfaz basada en navegador
- Visualice resultados sin consultar la línea de comando o los detalles del clúster
- Ejecute y colabore en flujos de trabajo largos
- Trabaja con cualquiera de los lenguajes de plug-in / back-end de procesamiento de datos, como Scala (con Apache Spark), Python (con Apache Spark), Spark SQL, JDBC, Markdown y Shell.
- Integra Zeppelin con Spark, Flink y Map Reduce
- Asegure las instancias multiusuario de Zeppelin con Apache Shiro
Audiencia
- Ingenieros de datos
- Analistas de datos
- Científicos de datos
- Desarrolladores de software
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Este entrenamiento en vivo, dirigido por un instructor, presenta los desafíos de servir datos a gran escala y guía a los participantes a través de la creación de una aplicación que puede calcular las respuestas a las solicitudes de los usuarios, en grandes conjuntos de datos en tiempo real.
Al final de esta capacitación, los participantes podrán:
- Use Vespa para calcular rápidamente los datos (almacenar, buscar, clasificar, organizar) en el momento de servir mientras un usuario espera
- Implementar Vespa en aplicaciones existentes que involucran búsqueda de funciones, recomendaciones y personalización
- Integre e implemente Vespa con los sistemas de big data existentes, como Hadoop y Storm.
Audiencia
- Desarrolladores
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Este curso presencial, dirigido por un instructor, presenta el enfoque de Tigon para combinar el procesamiento en tiempo real y por lotes a medida que guía a los participantes a través de la creación de una aplicación de muestra.
Al final de esta capacitación, los participantes podrán:
- Cree aplicaciones potentes de procesamiento de flujo para manejar grandes volúmenes de datos
- Fuentes de flujo de procesos como Twitter y registros de servidor web
- Utilice Tigon para unir, filtrar y agregar secuencias rápidamente
Audiencia
- Desarrolladores
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Este curso introduce a los delegados a Teradata