Antes de realizar un curso o seminario, escuchamos las necesidades reales y objetivos de cada cliente, para adecuar la formación y obtener el mayor aprovechamiento posible. Ajustamos cada curso a sus necesidades.

Somos también especialistas en formaciones 'in company' adaptadas a las necesidades de cada organización, donde el aprovechamiento para varios asistentes de la misma compañía es mucho mayor. Si es tu caso, contacta con nosotros.

Consulte nuestros cursos

Curso de Visualización y Cuadros de Mando Open Source

Curso de Visualización y Cuadros de Mando Open Source

Objetivo

Los Cuadros de Mando son totalmente abiertos y permiten integrar todo tipo de componentes externos como Google Maps, RSS news, Twitter, Facebook info, fuentes externas, etc…

Los Cuadros de Mando son la gran herramienta estratégica de los directivos y analistas de hoy en día.

Se han convertido en el arma competitiva más potente para seguir la marcha de la compañía y el mercado, y reaccionar de forma rápida y efectiva.

Además, mediante la identificación de los KPI´s (Key Performance Indicators) claves de la organización se implementan Scorecards corporativos, siguiendo la metodología de Norton y Kaplan.

El objetivo es enseñar al alumno a construir con métodos avanzados de Reporting y Dashboards recursos de explotación de datos de un sistema de Business Intelligence sobre Pentaho para hacer el análisis de datos procedentes de diversas fuentes y sistemas.

 

Público objetivo

Curso Online de Creación de Dashboards

Profesionales de las tecnologías de información, gestores de TI, Analistas de Negocio, Analistas de sistemas, arquitectos Java, desarrolladores de sistemas, administradores de bases de datos, desarrolladores y profesionales con relación a el área de tecnología, marketing, negocio y financiera.


Observaciones

Os dejamos las principales claves para construir potentes Cuadros de Mando, del Curso de creación de Dashboards Open Source

 

 

Si os ha interesado, podéis también:

- Ver ejemplos en funcionamiento de Cuadros de Mando Open Source
- Ver Galería de Cuadros de Mando y Video Tutorial de Cuadros de Mando Open Source
- Ver Cuadros de Mando con tecnologías Big Data 'Real Time

Temario

Curso Online de Creación de Dashboards

  •  Online

Fecha: Del 24 de may. al 25 de may. de 2017

Horario: 15:00 h - 20:00 h ( CEST - Madrid)

Lugar: Plataforma web con profesor

Precio: 95 € / persona

Pago: PayPal o Trans. Bancaria (Consultar)

 

 

Introducción a Plataformas Business Intelligence Open Source:

Introducción a Cuadros de Mando

Buenas prácticas en Cuadros de Mando

ScoreCards y Cuadros de Mando

Cuadros de Mando custom (diferentes tecnologías y ejemplos)

Tecnologías CDF y CDE

Instalación CDE

Trabajando con CDE

 

 

Explicación de Layouts

Componentes

Extracción de datos (Tecnología CDA)

  • Estructuras de ficheros
  • Origen Kettle
  • Definición Origen (JNDI)
  • Consultas MDX y SQL

Elementos Gráficos

Parametrización y dependencias

Interacción entre elementos gráficos

Elementos avanzados

  • Integración de librerías gráficas externas

Aplicación de Estilos CSS

CDM para dispositivos móviles

Ejercicios Avanzados

---Si os ha interesado podéis echarle un ojo a este video-tutorial muy práctico:



Datamining

Datamining

Objetivo

Aplicable a campos tan diversos como al customer intelligence, al scoring financiero o al análisis predictivo en la retención y pérdida de clientes, ya no se concibe una moderna organización que no utilice la Minería de Datos para obtener claras ventajas competitivas.

En nuestra implementaciones, usamos técnicas avanzadas con el uso de gran variedad de algoritmos, creación manual de árboles de decisión, lógica compleja, etc…

La Minería abre un campo de posibilidades espectacular para el tratamiento de grandes volúmenes de datos, mediante la realización de simulaciones y cálculos complejos.

Público objetivo

Profesionales de las tecnologías de información, gestores de TI, Analistas de Negocio, Analistas de sistemas, arquitectos Java, desarrolladores de sistemas, administradores de bases de datos, desarrolladores y profesionales con relación a el área de tecnología, marketing, negocio y financiera

Observaciones

Certificación

 

A todos los alumnos que reciban el curso se les entregará un certificado de asistencia al mismo.

Temario

Qué es Data Mining. Introducción y ejemplos
Algoritmos de Data Mining
  • Algoritmos de clustering: KNN
  • Árboles de decisión
  • Regresión Lineal
  • Algoritmos Bayesianos
Herramientas de Data Mining: Weka
  • Formato de datos
  • Exploración de datos
  • Clasificación de algoritmos
  • Visualización
  • KnowledgeFlow
  • Experimenter
Ejemplos sencillos sobre distintos algoritmos y análisis de los resultados obtenidos

Especialista técnico para Data Scientist

Especialista técnico para Data Scientist

Objetivo

Curso orientado a formar especialistas altamente cualificados en tecnologías del campo Big Data.

El objetivo de este curso es ofrecer una visión detallada y práctica desde el punto de vista técnico del Big Data, así como la puesta práctica de las diferentes técnicas y tecnologías estudiadas.

Se verán ejemplos de arquitecturas ya implantadas en el mercado y se analizarán los casos de uso en los que Big Data es y ha sido decisivo, mediante ejercicios prácticos.

Big Data (o el manejo de grandes volúmenes de de información) son conjuntos de datos que crecen tan grandes que se vuelven incómodos para trabajar con las herramientas de gestión de bases de datos tradicionales. Las dificultades incluyen la captura, almacenamiento, de búsqueda, el intercambio, análisis, y la visualización.

De continuar esta tendencia, debido a los beneficios de trabajar con conjuntos de datos más grandes que permiten a los analistas a "detectar las tendencias de negocios, prevenir enfermedades, combatir el delito" se irán necesitando de nuevas tecnologías, NoSQL, Hadoop… que lo soporten.

En Big Data se usan tecnologías heterogéneas, pero complementarias para conseguir estos objetivos (Hadoop, NoSQL, Column oriented DB, SQL Databases...), junto con poderosas herramientas de visualización, igualmente open source.

Público objetivo

Dirigido a ingenieros con conocimientos previos en el campo del análisis de datos, estadística, etc…

Observaciones

Recopilación actualizada de información que hemos publicado sobre Big Data

En Stratebi, (contactenos para una presentación), usamos el poder del Business Intelligence junto al Big Data para proporcionar soluciones Big Data Analytics en areas como:

  • Soluciones Social Media (twitter, facebook....)
  • Soluciones de análisis de web analytics, logs, ecommerce, etc...
  • Soluciones Smart City/Open Data
  • Soluciones de Geolocalización, dispositivos móviles....
  • Soluciones para detección de fraude, auditorias, nivel de rendimiento de sistemas
  • Soluciones de seguridad y análisis financiero para Retail, Telco, Banca y Seguros
  • Soluciones de segmentación avanzada de clientes, leads y automatización de acciones comerciales
  • Business Intelligence (informes, dashboards, OLAP...) en tiempo real
  • Soluciones de análisis para utilities y sensores (energia, agua, contaminación, luz....)
  • Soluciones de detección de patrones de compra, recomendaciones, etc...
  • Soluciones de carga masiva y análisis de información no estructurada y estructurada conjunta no realizada previamente

 

Gracias a tecnologías Open Source, la implementación de estas soluciones suponen un ahorro de costes enorme sobre soluciones propietarias. Ej), Big Data Analytics con Pentaho

 

Temario

1. Introducción a Big Data
  • Directrices principales en las que se basa Big Data.
  • Visión histórica e introducción al contexto del Big Data a través de ejemplos intuitivos.
  • Cómo afecta Big Data a los negocios.
  • La relación entre Big Data, Business Intelligence & Data Science
2. Arquitecturas Big Data
  • Introducción y clasificación a las diferentes arquitecturas y sistemas Big Data disponibles en el mercado
  • Estudio de profundidad del entorno Hadoop: HDFS, Map Reduce, YARN, análisis de la pila de herramientas disponibles sobre HDFS y Map Reduce (Hive, Pig...), introducción a las distribuciones de Hadoop, etc.
  • Estudio de las principales soluciones NoSQL: Cassandra, MongoDB,...
  • Introducción a las bases de datos analíticas: HPVertica y MonetDB
  • Consideraciones para la elección de una arquitectura Big Data
  • Ejemplos prácticos y visión de futuro sobre estas bases de datos
    • Instalación de una distribución de Hadoop de un solo nodo para la realización de pruebas
    • Introducción a la gestión de un clúster Hadoop
    • Introducción al uso del sistema de archivos HDFS
    • Instalación e iniciación al uso de Cassandra
    • Instalación e iniciación al uso de Mongo DB
3. Obtención y movimiento de datos en Big Data
  • Estudio de los principales tipos de fuentes de datos actuales
    • Datos estructurados, semi estructurados y no estructurados
    • Batch y streaming
  • Análisis de las principales herramientas disponibles para la adquisición y movimiento de datos:
    • Pentaho Data Integration: Carga, transformación y extracción de datos de cualquier naturaleza desde fuentes de datos hacía HDFS y viceversa.
    • Sqoop: Carga y extracción de datos relacionales (SGBDR->HDFS, HDFS->SGBDR) en batch
    • Flume: Carga y transformación de datos en tiempo real
    • Kafka: Sistema de colas distribuido que permite adquisición de datos en tiempo real
  • Ejercicios con las herramientas anteriores basados en un caso de estudio para la obtención de datos de logs, redes sociales...
  • Ejercicios para el movimiento y transformación de datos con Pentaho Data Integration desde y hacia Mongo DB
4. Procesamiento del Big Data
  • Análisis de los requerimientos temporales del análisis (oportunidad del análisis)
  • Introducción a las principales herramientas para el procesamiento y análisis del Big Data
    • Herramientas sobre MapReduce: Pig, Hive
    • Herramientas que no usan Map Reduce: Spark, Spark Streaming, Storm...
  • Ejercicios basados en un caso de estudio para el procesamiento de datos de logs, redes sociales...
  • Introducción a Spark y al lenguaje Scala
    • Ejercicios con Spark y lenguaje escala sobre Hadoop
    • Análisis de las posibilidades de integración con las distintas arquitecturas Big Data: Cassandra, Mongo DB,etc.
5. Introducción al procesamiento del Big Data en tiempo real
  • Análisis de las soluciones para el análisis de datos en tiempo real en Hadoop: Spark Streaming y Storm
  • Integración con otras herramientas del entorno Hadoop
6. Introducción a Machine Learning & Big Data
  • Introducción a Machine Learning: Definición del concepto de Machine Learning y estudio de los principales métodos
  • Machine Learning con Spark: Técnicas y herramientas para el desarrollo de aplicaciones de Machine Learning con Spark y MLib
  • Ejercicio para el desarrollo de un sencillo algoritmo de Machine Learning con Spark y MLib
7. Casos de Estudio
  • Análisis de casos de estudio del mercado: Sistema de recomendación de Amazon, análisis de datos de sensores en empresas de transporte, análisis de clics en páginas web...
  • Análisis de casos de estudios basados en nuestra amplia experiencia en el desarrollo de proyectos Big Data

ETL Kettle Pentaho

ETL Kettle Pentaho

Objetivo

La extracción, transformación y carga (ETL) de los datos es la clave del éxito en un sistema BI, que permite gestionar la calidad de los datos de forma adecuada.

En este curso te contaremos algunas de las mejores prácticas que recomendamos durante el diseño de los procesos ETL como:

Centralización de los procedimientos, de forma que se asegure la coherencia y homogeneidad de los datos intercambiados desde las distintas fuentes.

Evitar la redundancia de cálculos: si existe el dato previamente calculado en las bases de datos operacionales, no debe volver a realizarse el cálculo en la extracción. Esta premisa pretende conseguir un doble objetivo.

Establecimiento de puntos de "control de calidad" y validación.

Implementar procesos de recarga de la información, ante posibles errores en la información inicial.

Contemplar la posibilidad de utilizar tablas intermedias con el nivel más atómico de la información a tratar.

Además, repasaremos los elementos más importantes y usados de la herramienta de ETLs de Pentaho: Kettle o Pentaho Data Integration.

Público objetivo

Profesionales de las tecnologías de información, gestores de TI, Analistas de Negocio, Analistas de sistemas, arquitectos Java, desarrolladores de sistemas, administradores de bases de datos, desarrolladores y profesionales con relación a el área de tecnología, marketing, negocio y financiera.

Observaciones

Data Quality e integración con Pentaho

Temario

Introducción Plataformas Business Intelligence Open Source
  • a. Arquitectura y características de Pentaho, SpagoBI, BIRT, Mondrian, Kettle, Talend, etc…
  • b. Herramientas de desarrollo.
ETL (Kettle)
  • a. Buenas prácticas para definición de procesos ETL.
  • b. Overview funcional (Trabajos, Transformaciones, control de flujo)
  • c. Parametrización
    • Variables de Entorno
    • Parametrización de conexiones a bases de datos. Conexiones compartidas.
    • Parametrización de cargas y tipos de cargas
  • d. Trabajos
    • Overview
    • Tipos de Steps (Mail, File Managament, etc…)
    • Descripción de Steps
    • Ejemplos de Steps más útiles y comunes
  • e. Transformaciones
    • Overview
    • Tipos de Steps (Input, Output, Tranform, etc…)
    • Descripción de Steps
    • Ejemplos de Steps más útiles y comunes
  • f. Ejemplos Prácticos

Contacto

Ajustamos cada curso a sus necesidades.

Nuestra oficina en Madrid

¿Necesitas formación? Te ofrecemos un amplio catálogo de cursos en plataformas y herramientas como Pentaho, Talend, Mondrian, Ctools.