Pentaho Reporting [Video] - Review (en español)

Estimad@s,

 

A veces no dejo de sorprenderme, a sido el caso de los últimos dos video cursos que he tenido la posibilidad de revisar, en el caso anterior sobre Pentaho Reporting y en este caso un video curso sobre como construir un DataMart que contiene un modelo en estrella siguiendo los preceptos de Ralph Kimball. Este video curso fue creado por Diethard Steiner, persona a la cual respeto de forma particular por la seriedad y calidad de sus publicaciones. Con este video curso Diethard ha demostrado una vez más su profesionalismo.

 

Este video lo ha publicado Packt Publishing y se encuentra en este link.

 

Disponen de una vista previa aquí.

 

La suma de todos los videos es de aproximadamente 2 horas.

 

Diethard nos guía paso a paso en la construcción de un Datamart utilizando en cada momento las herramientas adecuadas y profundizando lo justo en cada caso, sumado a ello una explicación excelente y una cadencia muy oportuna en la presentación. El curso es extremadamente dinámico y es muy recomendable para aquell@s que deseen asentar sus conocimientos sobre la temática y para aquellos que quieren introducirse en el tema. El valor agregado es que además de explicar cada concepto, se lo lleva a la práctica con la herramienta adecuada.

 

Realmente recomiendo este curso.

 

Felicitaciones Diethard!

Indice del curso:

Getting Started [18:25 minutes]

  1. The Second-hand Lens Store Sample Data
  2. The Derived Star Schema
  3. Setting up Our Development Environment

 

Agile BI – Creating ETLs to Prepare Joined Data Set [12:27 minutes]

  1. Importing Raw Data
  2. Exporting Data Using the Standard Table Output Step
  3. Exporting Data Using the Dedicated Bulk Loading Step

 

Agile BI – Building OLAP Schema, Analyzing Data, and Implementing Required ETL Improvements [11:29 minutes]

  1. Creating a Pentaho Analysis Model
  2. Analyzing the Data Using the Pentaho Analyzer
  3. Improving Your ETL for Better Data Quality

 

Slowly Changing Dimensions [17:03 minutes]

  1. Creating a Slowly Changing Dimension of Type 1 Using the Insert/Update Step
  2. Creating a Slowly Changing Dimension of Type 1 Using Dimension Lookup Update Step
  3. Creating a Slowly Changing Dimension Type 2

 

Populating Data Dimension [16:10 minutes]

  1. Defining Start and End date Parameters
  2. Auto-generating Daily rows for a Given Date Period
  3. Auto-generating Year, Month, Day and so on.

 

Creating the Fact Transformation [14:28 minutes]

  1. Sourcing Raw Data for Fact Table
  2. Look up Slowly Changing Dimension of the Type 1 Key
  3. Look up Slowly Changing Dimension of the Type 2 key

 

Orchestration [10:29 minutes]

  1. Loading Dimensions in Parallel
  2. Creating Master Jobs

 

ID-based Change Data Capture [9:46 minutes]

  1. Implementing Change Data Capture (CDC)
  2. Creating a CDC Job Flow

 

Final Touches: Logging and Scheduling [11:14 minutes]

  1. Setting up a Dedicated DB Schema
  2. Setting up Built-in Logging
  3. Scheduling on the Command Line

 

Hola Mariano

He echado un vistazo rápido a los videos y me parece muy buena recomendación, creo que buscaré un hueco para verlos con más detenimiento, e incluso incluirlos en los videos de Dataprix TV.

Un abrazo!

Hola Carlos,
si, son muy buenos, sobre to el último (el de Diethard Stainer), pero los videos son una serie que vende Packt Publising, solo podrás incluir los demos de youtube.
Saludos
Mariano