ETL

La plataforma de Business Intelligence de Crono, con ETL para Data Warehouse

Creación de unn informe Dashboard con Crono AnalysisHace ya algún tiempo tuve la oportunidad de probar el software de Business Intelligence Crono, pero ha llovido bastante, y Crono ha evolucionado mucho desde entonces, así que aprovecho este post para ponerme al día sobre las nuevas características de este software de BI, y ahora también de ETL..

Guía sobre procesos y elección de herramientas de ETL

Guia sobre Procesos ETLLos procesos ETL (Extracción, Transformación y Carga) son un elemento clave para la construcción y mantenimiento de sistemas de Data Warehouse en entornos de Business Intelligence.

Las herramientas ETL automatizan, organizan y optimizan esos procesos, facilitando especialmente la gestión, el mantenimiento y la escalabilidad de todo el entorno de 'alimentación' del Data Warehouse, y también de otros entornos.

Leer datos de XML y escribirlos en un archivo tabulado CSV con Kettle

Se trata de leer un archivo XML y convertirlo en un archivo plano separado por comas utilizando Pentaho Data Integration. PDI siempre tratará de convertir las fuentes de entrada en filas y columnas, con este principio hay que partir siempre que uno intente hacer algo con este software. El XML en un tipo de datos jerárquico, por ello habrá que transformarlo a dato tabular. Para manipular XML se utiliza XQuery y XPath.

Entrevista con Luca Zurlo, director de Jaspersoft para el sur de Europa

Luca Zurlo

Luca Zurlo es Director para el Sur de Europa de Jaspersoft, la compañia que ofrece la extendida suite de Business Intelligence open source.

Con motivo de la presentación en el evento Big data 2012 de novedades en la suite para trabajar con Big Data, y del acuerdo firmado por la compañia con el grupo tecnológico GMV, que convierte a esta compañia en el primer partner de Jaspersoft en España, Luca Zurlo nos concedió esta entrevista.

Construyendo un Sistema de Business Intelligence con datos estructurados y no estructurados

Hadoop y KettleUno de los puntos que han cambiado la forma en que se hace y hará Business Intelligence es la eclosión de una gran cantidad de datos que anteriormente no se analizaban. Ahora es posible combinar y analizar de forma conjunta, tanto datos estructurados (relacionales, legacy, dbcolumn, etc...) con no estructurados (Hadoop, MapReduce, NoSQL), permitiendo alcanzar cantidades enormes de datos.

Estrategia de Implementación y Administración Inteligente de DataWarehouse

Comparto con ustedes una estrategia que he venido desarrollado desde hace varios años, orientada a minimizar las tareas de administración de los datawarehouse empresariales en entornos de alta complejidad.   A diferencia de otras metodologías que están centradas en las fases de los proyectos, esta estrategia se enfoca en resolver temas de lógica de negocio, forma de organizar las distintas tareas de ETL o ELT, como resolver conflictos de información, optimización de los tiempos de respuesta de los procesos y sus componentes, etc.   En resumen, describe una estrategia genérica, aplicable a cualquier plataforma para la implementación y administración de DataWarehouse, cuyo principal objetivo es lograr el éxito, sustentabilidad y adaptabilidad del proyecto tanto a corto como largo plazo.   El documento puede ser descargado en este mismo blog, a través del link: http://www.easybi.cl/joomla16/index.php/metodologias-y-estrategias/10-cat-metodologias-y-estrategias/2-eiad-10