Artículos IT, información y publicaciones sobre Big data

Últimas publicaciones destacadas en Dataprix sobre esta temática TIC

Big data, la próxima frontera para la innovación y la productividad

 

Big data para innovacion y productividadLos datos lo son todo. La cantidad de información que nos rodea hace del big data un aspecto central en la gestión y mejora de cualquier tipo de negocio. Se toman decisiones a diario teniendo en cuenta su aporte en grandes volúmenes de cantidades de datos que resultan imprescindibles para poder mejorar el rendimiento de los negocios.

Todo acaba fundamentándose alrededor del análisis del big data, tanto el crecimiento como la productividad, la innovación o la solución de errores. Todos los sectores están volcándose en el aprovechamiento del big data y este se encuentra cada vez más demandado entre todos los profesionales..

Los profesionales del Big Data cada vez más solicitados

 

Los profesionales en Big DataEl big data no solo es una de las principales tendencias que se han introducido en las empresas de todo el mundo, sino que se trata de un aspecto clave para el desarrollo de los negocios. Esta necesidad es aplicable en una gran variedad de sectores sin importar sus características, lo que ha llevado a que cada vez se busquen más profesionales que se puedan ocupar de introducir esta novedad en la empresa.

Un estudio destaca, en este aspecto, las dificultades que existen para que los negocios puedan encontrar expertos que se ocupen de este trabajo..

Apache Hive

Editor de consultas SQL de Apache HiveHive es un software que trabaja sobre clusters de Hadoop creando una capa que permite al desarrollador abstraerse de la gestión de ficheros HDFS y de MapReduce mediante operaciones de consulta de datos basadas en SQL, con el lenguaje HiveQL.

 

Apache Spark

Apache SparkSpark es un framework open source de Apache Software Foundation para procesamiento distribuído sobre clusters de ordenadores de grandes cantidades de datos, ideado para su uso en entornos de Big Data, y creado para mejorar las capacidades de su predecesor MapReduce.

Spark hereda las capacidades de escalabilidad y tolerancia a fallos de MapReduce, pero lo supera ampliamente en cuanto a velocidad de procesamiento, facilidad de uso y capacidades analíticas..

Apache Hadoop

Arquitectura de apache Hadoop

La librería de software de Hadoop es un framework que permite el procesamiento distribuído de juegos de datos de gran volumen utilizando clusters de ordenadores o servidores, utilizado modelos de programación sencilla.

Hadoop está diseñado para escalar fácilmente desde sistemas de servidores únicos a miles de máquinas..

IBM colaborará con la productora de Barrio sésamo para desarrollar una plataforma de formación con la ayuda de IBM Watson

Sesame Workshop, la productora de Barrio Sésamo, e IBM han anunciado una colaboración para unir la tecnología de computación cognitiva IBM Watson con el conocimiento de la primera infancia, y avanzar así en la mejora de la educación preescolar.

Big Data: volumen, velocidad y variedad

 

Desde el punto de vista puramente técnico, se denomina Big Data a los sistemas de información que sobrepasan las capacidades de las tecnologías tradicionales basadas principalmente en base de datos relacionales. 

Las características de la información que hace que se requiera esta nueva tecnología son principalmente 3: Volumen, Velocidad y Variedad..

 

Big Data, la democratización de las herramientas

 

small_bidD.jpgLos viejos del lugar oímos hablar de Big data antes de que existiese el big data. En determinados sitios —el CERN, algunas grandes empresas, organismos públicos, etc.— manejaban volúmenes de datos increíbles.

Lo que llamamos Big Data no es sino la democratización de las herramientas y técnicas para recopilar y procesar información: son cada vez más las organizaciones y son cada vez más los problemas a los que se enfrentan en los que existen datos alrededor de los que ponderar escenarios..

Entidad financiera ahorra tiempo y dinero en la gestión de la documentación de los préstamos al consumo

Empresa o cliente: 
SGAIM
Software: 
SGAIM

Entidad financiera ahorra tiempo y dinero en la gestión de la documentación de los préstamos al consumo

SGAIM implanta en una entidad financiera de reconocido prestigio en España una solución que les permite un control de la documentación que debe ser tratada de forma rápida y su clasificación para componer el expediente digital y facilitar una ágil respuesta al cliente, preservando las garantías de la “identificación del cliente”.

La entidad financiera recibe gran cantidad de información relativa a la solicitud de préstamos al consumo de sus clientes, su objetivo es tenerla toda unificada y accesible desde diferentes puntos, para reducir el tiempo de gestión de los expedientes, componer el expediente electrónico. Los documentos presentados por los clientes se entregan en todo tipo de formatos: papel, Excel, Word u otros, todos ellos deben ser tratados con la mayor rapidez posible.

SGAIM aportó su experiencia en gestión documental de procesos de negocio y la entidad financiera depositó su confianza en ella.

Big Data aplicado al Business Intelligence

 

El libro verde del BigData¿Cómo encaja el Big Data con el BI? Hablando de BI yo siempre he visto el visto el Big Data como un origen de datos más para el Data Warehouse, pero con todo el bombo que se le está dando a esta tecnología a veces he llegado a entender que el Big Data iba a sustituir al Business Intelligence.

Incluso una vez tuve que escuchar en una conferencia sobre Big Data, y por boca de una persona que trabajaba con Big Data en una universidad la atrevida frase de 'Las bases de datos relacionales están muertas'..

Distribuir contenido

 



 

  BI   |    CRM     |    CMS    |    Tendencias en software empresarial    |    Cloud computing  |    Software libre    |   Internet    |    Movilidad y apps