Big Data: El valor de la información

El big data, el proceso que examina grandes cantidades de datos provenientes de múltiples canales, para posteriormente almacenarlos y analizarlos de forma inteligente, se ha vuelto una opción no sólo atractiva, sino también imprescindible para muchas empresas en la actualidad, ya que les ayuda a tomar decisiones de negocio más acertadas y oportunas.

Publicado el 30 Abr 2013

big1

Thayer Adkins

El big data, el proceso que examina grandes cantidades de datos provenientes de múltiples canales, para posteriormente almacenarlos y analizarlos de forma inteligente, se ha vuelto una opción no sólo atractiva, sino también imprescindible para muchas empresas en la actualidad, ya que les ayuda a tomar decisiones de negocio más acertadas y oportunas.

La administración de grandes cantidades de información se ha transformado en un evidente problema para las compañías, sobre todo cuando se trata de datos no estructurados. A esto se debe que la demanda por soluciones de big data se incremente cada día más en el mercado, pues su promesa es ayudar a las empresas a tomar mejores decisiones de negocio. Sin embargo, este concepto no se refiere sólo al volumen de la información, sino que también a la variedad del contenido y a la velocidad con la que los datos se generan, almacenan y analizan. En definitiva, las tres V que definen el big data: volumen, velocidad y variedad, sumando una cuarta, que es valor.

Aspecto vital en este tema es la integración de los datos, que apunta al movimiento y a la calidad de la información, así como a la capacidad de “limpiar” o normalizar ésta. “En este sentido, existen tecnologías que ofrecen un enfoque potente y unificado para aprovechar los enormes volúmenes de datos provenientes de las redes sociales, para convertirlos en un recurso competitivo, permitiendo analizarlos, agregarlos y estandarizarlos en cualquier formato, así como prepararlos para el análisis del comportamiento de los clientes”, comenta Thayer Adkins, Senior Information Management y Responsable de SAS Latin America.

El potencial de la información

En la actualidad se generan 2,5 Exabytes de información cada 2 días, la misma cantidad acumulada desde el principio de la civilización hasta 2003. Para gestionar y administrar todo este volumen existen muchos software “off-the-shelf”, pero la clave de una óptima aplicación es que su velocidad de lectura, análisis y respuesta mediante eventos o alertas, sea lo más rápida posible.

Las fuentes de información no estructurada que deben analizarse, por ejemplo, pueden no encajar en los almacenes de datos tradicionales, incapaces a veces de manejar las demandas de procesamiento. A esto se debe la creación de tecnologías que incluyen bases de datos grandes, como NoSQL, Hadoop y MapReduce, con un marco de software de código abierto que soporta el procesamiento de grandes volúmenes de datos a través de sistemas en clúster.

“El concepto de manejar datos no ha cambiado, lo que sí lo ha hecho es el volumen y la velocidad, por lo que el desafío actual es encontrar el valor de esa información. Para ello es recomendable adoptar un buen programa de big management y de analítica, puesto que esta última es muy asertiva para analizar datos sin estructura”, asegura el ejecutivo.


Empresas más competitivas

Existen sectores que son más prolíficos en materia de cantidad de datos. Así lo explica el ejecutivo, quien indica que “tradicionalmente, uno de los que convive con un mayor volumen de datos es la banca, un área que necesita identificar permanentemente riesgos y analizar rápidamente los datos para tomar decisiones; el retail, que tiene que asegurar suficiente stock de productos a las diferentes sucursales; el área de telecomunicaciones, en donde se debe analizar el comportamiento de los usuarios (web, redes sociales y de comunicación); la minería, sector que almacena una gran cantidad de datos (clientes, proveedores, etc), y las entidades de gobierno, en donde existe información altamente delicada que puede ser víctima de fraude”. En este sentido, el experto asegura que “existen clientes bancarios que están analizando permanente y rápidamente sus transacciones, a fin de evitar en tiempo real una operación sospechosa”.

Todos desafíos para los cuales las iniciativas de big data son clave. Y es que permiten aumentar la velocidad de los procesos de negocio en las empresas, haciendo que la toma de decisiones sea mucho más eficiente. En este contexto, análisis que antes se demoraban horas o días, hoy se pueden ejecutar en cosa de segundos, posibilitando la generación de nuevos negocios.

“Además, las empresas pueden entrar en el juego de la competencia, puesto que entre más información tengan, más análisis de datos van a estar ejecutando en tiempo real. Por último, mejora la relación con el cliente, ya que brinda nuevas y mejores herramientas para satisfacerlo, a través de una atención más personalizada”, agrega Thayer Adkins.


Gobernabilidad de los datos

Un tema clave para el experto es la forma en cómo mejoramos la gobernabilidad de los datos, concepto entendido como la alineación de los objetivos del área TI con los del negocio. Es que, sin duda, éste es uno de los aspectos más difíciles de la administración de información, aunque es la única manera de garantizar que se concreten los requisitos de cumplimiento y responsabilidad. “La gobernabilidad de los datos se debe optimizar con colaboración entre estas dos áreas, ya que tienen diferentes perspectivas del estado de éstos, lo cual puede incurrir en suposiciones incorrectas, demoras imprevistas y corrección del trabajo”, afirma Adkins. Por lo mismo, agrega el especialista, la alineación es un tema fundamental y es parte de lo que permitirá obtener el valor que promete el big data, una tendencia que debiera marcar los próximos años.

¿Qué te ha parecido este artículo?

¡Síguenos en nuestras redes sociales!

Redacción

Artículos relacionados

Artículo 1 de 4