En al menos algún momento de los últimos meses nos hemos preguntado ¿Qué es HANA realmente? Bien, la respuesta no es fácil e involucra más que una descripción de una solución de software. Dos conceptos juegan un papel preponderante para entender el concepto de HANA. Son ellos Computación en Memoria y Big Data. A través de este artículo, se expondrá la explicación de estos términos en un contexto sencillo, de tal forma que la audiencia no técnica pueda remover la incertidumbre asociada con las tecnologías de Computación en Memoria y de Big Data en lo general, y de SAP HANA en lo específico.

COMPUTACIÓN EN MEMORIA

Líderes de los negocios están incrementalmente preguntando por la toma de decisiones en tiempo real en un entorno altamente dinámico y competitivo. Esta expectativa está imprimiendo más presión a los departamentos de IT para encontrar y proveer nuevas formas de obtener información y hallazgos a disposición de los tomadores de decisión. Las comunidades de usuarios de negocios están demandando una amplia visualización de lo que está pasando actualmente y la habilidad de reaccionar en tiempo real.

Existen muchos escenarios y soluciones que requieren no solo análisis en tiempo real sino que involucran, además, el tratamiento de cantidades masivas de información.

Moviendo los datos de medios persistentes como los discos duros a un medio volátil como la memoria RAM, el tiempo de recuperación o de lectura se reduce significativamente, permitiendo la habilitación de los escenarios de negocio requeridos hoy en día.

La idea de correr bases de datos en memoria no es nueva; este fue un fundamento de Qlik View, desde 1997. En la medida que las bases de datos en memoria han madurado y sus precios se han reducido, ha hecho posible que esta tecnología sea una opción más viable y realista para las organizaciones. Esta ha abierto una puerta para las compañías de software, que han estado trabajando desde diferentes aristas para tomar ventaja de esta convergencia tecnológica y construir nuevas soluciones más rápidas.

En su núcleo, la computación en memoria es una tecnología que permite el procesamiento masivo de datos en memoria para proveer resultados analíticos inmediatos. Los datos deben ser procesados idealmente en tiempo real o cercano al tiempo real, tanto como técnicamente sea posible. Para alcanzar estos niveles de desempeño requeridos, la computación en memoria acelera el acceso a los datos y minimiza el movimiento de los datos. La memoria RAM es un tipo de almacenamiento dramáticamente más rápido que puede alojar grandes cantidades de información. Los datos en memoria pueden ser accesados hasta 10,000 más rápido que a un disco duro.

BIG DATA

Una de las razones por las que la computación en memoria se está convirtiendo en un jugador clave, es porque las tendencias de consumo de información han estado cambiando. La importancia del reporteo clásico sobre la historia o sus tendencias están decreciendo, mientras que la visualización de los datos, la simulación, el análisis de regresión, la optimización matemática y la habilidad de conducir el cambio continúa incrementándose. Claramente los tiempos están cambiando, como resultado, las organizaciones están buscando alternativas a sus nuevas necesidades de inteligencia de negocios.

En la medida que las organizaciones maduran en sus perspectivas tecnológicas y de información, sus demandas de datos y su disponibilidad se incrementan considerablemente. Por ejemplo, las organizaciones están demandando una experiencia analítica más rica y eficiente, predicción del comportamiento de los mercados, buscan crecer sus utilidades, están motivando la generación de experiencias positivas en sus clientes, etc. Conforme estas perspectivas se hacen más exigentes, las necesidades de manejo masivo de información se hacen cada vez más evidentes. Es aquí donde se incorpora el término Big Data, que en el entorno de la industria analítica puede tomar diversos significados. En esencia, este se refiere no solo a la cantidad inconmensurable de datos que existe actualmente, sino además al hecho que estos datos están cambiando rápidamente.

Los tipos de problemas que las empresas están buscando resolver, están asociadas en identificar el cómo y el por qué de lo que los consumidores hacen o dejan de hacer, es decir, de determinar su comportamiento; buscan, además, conocer cómo los clientes se sienten con determinados productos y qué dicen en los medios sociales. Es por ello que las organizaciones buscan herramientas estadísticas que puedan descubrir correlaciones, patrones y tendencias ocultas, analizando estos mares enormes de datos almacenados en repositorios, usando tecnologías de reconocimiento de patrones, así como técnicas estadísticas y matemáticas con cientos de posibles variables y millones de observaciones. El objetivo final es reducir drásticamente los costos y el tiempo, para obtener en poco tiempo información valiosa y diferenciada de los mercados.

Adicionalmente, las corporaciones también desean tener la habilidad para intuitivamente diseñar modelos predictivos que anticipen qué pasará en el futuro, basado en lo que sucedió en el pasado y qué está pasando hoy, en asociación con otras variables que pueden influenciar las futuras condiciones. Así mientras la Big Data pueda parecer un departamento más, realmente es la base de la habilidad de la empresa para alcanzar el objetivo más ambicioso de la inteligencia de negocios: Predecir e identificar el comportamiento de los clientes.

SAP HANA

Para ser claros, el potencial de la computación en memoria y la necesidad de una capacidad enorme de procesamiento para la Big Data, hacen un match indiscutible. Es aquí donde aparece SAP HANA.

El próximo paso en este revolucionario proceso es la base de datos SAP HANA, la cual es una solución completamente en memoria. Esta solución es posible debido a las ventajas ofrecidas por los avances a nivel de hardware, por una reducción considerable de la memoria y una expansión de capacidades. SAP HANA es una herramienta flexible y agnóstica a las fuentes de datos, que permite alojar y analizar volúmenes masivos de datos en tiempo real, sin la necesidad de hacer agregaciones o crear modelos de datos físicamente complejos. La solución de la base de datos en memoria de SAP HANA, es una combinación de hardware y software que optimiza las tecnologías de bases de datos basados en columnas, basados en filas y en objetos, para explotar las capacidades de procesamiento paralelo.

A pesar de que la explosión hiperbólica de las capacidades actuales de hardware y memoria, que permite mantener enormes cantidades de datos en memoria, es de vital importancia considerar los niveles de comprensión como una variable en la ecuación para determinar el dimensionamiento de la base de datos en memoria de SAP HANA. Esta comprensión es uno de los factores claves en el escenario del modelo de licenciamiento basado en volumen.

Para concluir vamos a sesgar el concepto de SAP HANA desde las perspectivas de la computación en memoria y la Big Data, indicando qué es y qué no es.

SAP HANA:

  • No es una solución de reporteo,
  • No es una herramienta ETL,
  • No es una herramienta de modelado de datos,
  • No es un módulo de SAP ERP,
  • No es SAP Netweaver, y
  • No es una herramienta de administración de calidad de datos.

Vamos a decirlo de nuevo. SAP HANA es una base de datos. La solución completa requiere un hardware especial e incluye software y aplicaciones, pero en su esencia, es una base de datos. SAP HANA es una solución en memoria, es poder de procesamiento, es velocidad y es un habilitador de soluciones de Big Data.

¿Está más clara la incidencia de la Computación en Memoria y de la Big Data en el advenimiento de SAP HANA? ¿Está su empresa preparada o tiene un plan evolutivo para adoptar la Big Data y SAP HANA en el ecosistema de la inteligencia de negocios? Esperamos que este artículo sea una fuente para clarificar estos conceptos pilares y ayuden a responder esas preguntas.