La integración de procesos consiste en construir procesos de negocio distribuidos. Los mensajes intercambiados normalmente conectan pasos de un proceso de negocio entre diferentes sistemas o inquilinos y luego activan el siguiente paso del proceso en el lado receptor.
La creación de un pedido de ventas, por ejemplo, puede desencadenar varios pasos del proceso relacionados con las ventas en el sistema receptor, como la entrega y la facturación. Para la integración de datos, esto es diferente. Aquí, los datos se transfieren mediante un mecanismo genérico para diversos fines, como análisis, aprendizaje automático o simplemente sincronizar dos almacenes de datos en un escenario de replicación. Cuando los pedidos de ventas se replican en un almacén de datos o en un lago de datos, no se desencadena ningún paso del proceso empresarial, como las actividades de ventas y entrega.
Analizaremos las infraestructuras clave para la integración de datos en esta publicación de blog: extracción de datos basada en CDS, Data Replication Framework (DRF) e integración de datos maestros de SAP.
Aunque hay varias tecnologías disponibles para la integración de datos, SAP posiciona Extracción de datos basada en CDS como opción estratégica. Esta sección ofrece una descripción general de la extracción de datos basada en CDS en SAP S/4HANA, que funciona muy bien en entornos locales y en la nube. Se utiliza, por ejemplo, para introducir datos de SAP S/4HANA en Almacén empresarial SAP (SAP BW) y en Inteligencia de datos de SAP. La extracción de datos basada en CDS es un buen ejemplo de cómo se utilizan las vistas CDS y VDM en toda la arquitectura SAP S/4HANA. Las vistas de extracción CDS proporcionan un modelo general de extracción de datos, que está disponible a través de varios canales para los diferentes escenarios de integración de datos.
La extracción de datos basada en CDS se implementa en base a vistas CDS que están marcadas como vistas de extracción con anotaciones CDS especiales (@Analytics.dataExtraction.enabled). Estas vistas de extracción suelen ser vistas básicas o vistas compuestas en VDM. Durante la extracción, las vistas de la base de datos generadas a partir de las vistas de extracción del CDS se utilizan para leer los datos que se van a extraer.
La extracción se puede realizar de dos formas: extracción completa extrae todos los datos disponibles de las vistas de extracción. Extracción delta significa que después de una extracción completa, a partir de ese momento solo se extraen los cambios. Esto requiere que la vista de extracción de CDS esté marcada como habilitada para delta (@Analytics.dataExtraction.delta.*).
La siguiente figura muestra la arquitectura de extracción de datos basada en CDS para la integración de datos con SAP BW y con SAP Data Intelligence. Existen varias API a través de las cuales los sistemas externos pueden extraer datos basados en vistas CDS:
Para una extracción completa, el marco ODP y el motor de canalización ABAP leen todos los registros de datos disponibles actualmente en las vistas de extracción.
Para la extracción delta, la arquitectura que se muestra arriba utiliza cambiar la captura de datos, un concepto conocido de SAP Landscape Transformation. En SAP S/4HANA, esto lo implementa el motor de captura de datos de cambios. Para la extracción delta basada en desencadenadores, se crean desencadenadores de bases de datos para las tablas de bases de datos que subyacen a las vistas de extracción. Siempre que se crean, eliminan o actualizan registros en estas tablas, la información de cambio correspondiente se escribe en las tablas de registro de captura de datos de cambios. Como se mencionó anteriormente, las vistas de extracción de CDS deben anotarse en consecuencia para indicar que admiten esta opción. Para vistas complejas que involucran varias tablas, el desarrollador de la vista también debe proporcionar información sobre la asignación entre vistas y tablas como parte de la definición de la vista de extracción CDS. Para casos simples, el sistema puede realizar el mapeo automáticamente. La extracción delta con el motor de captura de datos de cambios tiene algunas limitaciones, que requieren que las vistas no sean demasiado complejas. Las vistas de extracción habilitadas para delta no deben contener agregados ni demasiadas uniones, por ejemplo.
La captura de datos modificados para la extracción delta basada en CDS funciona de la siguiente manera: se ejecuta un trabajo de captura de datos modificados en horarios regulares para extraer datos modificados de las tablas de la aplicación. Para la extracción, el motor de captura de datos de cambios utiliza las tablas de registro para determinar qué se cambió y las vistas de la base de datos generadas a partir de las vistas de extracción de CDS para leer los datos. El trabajo de captura de datos modificados escribe los datos extraídos en la cola ODP del marco ODP, desde donde se pueden recuperar a través de API como se describió anteriormente.
Como ya se explicó, la API de integración de datos en la nube se basa en el marco ODP y, por lo tanto, utiliza el mismo mecanismo para la extracción delta. La extracción delta también cuenta con el apoyo del oleoducto ABAP. Para la extracción delta, llama al motor de captura de datos modificados, que luego lee los datos basándose en las tablas de registro y las vistas de la base de datos generadas a partir de las vistas de extracción CDS.
Antes de la introducción del método de captura de datos de cambios basado en activadores, la extracción delta solo estaba disponible según las marcas de tiempo. Esto requiere un campo de marca de tiempo en el modelo de datos para detectar qué ha cambiado desde un momento determinado. Con la captura de datos de cambios basada en desencadenadores, esta restricción en el modelo de datos no es necesaria. Además, la extracción delta basada en marcas de tiempo requiere más esfuerzos en tiempo de ejecución, especialmente para detectar eliminaciones. El marco OPD implementa la extracción delta basada en CDS con marcas de tiempo. Todavía está disponible, pero SAP recomienda utilizar la captura de datos de cambios basada en activadores para nuevos desarrollos.
El marco de replicación de datos (DRF) es un local cambio de objeto de negocio Procesador de eventos que decide qué instancias de objetos de negocio se replicarán en sistemas de destino definidos. Está implementado en ABAP y forma parte de la pila de software SAP S/4HANA. Su arquitectura se muestra en la siguiente figura. Las aplicaciones comerciales SAP S/4HANA pueden registrar eventos de cambio locales de sus objetos comerciales en el DRF y conectar las interfaces salientes correspondientes de sus objetos comerciales. En un entorno productivo de SAP S/4HANA, los expertos en integración pueden definir un modelo de replicación que defina, para un objeto comercial determinado, las condiciones de filtro y los sistemas de destino para la replicación.
En tiempo de ejecución, la aplicación informa al DRF sobre un evento de creación o cambio de un objeto comercial, como la creación de una orden de venta. El DRF verifica las condiciones del filtro para los pedidos de venta. Si el resultado es que este objeto se replicará, el DRF envía la instancia del objeto comercial a través de la interfaz de salida dada (por ejemplo, un servicio SOAP) a los sistemas de destino definidos.
El DRF siempre envía instancias completas de objetos comerciales. La integración sigue el mecanismo de empuje. Los eventos de cambio de objetos comerciales inician la transferencia descendente de las instancias de objetos comerciales a los sistemas de destino definidos. El DRF se complementa con el marco de mapeo de claves y el marco de mapeo de valores para respaldar identificadores y listas de códigos no armonizados.
SAP S/4HANA también utiliza el DRF como activador de eventos para la distribución de datos maestros con SAP Master Data Integration, que analizaremos en la siguiente sección.
Los modelos operativos y de arquitectura de la nube se basan en servicios empresariales distribuidos. Un requisito previo para ello es el intercambio y la sincronización de objetos de datos maestros comunes entre estos servicios empresariales. SAP Master Data Integration es un servicio en la nube multiinquilino para la integración de datos maestros que proporciona una vista consistente de los datos maestros en un panorama híbrido. Técnicamente, SAP Master Data Integration es un motor genérico de distribución de datos maestros. Las aplicaciones y servicios empresariales crean y almacenan datos maestros en su persistencia local. Utilizan el servicio de integración de datos maestros para distribuir los objetos de datos maestros y las actualizaciones continuas. El servicio de integración de datos maestros no procesa la lógica específica de la aplicación, pero realiza algunas validaciones básicas de los datos entrantes, por ejemplo, validaciones de esquemas. SAP Master Data Integration utiliza modelos de datos maestros, que siguen SAP One Domain Model, el marco de SAP para modelos de datos alineados que se comparten entre aplicaciones.
Al crear o cambiar datos maestros, la aplicación empresarial llama a la API de solicitud de cambio de SAP Master Data Integration. SAP Master Data Integration valida los datos entrantes y escribe todos los cambios aceptados en un registro. Las aplicaciones interesadas en este objeto de datos maestros utilizan la API de registro para leer los eventos de cambio. Pueden establecer filtros para influir en los datos maestros que desean obtener. El filtrado se puede realizar a nivel de instancia (para especificar qué registros de datos maestros desean) e incluso a nivel de campos a incluir.
SAP S/4HANA utiliza SAP Master Data Integration en varios procesos de un extremo a otro para intercambiar varios tipos de datos maestros con otras aplicaciones de SAP. En el proceso de extremo a extremo desde el origen hasta el pago, por ejemplo, SAP Master Data Integration se utiliza para compartir datos maestros de proveedores y datos maestros de centros de costos de SAP S/4HANA Cloud con SAPAriba. Otro ejemplo es la integración entre SAP S/4HANA y Factores de éxito de SAP Central de empleados. Aquí, SAP Master Data Integration se utiliza para intercambiar datos maestros, como personal de la fuerza laboral, clasificaciones de puestos y unidades organizativas provenientes de SAP SuccessFactors Employee Central, y datos maestros del centro de costos provenientes de SAP S/4HANA. Se pueden intercambiar muchos más tipos de datos maestros de SAP S/4HANA a través de SAP Master Data Integration, por ejemplo, datos maestros bancarios, datos de gestión del sector público, objeto de control de proyectos y socios comerciales. Está previsto permitir el intercambio de más objetos de datos maestros a través de SAP Master Data Management para respaldar completamente a la empresa inteligente. Puede explorar las integraciones planificadas con SAP Road Map Explorer en https://roadmaps.sap.com/boardpor ejemplo, con filtros configurados para el producto «SAP S/4HANA Cloud» y el tema de enfoque «integración».
Nota del editor: esta publicación ha sido adaptada de una sección del libro. Arquitectura SAP S/4HANA de Thomas Saueressig, Tobias Stein, Jochen Boeder y Wolfram Kleis.
Calle Eloy Gonzalo, 27
Madrid, Madrid.
Código Postal 28010
Paseo de la Reforma 26
Colonia Juárez, Cuauhtémoc
Ciudad de México 06600
Real Cariari
Autopista General Cañas,
San José, SJ 40104
Av. Jorge Basadre 349
San Isidro
Lima, LIM 15073