SAP BODS - Guida rapida
Un data warehouse è noto come repository centrale per archiviare i dati da una o più origini dati eterogenee. Il data warehouse viene utilizzato per la creazione di report e l'analisi delle informazioni e archivia i dati sia storici che correnti. I dati nel sistema DW vengono utilizzati per il reporting analitico, successivamente utilizzato da analisti aziendali, responsabili delle vendite o lavoratori della conoscenza per il processo decisionale.
I dati nel sistema DW vengono caricati da un sistema di transazioni operative come Vendite, Marketing, Risorse umane, SCM, ecc. Possono passare attraverso l'archivio dati operativi o altre trasformazioni prima di essere caricati nel sistema DW per l'elaborazione delle informazioni.
Data Warehouse - Caratteristiche principali
Le caratteristiche principali di un sistema DW sono:
È un archivio di dati centrale in cui i dati vengono archiviati da una o più origini dati eterogenee.
Un sistema DW memorizza sia i dati attuali che quelli storici. Normalmente un sistema DW memorizza 5-10 anni di dati storici.
Un sistema DW è sempre tenuto separato da un sistema di transazioni operative.
I dati nel sistema DW vengono utilizzati per diversi tipi di rapporti analitici, dal confronto trimestrale a quello annuale.
Necessità di un sistema DW
Supponiamo che tu abbia un'agenzia di mutuo per la casa in cui i dati provengono da più applicazioni come marketing, vendite, ERP, HRM, MM ecc. Questi dati vengono estratti, trasformati e caricati in Data Warehouse.
Ad esempio, se è necessario confrontare le vendite trimestrali / annuali di un prodotto, non è possibile utilizzare un database transazionale operativo, poiché questo bloccherà il sistema di transazione. Pertanto, a questo scopo viene utilizzato un Data Warehouse.
Differenza tra DW e ODB
Le differenze tra un data warehouse e un database operativo (database transazionale) sono le seguenti:
Un sistema transazionale è progettato per carichi di lavoro noti e transazioni come l'aggiornamento di un record utente, la ricerca di un record, ecc. Tuttavia, le transazioni di Data Warehouse sono più complesse e presentano una forma generale di dati.
Un sistema transazionale contiene i dati correnti di un'organizzazione e il data warehouse normalmente contiene i dati storici.
Il sistema transazionale supporta l'elaborazione parallela di più transazioni. Il controllo della concorrenza e i meccanismi di ripristino sono necessari per mantenere la coerenza del database.
Una query del database operativo consente di leggere e modificare le operazioni (Elimina e Aggiorna) mentre una query OLAP richiede solo l'accesso in sola lettura dei dati memorizzati (istruzione Select).
Architettura DW
Il data warehouse implica la pulizia dei dati, l'integrazione dei dati e il consolidamento dei dati.
Un data warehouse ha un'architettura a 3 livelli: Data Source Layer, Integration Layer, e Presentation Layer. L'illustrazione sopra mostra l'architettura comune di un sistema Data Warehouse.
Esistono quattro tipi di sistemi di Data Warehousing.
- Data Mart
- Elaborazione analitica online (OLAP)
- Elaborazione transazionale online (OLTP)
- Analisi predittiva (PA)
Data Mart
Un Data Mart è noto come la forma più semplice di un sistema di Data Warehouse e normalmente consiste in una singola area funzionale in un'organizzazione come vendite, finanza o marketing, ecc.
Data Mart in un'organizzazione ed è creato e gestito da un unico dipartimento. Poiché appartiene a un singolo dipartimento, il dipartimento di solito ottiene i dati solo da poche o da un tipo di sorgenti / applicazioni. Questa fonte potrebbe essere un sistema operativo interno, un data warehouse o un sistema esterno.
Processo di analisi online
In un sistema OLAP, il numero di transazioni è inferiore rispetto a un sistema transazionale. Le query eseguite sono di natura complessa e coinvolgono aggregazioni di dati.
Cos'è un'aggregazione?
Salviamo tabelle con dati aggregati come annuale (1 riga), trimestrale (4 righe), mensile (12 righe) o giù di lì, se qualcuno deve fare un confronto anno per anno, verrà elaborata solo una riga. Tuttavia, in una tabella non aggregata confronterà tutte le righe.
SELECT SUM(salary)
FROM employee
WHERE title = 'Programmer';
Misure efficaci in un sistema OLAP
Il tempo di risposta è noto come una delle misure più efficaci e chiave in un file OLAPsistema. I dati archiviati aggregati vengono mantenuti in schemi multidimensionali come schemi a stella (quando i dati sono organizzati in gruppi gerarchici, spesso chiamati dimensioni e in fatti e fatti aggregati, si parla di schemi).
La latenza di un sistema OLAP è di poche ore rispetto ai data mart in cui la latenza è prevista più vicina a un giorno.
Elaborazione delle transazioni online
In un sistema OLTP, ci sono un gran numero di brevi transazioni online come INSERT, UPDATE e DELETE.
In un sistema OLTP, una misura efficace è il tempo di elaborazione di transazioni brevi ed è molto inferiore. Controlla l'integrità dei dati in ambienti ad accesso multiplo. Per un sistema OLTP, il numero di transazioni al secondo misura l'estensioneeffectiveness. Un sistema di data warehouse OLTP contiene dati aggiornati e dettagliati e viene mantenuto negli schemi nel modello di entità (3NF).
Esempio
Sistema di transazioni giornaliere in un negozio al dettaglio, in cui i record dei clienti vengono inseriti, aggiornati e cancellati su base giornaliera. Fornisce un'elaborazione delle query molto veloce. I database OLTP contengono dati dettagliati e aggiornati. Lo schema utilizzato per archiviare il database OLTP è il modello Entity.
Differenze tra OLTP e OLAP
Le seguenti illustrazioni mostrano le differenze principali tra un file OLTP e OLAP sistema.
Indexes - Il sistema OLTP ha solo pochi indici mentre in un sistema OLAP ci sono molti indici per l'ottimizzazione delle prestazioni.
Joins- In un sistema OLTP, un gran numero di join e dati vengono normalizzati. Tuttavia, in un sistema OLAP ci sono meno join e vengono denormalizzati.
Aggregation - In un sistema OLTP, i dati non vengono aggregati mentre in un database OLAP vengono utilizzate più aggregazioni.
Analisi predittiva
L'analisi predittiva è nota come trovare i modelli nascosti nei dati archiviati nel sistema DW utilizzando diverse funzioni matematiche per prevedere i risultati futuri.
Il sistema di analisi predittiva è diverso da un sistema OLAP in termini di utilizzo. Viene utilizzato per concentrarsi sui risultati futuri. Un sistema OALP si concentra sull'elaborazione dei dati attuali e storici per il reporting analitico.
Sul mercato sono disponibili vari sistemi di Data Warehouse / database che soddisfano le capacità di un sistema DW. I fornitori più comuni di sistemi di data warehouse sono:
- Microsoft SQL Server
- Oracle Exadata
- IBM Netezza
- Teradata
- Sybase IQ
- SAP Business Warehouse (SAP BW)
SAP Business Warehouse
SAP Business Warehouseè una parte della piattaforma di rilascio SAP NetWeaver. Prima di NetWeaver 7.4, veniva denominato SAP NetWeaver Business Warehouse.
Il data warehousing in SAP BW significa integrazione, trasformazione, pulizia dei dati, archiviazione e gestione temporanea dei dati. Il processo DW include la modellazione dei dati nel sistema BW, la gestione temporanea e l'amministrazione. Lo strumento principale, utilizzato per gestire le attività DW nel sistema BW, è il workbench di amministrazione.
Caratteristiche principali
SAP BW fornisce funzionalità come Business Intelligence, che include servizi analitici e pianificazione aziendale, reporting analitico, elaborazione di query e informazioni e data warehousing aziendale.
Fornisce una combinazione di database e strumenti di gestione del database che aiutano a prendere decisioni.
Altre caratteristiche chiave del sistema BW includono Business Application Programming Interface (BAPI) che supporta la connessione ad applicazioni non SAP R / 3, estrazione e caricamento automatizzati dei dati, un processore OLAP integrato, repository di metadati, strumenti di amministrazione, supporto multilingue e un interfaccia abilitata per il web.
SAP BW è stato introdotto per la prima volta nel 1998 da SAP, un'azienda tedesca. Il sistema SAP BW era basato su un approccio model-driven per rendere Enterprise Data Warehouse facile, semplice e più efficiente per i dati SAP R3.
Negli ultimi 16 anni, SAP BW si è evoluto come uno dei sistemi chiave per molte aziende per gestire le proprie esigenze di data warehousing aziendale.
Il Business Explorer (BEx) fornisce un'opzione per reporting flessibile, analisi strategica e reporting operativo in azienda.
Viene utilizzato per eseguire rapporti, esecuzione di query e funzioni di analisi nel sistema BI. È inoltre possibile elaborare dati attuali e storici fino a vari gradi di dettagli sul Web e in formato Excel.
Utilizzando BEx trasmissione di informazioni, i contenuti BI possono essere condivisi via e-mail come documento o sotto forma di collegamenti come dati in tempo reale oppure è possibile anche pubblicare utilizzando le funzioni di SAP EP.
Oggetti e prodotti aziendali
SAP Business Objects è noto come lo strumento di Business Intelligence più comune e viene utilizzato per la manipolazione dei dati, l'accesso degli utenti, l'analisi, la formattazione e la pubblicazione di informazioni su diverse piattaforme. Si tratta di un set di strumenti basato sul front-end, che consente agli utenti aziendali e ai responsabili delle decisioni di visualizzare, ordinare e analizzare i dati attuali e storici di business intelligence.
Comprende i seguenti strumenti:
Web Intelligence
Web Intelligence (WebI) è definito come lo strumento di reporting dettagliato di Business Objects più comune che supporta varie funzionalità di analisi dei dati come drill, gerarchie, grafici, misure calcolate, ecc. Consente agli utenti finali di creare query ad-hoc nel pannello delle query e per eseguire analisi dei dati sia online che offline.
SAP Business Objects Xcelsius / Dashboards
I dashboard forniscono funzionalità di visualizzazione dei dati e dashboard agli utenti finali e puoi creare dashboard interattivi utilizzando questo strumento.
È inoltre possibile aggiungere vari tipi di grafici e grafici e creare dashboard dinamici per la visualizzazione dei dati e questi vengono utilizzati principalmente nelle riunioni finanziarie di un'organizzazione.
Crystal Reports
I report Crystal vengono utilizzati per la creazione di report con pixel perfetti. Ciò consente agli utenti di creare e progettare report e utilizzarli successivamente per scopi di stampa.
Esploratore
Explorer consente a un utente di cercare il contenuto nel repository BI e le migliori corrispondenze vengono visualizzate sotto forma di grafici. Non è necessario annotare le query per eseguire la ricerca.
Vari altri componenti e strumenti introdotti per il reporting dettagliato, la visualizzazione dei dati e lo scopo di dashboard sono Design Studio, Analysis edition per Microsoft Office, BI Repository e la piattaforma Business Objects Mobile.
ETL sta per Extract, Transform and Load. Uno strumento ETL estrae i dati da diversi sistemi di origine RDBMS, trasforma i dati come applicare calcoli, concatenare, ecc. E quindi caricare i dati nel sistema Data Warehouse. I dati vengono caricati nel sistema DW sotto forma di tabelle delle dimensioni e dei fatti.
Estrazione
Un'area di staging è richiesta durante il caricamento ETL. Ci sono vari motivi per cui è richiesta un'area di sosta.
I sistemi di origine sono disponibili solo per un periodo di tempo specifico per l'estrazione dei dati. Questo periodo di tempo è inferiore al tempo totale di caricamento dei dati. Pertanto, l'area di staging consente di estrarre i dati dal sistema di origine e di conservarli nell'area di staging prima della fine della fascia oraria.
L'area di gestione temporanea è necessaria quando si desidera ottenere i dati da più origini dati insieme o se si desidera unire due o più sistemi insieme. Ad esempio, non sarà possibile eseguire una query SQL unendo due tabelle da due database fisicamente diversi.
La fascia oraria delle estrazioni dei dati per i diversi sistemi varia in base al fuso orario e alle ore di funzionamento.
I dati estratti dai sistemi di origine possono essere utilizzati in più sistemi di data warehouse, archivi di dati operativi, ecc.
ETL consente di eseguire trasformazioni complesse e richiede un'area aggiuntiva per memorizzare i dati.
Trasformare
Nella trasformazione dei dati, si applica una serie di funzioni ai dati estratti per caricarli nel sistema di destinazione. I dati, che non richiedono alcuna trasformazione, sono noti come spostamento diretto o trasferimento dei dati.
È possibile applicare diverse trasformazioni ai dati estratti dal sistema di origine. Ad esempio, puoi eseguire calcoli personalizzati. Se si desidera la somma delle entrate delle vendite e questa non è nel database, è possibile applicare ilSUM formula durante la trasformazione e caricare i dati.
Ad esempio, se hai il nome e il cognome in una tabella in colonne diverse, puoi usare concatenate prima del caricamento.
Caricare
Durante la fase di caricamento, i dati vengono caricati nel sistema di destinazione finale e possono essere un file flat o un sistema di data warehouse.
SAP BO Data Services è uno strumento ETL utilizzato per l'integrazione dei dati, la qualità dei dati, la profilazione dei dati e l'elaborazione dei dati. Ti consente di integrare e trasformare un affidabile sistema di data-to-data warehouse per il reporting analitico.
BO Data Services è costituito da un'interfaccia di sviluppo UI, repository di metadati, connettività dati al sistema di origine e di destinazione e console di gestione per la pianificazione dei lavori.
Integrazione e gestione dei dati
SAP BO Data Services è uno strumento di integrazione e gestione dei dati e consiste in Data Integrator Job Server e Data Integrator Designer.
Caratteristiche principali
È possibile applicare varie trasformazioni di dati utilizzando il linguaggio Data Integrator per applicare trasformazioni di dati complesse e creare funzioni personalizzate.
Data Integrator Designer viene utilizzato per archiviare lavori batch e in tempo reale e nuovi progetti nel repository.
DI Designer fornisce anche un'opzione per lo sviluppo ETL basato sul team fornendo un repository centrale con tutte le funzionalità di base.
Il job server Data Integrator è responsabile dell'elaborazione dei lavori creati utilizzando DI Designer.
Amministratore Web
L'amministratore web di Data Integrator viene utilizzato dagli amministratori di sistema e dall'amministratore del database per mantenere i repository in Servizi dati. Data Services include Metadata Repository, Central Repository per lo sviluppo basato sul team, Job Server e Web Services.
Funzioni chiave di DI Web Administrator
- Viene utilizzato per pianificare, monitorare ed eseguire lavori batch.
- Viene utilizzato per la configurazione e per avviare e arrestare i server in tempo reale.
- Viene utilizzato per configurare Job Server, Access Server e l'utilizzo del repository.
- Viene utilizzato per configurare gli adattatori.
- Viene utilizzato per configurare e controllare tutti gli strumenti in BO Data Services.
La funzione di gestione dei dati enfatizza la qualità dei dati. Implica la pulizia, il miglioramento e il consolidamento dei dati per ottenere dati corretti nel sistema DW.
In questo capitolo apprenderemo l'architettura SAP BODS. L'illustrazione mostra l'architettura del sistema BODS con area di staging.
Livello di origine
Il livello di origine include diverse origini dati come applicazioni SAP e sistemi RDBMS non SAP e l'integrazione dei dati avviene nell'area di staging.
SAP Business Objects Data Services include diversi componenti come Data Service Designer, Data Services Management Console, Repository Manager, Data Services Server Manager, Work bench, ecc. Il sistema di destinazione può essere un sistema DW come SAP HANA, SAP BW o un non SAP Sistema di data warehouse.
Lo screenshot seguente mostra i diversi componenti di SAP BODS.
Puoi anche dividere l'architettura BODS nei seguenti livelli:
- Livello applicazione Web
- Livello server database
- Livello di servizio dei servizi dati
La figura seguente mostra l'architettura BODS.
Evoluzione del prodotto - ATL, DI e DQ
Acta Technology Inc. ha sviluppato SAP Business Objects Data Services e successivamente Business Objects Company l'ha acquisito. Acta Technology Inc. è una società con sede negli Stati Uniti ed era responsabile dello sviluppo della piattaforma di integrazione dei primi dati. I due prodotti software ETL sviluppati da Acta Inc. erano ilData Integration (DI) strumento e il Data Management o Data Quality (DQ) attrezzo.
Business Objects, una società francese ha acquisito Acta Technology Inc. nel 2002 e successivamente, entrambi i prodotti sono stati rinominati come Business Objects Data Integration (BODI) strumento e Business Objects Data Quality (BODQ) attrezzo.
SAP ha acquisito Business Objects nel 2007 ed entrambi i prodotti sono stati rinominati SAP BODI e SAP BODQ. Nel 2008, SAP ha integrato entrambi i prodotti in un unico prodotto software denominato SAP Business Objects Data Services (BODS).
SAP BODS fornisce l'integrazione dei dati e la soluzione di gestione dei dati e nella versione precedente di BODS era inclusa la soluzione di elaborazione dei dati di testo.
BODS - Oggetti
Vengono chiamate tutte le entità utilizzate in BO Data Services Designer Objects. Tutti gli oggetti come progetti, lavori, metadati e funzioni di sistema sono memorizzati nella libreria di oggetti locale. Tutti gli oggetti sono di natura gerarchica.
Gli oggetti contengono principalmente quanto segue:
Properties- Sono usati per descrivere un oggetto e non ne influenzano il funzionamento. Esempio: nome di un oggetto, data di creazione e così via.
Options - Che controllano il funzionamento degli oggetti.
Tipi di oggetti
Esistono due tipi di oggetti nel sistema: oggetti riutilizzabili e oggetti monouso. Il tipo di oggetto determina come l'oggetto viene utilizzato e recuperato.
Oggetti riutilizzabili
La maggior parte degli oggetti archiviati nel repository può essere riutilizzata. Quando un oggetto riutilizzabile viene definito e salvato nel repository locale, è possibile riutilizzare l'oggetto creando chiamate alla definizione. Ogni oggetto riutilizzabile ha una sola definizione e tutte le chiamate a quell'oggetto si riferiscono a quella definizione. Ora, se la definizione di un oggetto viene modificata in un punto, si modifica la definizione dell'oggetto in tutti i punti in cui appare quell'oggetto.
Una libreria di oggetti viene utilizzata per contenere la definizione di un oggetto e quando un oggetto viene trascinato e rilasciato dalla libreria, viene creato un nuovo riferimento a un oggetto esistente.
Oggetti monouso
Tutti gli oggetti definiti specificamente per un lavoro o un flusso di dati sono noti come oggetti monouso. Ad esempio, trasformazione specifica utilizzata in qualsiasi caricamento di dati.
BODS - Gerarchia degli oggetti
Tutti gli oggetti sono di natura gerarchica. Il diagramma seguente mostra la gerarchia degli oggetti nel sistema SAP BODS:
BODS - Strumenti e funzioni
In base all'architettura illustrata di seguito, abbiamo molti strumenti definiti in SAP Business Objects Data Services. Ogni strumento ha la sua funzione secondo il panorama del sistema.
In alto, sono installati i servizi della piattaforma informativa per gli utenti e la gestione della protezione dei diritti. BODS dipende dalla console di gestione centrale (CMC) per l'accesso utente e funzionalità di sicurezza. Questo è applicabile alla versione 4.x. Nella versione precedente, era fatto in Management Console.
Data Services Designer è uno strumento di sviluppo utilizzato per creare oggetti costituiti da mappatura, trasformazione e logica dei dati. È basato su GUI e funziona come designer per Data Services.
Repository
Il repository viene utilizzato per memorizzare i metadati degli oggetti utilizzati in BO Data Services. Ogni repository deve essere registrato nella Central Management Console ed è collegato a uno o più server dei lavori, responsabili dell'esecuzione dei lavori creati dall'utente.
Tipi di archivi
Esistono tre tipi di archivi.
Local Repository - Viene utilizzato per memorizzare i metadati di tutti gli oggetti creati in Data Services Designer come progetti, lavori, flusso di dati, flusso di lavoro, ecc.
Central Repository- Viene utilizzato per controllare la gestione delle versioni degli oggetti e viene utilizzato per lo sviluppo multiuso. Repository centrale memorizza tutte le versioni di un oggetto dell'applicazione. Quindi, ti consente di passare alle versioni precedenti.
Profiler Repository- Viene utilizzato per gestire tutti i metadati relativi alle attività del profiler eseguite in SAP BODS designer. Il repository CMS archivia i metadati di tutte le attività eseguite in CMC sulla piattaforma BI. Information Steward Repository memorizza tutti i metadati delle attività di profilazione e degli oggetti creati in Information Steward.
Job Server
Il server dei lavori viene utilizzato per eseguire i lavori batch e in tempo reale creati dall'utente. Ottiene le informazioni sul lavoro dai rispettivi repository e avvia il motore di dati per eseguire il lavoro. Il Job Server può eseguire i lavori in tempo reale o pianificati e utilizza il multithreading nella cache di memoria e l'elaborazione parallela per fornire l'ottimizzazione delle prestazioni.
Accesso al server
Il server di accesso in Data Services è noto come sistema di broker di messaggi in tempo reale, che accetta le richieste di messaggi, passa al servizio in tempo reale e visualizza un messaggio in un intervallo di tempo specifico.
Console di gestione del servizio dati
Data Service Management Console viene utilizzata per eseguire attività di amministrazione come la pianificazione dei lavori, la generazione di rapporti sulla qualità nel sistema DS, la convalida dei dati, la documentazione, ecc.
BODS - Naming Standards
Si consiglia di utilizzare convenzioni di denominazione standard per tutti gli oggetti in tutti i sistemi poiché ciò consente di identificare facilmente gli oggetti nei repository.
La tabella mostra l'elenco delle convenzioni di denominazione consigliate che dovrebbero essere utilizzate per tutti i lavori e altri oggetti.
Prefisso | Suffisso | Oggetto |
---|---|---|
DF_ | n / A | Flusso di dati |
EDF_ | _Ingresso | Flusso di dati integrato |
EDF_ | _Produzione | Flusso di dati integrato |
RTJob_ | n / A | Lavoro in tempo reale |
WF_ | n / A | Flusso di lavoro |
LAVORO_ | n / A | Lavoro |
n / A | _DS | Archivio dati |
DC_ | n / A | Configurazione dei dati |
SC_ | n / A | Configurazione di sistema |
n / A | _Memory_DS | Archivio dati di memoria |
PROC_ | n / A | Procedura memorizzata |
Le basi di BO Data Service includono oggetti chiave nella progettazione del flusso di lavoro come progetto, lavoro, flusso di lavoro, flusso di dati, archivi.
BODS - Repository e tipi
Il repository viene utilizzato per memorizzare i metadati degli oggetti utilizzati in BO Data Services. Ciascun repository deve essere registrato nella Central Management Console, CMC ed è collegato a uno o più server dei lavori, responsabili dell'esecuzione dei lavori creati dall'utente.
Tipi di archivi
Esistono tre tipi di archivi.
Local Repository - Viene utilizzato per memorizzare i metadati di tutti gli oggetti creati in Data Services Designer come progetti, lavori, flusso di dati, flusso di lavoro, ecc.
Central Repository- Viene utilizzato per controllare la gestione delle versioni degli oggetti e viene utilizzato per lo sviluppo multiuso. Repository centrale memorizza tutte le versioni di un oggetto dell'applicazione. Quindi, ti consente di passare alle versioni precedenti.
Profiler Repository- Viene utilizzato per gestire tutti i metadati relativi alle attività del profiler eseguite in SAP BODS designer. Il repository CMS archivia i metadati di tutte le attività eseguite in CMC sulla piattaforma BI. Information Steward Repository memorizza tutti i metadati delle attività di profilazione e degli oggetti creati in Information Steward.
Per creare BODS Repository, è necessario che sia installato un database. Puoi utilizzare SQL Server, database Oracle, My SQL, SAP HANA, Sybase, ecc.
Creazione del repository
È necessario creare i seguenti utenti nel database durante l'installazione di BOD e creare repository. Questi utenti devono accedere a diversi server come il server CMS, il server di controllo ecc.
Crea BOD utente identificati da Bodsserver1
- Concedi la connessione a BODS;
- Concedi la creazione della sessione a BODS;
- Concedi DBA a BODS;
- Concedi Crea qualsiasi tabella a BODS;
- Concedi la creazione di qualsiasi vista a BODS;
- Concedi Drop Any Table a BODS;
- Concedi Drop Any View a BODS;
- Concedi Inserisci qualsiasi tabella a BODS;
- Concedi Aggiorna qualsiasi tabella a BODS;
- Concedi Elimina qualsiasi tabella a BODS;
- Alter USER BODS QUOTA ILLIMITATO PER GLI UTENTI;
Crea utente CMS identificato da CMSserver1
- Concedi la connessione a CMS;
- Concedi la creazione della sessione a CMS;
- Concedi DBA a CMS;
- Concedi Crea qualsiasi tabella a CMS;
- Concedi la creazione di qualsiasi vista a CMS;
- Concedi il rilascio di qualsiasi tabella a CMS;
- Concedi Drop Any View a CMS;
- Concedi Inserisci qualsiasi tabella a CMS;
- Concedi Aggiorna qualsiasi tabella a CMS;
- Concedi Elimina qualsiasi tabella a CMS;
- Alter USER CMS QUOTA ILLIMITATO PER GLI UTENTI;
Crea utente CMSAUDIT identificato da CMSAUDITserver1
- Concedi la connessione a CMSAUDIT;
- Concedi la creazione della sessione a CMSAUDIT;
- Concedere DBA a CMSAUDIT;
- Concedi Crea qualsiasi tabella a CMSAUDIT;
- Concedi la creazione di qualsiasi vista a CMSAUDIT;
- Concedi il rilascio di qualsiasi tabella a CMSAUDIT;
- Concedi il rilascio di qualsiasi visualizzazione a CMSAUDIT;
- Concedi Inserisci qualsiasi tabella a CMSAUDIT;
- Concedi Aggiorna qualsiasi tabella a CMSAUDIT;
- Concedi Elimina qualsiasi tabella a CMSAUDIT;
- Alter USER CMSAUDIT QUOTA ILLIMITATO PER GLI UTENTI;
Per creare un nuovo repository dopo l'installazione
Step 1 - Crea un database Local_Repoe vai a Data Services Repository Manager. Configura il database come repository locale.
Verrà aperta una nuova finestra.
Step 2 - Inserisci i dettagli nei seguenti campi -
Tipo di repository, tipo di database, nome del server di database, porta, nome utente e password.
Step 3 - Fare clic su Createpulsante. Riceverai il seguente messaggio:
Step 4 - Ora accedi alla Central Management Console CMC in SAP BI Platform con nome utente e password.
Step 5 - Nella home page di CMC, fare clic su Data Services.
Step 6 - Dal Data Services menu, fare clic su Configure a new Data Services Repository.
Step 7 - Inserisci i dettagli come indicato nella nuova finestra.
- Nome del repository: Local_Repo
- Tipo di base dati: SAP HANA
- Nome del server della base dati: migliore
- Nome database: LOCAL_REPO
- Nome utente:
- Password:*****
Step 8 - Fare clic sul pulsante Test Connection e se ha successo, fare clic su Save. Una volta salvato, verrà visualizzato nella scheda Repository in CMC.
Step 9 - Applicare diritti di accesso e sicurezza sul repository locale in formato CMC → User and Groups.
Step 10 - Una volta fornito l'accesso, vai a Data Services Designer → Seleziona repository → Inserisci nome utente e password per accedere.
Aggiornamento del repository
Per aggiornare un repository, segui i passaggi indicati.
Step 1 - Per aggiornare un repository dopo l'installazione, creare un database Local_Repo e vai a Data Services Repository Manager.
Step 2 - Configurare il database come repository locale.
Verrà aperta una nuova finestra.
Step 3 - Immettere i dettagli per i seguenti campi.
Tipo di repository, tipo di database, nome del server di database, porta, nome utente e password.
Vedrai l'output come mostrato nello screenshot mostrato di seguito.
Data Service Management Console (DSMC) viene utilizzata per eseguire attività di amministrazione come la pianificazione dei lavori, la generazione di rapporti sulla qualità nel sistema DS, la convalida dei dati, la documentazione, ecc.
È possibile accedere a Data Services Management Console nei seguenti modi:
È possibile accedere alla console di gestione dei servizi dati andando a Start → All Programs → Data Services → Data Service Management Console.
È inoltre possibile accedere alla console di gestione dei servizi dati tramite Designer se sei già loggato.
Per accedere alla console di gestione dei servizi dati tramite Designer Home Page seguire i passaggi indicati di seguito.
Per accedere alla console di gestione dei servizi dati tramite Strumenti, seguire i passaggi indicati:
Step 1 - Vai a Tools → Data Services Management Console come mostrato nell'immagine seguente.
Step 2 - Una volta effettuato l'accesso a Data Services Management Console, la schermata principale si aprirà come mostrato nella schermata riportata di seguito. In alto, puoi vedere il nome utente tramite il quale sei loggato.
Nella home page, vedrai le seguenti opzioni:
- Administrator
- Documentazione automatica
- Convalida dei dati
- Analisi dell'impatto e del lignaggio
- Dashboard operativo
- Rapporti sulla qualità dei dati
In questo capitolo vengono spiegate le funzioni chiave di ogni modulo di Data Services Management Console.
Modulo amministratore
Un'opzione Amministratore viene utilizzata per gestire:
- Utenti e ruoli
- Per aggiungere connessioni per accedere a server e repository
- Per accedere ai dati delle offerte di lavoro pubblicate per i servizi web
- Per la pianificazione e il monitoraggio dei lavori batch
- Per controllare lo stato del server di accesso e dei servizi in tempo reale.
Dopo aver fatto clic sul file Administratorscheda, puoi vedere molti collegamenti nel riquadro di sinistra. Essi sono: stato, batch, servizi Web, connessioni SAP, gruppi di server, gestione dei repository di Profiler e cronologia di esecuzione dei lavori.
Nodi
I vari nodi sono sotto il modulo Amministratore sono discussi di seguito.
Stato
Il nodo Stato viene utilizzato per controllare lo stato dei lavori batch e in tempo reale, accedere allo stato del server, ai repository dell'adattatore e del profiler e ad altri stati del sistema.
Fare clic su Stato → Seleziona un repository
Nel riquadro di destra, vedrai le schede delle seguenti opzioni:
Batch Job Status- Viene utilizzato per controllare lo stato del lavoro batch. È possibile controllare le informazioni sul lavoro come Traccia, Monitoraggio, Errore e Monitoraggio prestazioni, Ora di inizio, Ora di fine, Durata, ecc.
Batch Job Configuration - La configurazione del lavoro batch viene utilizzata per controllare la pianificazione dei singoli lavori oppure è possibile aggiungere un'azione come Esegui, Aggiungi pianificazione, Esporta comando di esecuzione.
Repositories Schedules - Viene utilizzato per visualizzare e configurare le pianificazioni per tutti i lavori nel repository.
Batch Node
Sotto il nodo Lavoro batch, vedrai le stesse opzioni di cui sopra.
Sr. No. | Opzione e descrizione |
---|---|
1 | Batch Job Status Visualizza lo stato dell'ultima esecuzione e informazioni approfondite su ogni lavoro. |
2 | Batch Job Configuration Configurare le opzioni di esecuzione e pianificazione per i singoli lavori. |
3 | Repository Schedules Visualizza e configura le pianificazioni per tutti i lavori nel repository. |
Nodo dei servizi Web
I servizi Web vengono utilizzati per pubblicare lavori in tempo reale e lavori batch come operazioni di servizio Web e per controllare lo stato di queste operazioni. Viene anche utilizzato per mantenere la sicurezza per i lavori pubblicati come servizio Web e per visualizzarliWSDL file.
Connessioni SAP
Connessioni SAP viene utilizzato per controllare lo stato o per configurare RFC server interface nella console di gestione dei servizi dati.
Per controllare lo stato dell'interfaccia del server RFC, vai alla scheda Stato dell'interfaccia del server RFC. Per aggiungere una nuova interfaccia server RFC, nella scheda Configurazione, fare clic suAdd.
Quando si apre una nuova finestra, immettere i dettagli di configurazione del server RFC fare clic Apply.
Gruppi di server
Viene utilizzato per raggruppare tutti i server dei lavori associati allo stesso repository in un gruppo di server. Questa scheda viene utilizzata per il bilanciamento del carico durante l'esecuzione dei lavori nei servizi dati.
Quando un lavoro viene eseguito, verifica il server dei lavori corrispondente e, se è inattivo, sposta il lavoro su un altro server dei lavori nello stesso gruppo. Viene utilizzato principalmente nella produzione per il bilanciamento del carico.
Archivi di profili
Quando si collega il repository del profilo all'amministratore, è possibile espandere il nodo del repository del profilo. Puoi andare alla pagina di stato delle attività del profilo.
Nodo di gestione
Per utilizzare la funzionalità della scheda Amministratore, è necessario aggiungere connessioni ai Servizi dati utilizzando il nodo di gestione. Il nodo di gestione è costituito da diverse opzioni di configurazione per l'applicazione di amministrazione.
Cronologia dell'esecuzione del lavoro
Viene utilizzato per controllare la cronologia di esecuzione di un lavoro o un flusso di dati. Utilizzando questa opzione, è possibile controllare la cronologia di esecuzione di un lavoro batch o di tutti i lavori batch creati dall'utente.
Quando si seleziona un lavoro, le informazioni vengono visualizzate sotto forma di tabella, che consiste in nome del repository, nome del lavoro, ora di inizio, ora di fine, ora di esecuzione, stato, ecc.
Data Service Designer è uno strumento di sviluppo utilizzato per creare oggetti costituiti da mappatura, trasformazione e logica dei dati. È basato su GUI e funziona come designer per Data Services.
È possibile creare vari oggetti utilizzando Data Services Designer come progetti, lavori, flussi di lavoro, flussi di dati, mappatura, trasformazioni, ecc.
Per avviare Data Services Designer seguire i passaggi indicati di seguito.
Step 1 - Selezionare Start → Tutti i programmi → SAP Data Services 4.2 → Data Services Designer.
Step 2 - Seleziona il Repository e inserisci la password per accedere.
Dopo aver selezionato il repository e effettuato l'accesso a Data Services Designer, verrà visualizzata una schermata iniziale come mostrato nell'immagine sottostante.
Nel riquadro di sinistra, hai l'area del progetto, dove puoi creare un nuovo progetto, lavoro, flusso di dati, flusso di lavoro ecc. Nell'area del progetto, hai la libreria di oggetti locali, che consiste di tutti gli oggetti creati in Data Services.
Nel riquadro inferiore, puoi aprire gli oggetti esistenti andando a opzioni specifiche come Progetto, Lavori, Flusso di dati, Flusso di lavoro, ecc. Una volta selezionato uno qualsiasi degli oggetti dal riquadro inferiore, ti mostrerà già tutti gli oggetti simili creato nel repository sotto la libreria di oggetti locale.
Sul lato destro, hai una schermata iniziale, che può essere utilizzata per:
- Crea progetto
- Progetto aperto
- Crea archivi dati
- Crea archivi
- Importa da file flat
- Console di gestione dei servizi dati
Per sviluppare un flusso ETL, è prima necessario creare archivi dati per il sistema di origine e di destinazione. Segui i passaggi indicati per sviluppare un flusso ETL -
Step 1 - Fare clic su Create Data Stores.
Verrà aperta una nuova finestra.
Step 2 - Inserisci il file Datastore nome, Datastoretipo e tipo di database come mostrato di seguito. È possibile selezionare un database diverso come sistema di origine come mostrato nello screenshot qui sotto.
Step 3- Per utilizzare il sistema ECC come origine dati, selezionare Applicazioni SAP come tipo di archivio dati. Immettere nome utente e password e sul fileAdvance scheda, immettere il numero di sistema e il numero di client.
Step 4- Fare clic su OK e l'archivio dati verrà aggiunto all'elenco della libreria di oggetti locale. Se espandi Datastore, non mostra alcuna tabella.
Step 5 - Per estrarre una tabella dal sistema ECC da caricare sul sistema di destinazione, fare clic con il pulsante destro del mouse su Tabelle → Importa per nomi.
Step 6 - Immettere il nome della tabella e fare clic Import. Qui viene utilizzata Table – Mara, che è una tabella predefinita nel sistema ECC.
Step 7 - In modo simile, crea un file Datastoreper il sistema di destinazione. In questo esempio, HANA viene utilizzato come sistema di destinazione.
Dopo aver fatto clic su OK, questo Datastore verrà aggiunto alla libreria di oggetti locale e non ci sarà alcuna tabella al suo interno.
Crea un flusso ETL
Per creare un flusso ETL, crea un nuovo progetto.
Step 1 - Fare clic sull'opzione, Create Project. Immettere il nome del progetto e fare clic suCreate. Verrà aggiunto all'area del progetto.
Step 2 - Fare clic con il pulsante destro del mouse sul nome del progetto e creare un nuovo lavoro batch / lavoro in tempo reale.
Step 3- Immettere il nome del lavoro e premere Invio. Devi aggiungere Flusso di lavoro e Flusso di dati a questo. Seleziona un flusso di lavoro e fai clic sull'area di lavoro da aggiungere al lavoro. Immettere il nome del flusso di lavoro e fare doppio clic su di esso per aggiungerlo all'area Progetto.
Step 4- In modo simile, seleziona il Flusso di dati e portalo nell'area Progetto. Immettere il nome del flusso di dati e fare doppio clic per aggiungerlo nel nuovo progetto.
Step 5- Ora trascina la tabella di origine sotto il datastore nell'area di lavoro. Ora puoi trascinare la tabella di destinazione con un tipo di dati simile nell'area di lavoro oppure puoi creare una nuova tabella modello.
Per creare una nuova tabella modello, fare clic con il pulsante destro del mouse sulla tabella sorgente, Aggiungi nuovo → Tabella modelli.
Step 6- Immettere il nome della tabella e selezionare il Datastore dall'elenco come Datastore di destinazione. Il nome del proprietario rappresenta il nome dello schema in cui la tabella deve essere creata.
La tabella verrà aggiunta all'area di lavoro con questo nome di tabella.
Step 7- Trascina la linea dalla tabella di origine alla tabella di destinazione. Clicca ilSave All opzione in alto.
Ora è possibile pianificare il lavoro utilizzando Data Service Management Console oppure eseguirlo manualmente facendo clic con il pulsante destro del mouse sul nome del lavoro ed eseguirlo.
Gli archivi dati vengono utilizzati per impostare la connessione tra un'applicazione e il database. È possibile creare direttamente Datastore o può essere creato con l'aiuto di adattatori. Datastore consente a un'applicazione / software di leggere o scrivere metadati da un'applicazione o un database e di scrivere in tale database o applicazione.
In Business Objects Data Services, è possibile connettersi ai seguenti sistemi utilizzando Datastore:
- Sistemi mainframe e database
- Applicazioni e software con adattatori scritti dall'utente
- Applicazioni SAP, SAP BW, Oracle Apps, Siebel, ecc.
SAP Business Objects Data Services fornisce un'opzione per connettersi alle interfacce Mainframe utilizzando AttunityConnettore. UtilizzandoAttunity, collega il Datastore all'elenco di fonti fornito di seguito -
- DB2 UDB per OS / 390
- DB2 UDB per OS / 400
- IMS/DB
- VSAM
- Adabas
- File flat su OS / 390 e OS / 400
Utilizzando il connettore Attunity, è possibile connettersi ai dati del mainframe con l'aiuto di un software. Questo software deve essere installato manualmente sul server mainframe e sul job server client locale utilizzando un'interfaccia ODBC.
Immettere i dettagli come la posizione dell'host, la porta, l'area di lavoro di Attunity, ecc.
Crea archivio dati per un database
Per creare Datastore per un database seguire i passaggi indicati di seguito.
Step 1- Immettere il nome del datastore, il tipo di datastore e il tipo di database come mostrato nell'immagine di seguito. È possibile selezionare un database diverso come sistema di origine indicato nell'elenco.
Step 2- Per utilizzare il sistema ECC come origine dati, selezionare Applicazioni SAP come tipo di archivio dati. Immettere nome utente e password. Clicca ilAdvance scheda e immettere il numero di sistema e il numero di client.
Step 3- Fare clic su OK e l'archivio dati verrà aggiunto all'elenco della libreria di oggetti locale. Se espandi il Datastore, non ci sono tabelle da visualizzare.
In questo capitolo impareremo come modificare o cambiare il Datastore. Per cambiare o modificare il Datastore, seguire i passaggi indicati di seguito.
Step 1- Per modificare un datastore, fare clic con il tasto destro sul nome del datastore e fare clic su Modifica. Si aprirà l'editor di Datastore.
È possibile modificare le informazioni di connessione per la configurazione corrente di Datastore.
Step 2 - Fare clic su Advance e puoi modificare il numero del cliente, l'ID del sistema e altre proprietà.
Step 3 - Fare clic su Edit opzione per aggiungere, modificare ed eliminare le configurazioni.
Step 4 - Fare clic su OK e le modifiche verranno applicate.
È possibile creare un archivio dati utilizzando la memoria come tipo di database. I datastore di memoria vengono utilizzati per migliorare le prestazioni dei flussi di dati nei lavori in tempo reale poiché archivia i dati nella memoria per facilitare l'accesso rapido e non richiede di andare all'origine dati originale.
Un datastore di memoria viene utilizzato per memorizzare gli schemi delle tabelle di memoria nel repository. Queste tabelle di memoria ottengono i dati dalle tabelle nel database relazionale o utilizzando file di dati gerarchici come messaggi XML e IDoc. Le tabelle di memoria rimangono attive fino a quando il lavoro non viene eseguito ei dati nelle tabelle di memoria non possono essere condivisi tra diversi lavori in tempo reale.
Creazione di un archivio dati di memoria
Per creare Memory Datastore, seguire i passaggi indicati di seguito.
Step 1 - Fare clic su Crea archivio dati e immettere il nome dell'archivio dati “Memory_DS_TEST”. Le tabelle di memoria sono presentate con normali tabelle RDBMS e possono essere identificate con convenzioni di denominazione.
Step 2 - In Tipo di archivio dati, Seleziona database e nel tipo di database seleziona Memory. Fare clic su OK.
Step 3 - Ora vai su Progetto → Nuovo → Progetto come mostrato nella schermata riportata di seguito.
Step 4- Crea un nuovo lavoro facendo clic con il pulsante destro del mouse. Aggiungi flusso di lavoro e flusso di dati come mostrato di seguito.
Step 5- Seleziona una tabella modello e trascina e rilascia nell'area di lavoro. Si aprirà una finestra Crea tabella.
Step 6- Immettere il nome della tabella e in Datastore, selezionare Memory Datastore. Se desideri un ID riga generato dal sistema, seleziona il filecreate row idcasella di controllo. Fare clic su OK.
Step 7 - Collega questa tabella di memoria al flusso di dati e fai clic su Save All in cima.
Tabella di memoria come origine e destinazione
Per utilizzare una tabella di memoria come destinazione:
Step 1- Vai alla libreria di oggetti locale, fai clic sulla scheda Datastore. Espandi l'archivio dati di memoria → Espandi tabelle.
Step 2- Seleziona la tabella di memoria che desideri utilizzare come tabella di origine o di destinazione e trascinala nel flusso di lavoro. Connetti questa tabella di memoria a come origine o destinazione nel flusso di dati.
Step 3 - Fare clic su save pulsante per salvare il lavoro.
Esistono vari fornitori di database, che forniscono solo un percorso di comunicazione unidirezionale da un database a un altro database. Questi percorsi sono noti come collegamenti al database. In SQL Server, il server collegato consente il percorso di comunicazione unidirezionale da un database all'altro.
Esempio
Considera un server di database locale denominato “Product” memorizza il collegamento al database per accedere alle informazioni sul server di database remoto chiamato Customer. A questo punto, gli utenti che sono connessi al cliente del server database remoto non possono utilizzare lo stesso collegamento per accedere ai dati nel prodotto server database. Utenti collegati a“Customer” dovrebbe avere un collegamento separato nel dizionario dati del server per accedere ai dati nel server database del prodotto.
Questo percorso di comunicazione tra i due database è chiamato collegamento al database. Gli archivi dati, che vengono creati tra queste relazioni di database collegati, sono noti come archivi dati collegati.
Esiste la possibilità di connettere un Datastore a un altro Datastore e importare un collegamento a un database esterno come opzione di Datastore.
Adapter Datastore consente di importare i metadati dell'applicazione nel repository. È possibile accedere ai metadati dell'applicazione e spostare i dati batch e in tempo reale tra diverse applicazioni e software.
C'è un Adapter Software Development Kit - SDK fornito da SAP che può essere utilizzato per sviluppare adattatori personalizzati. Questi adattatori vengono visualizzati nella finestra di progettazione dei servizi dati da Adapter Datastore.
Per estrarre o caricare i dati utilizzando un adattatore, è necessario definire almeno un Datastore per questo scopo.
Datastore adattatore - Definizione
Per definire Adaptive Datastore segui i passaggi indicati:
Step 1 - Fare clic su Create Datastore→ Immettere il nome per Datastore. Seleziona Datastore Type come Adapter. Seleziona ilJob Server dall'elenco e Nome istanza adattatore e fare clic su OK.
Per sfogliare i metadati dell'applicazione
Fare clic con il tasto destro sul nome del Datastore e fare clic Open. Si aprirà una nuova finestra che mostra i metadati di origine. Fare clic sul segno + per controllare gli oggetti e fare clic con il pulsante destro del mouse sull'oggetto da importare.
Il formato di file è definito come un insieme di proprietà per presentare la struttura dei file flat. Definisce la struttura dei metadati. Il formato file viene utilizzato per connettersi al database di origine e di destinazione quando i dati vengono archiviati nei file e non nel database.
Il formato del file viene utilizzato per le seguenti funzioni:
- Crea un modello di formato file per definire la struttura di un file.
- Crea un formato di file di origine e di destinazione specifico nel flusso di dati.
I seguenti tipi di file possono essere utilizzati come file di origine o di destinazione utilizzando il formato file:
- Delimited
- SAP Transport
- Testo non strutturato
- Binario non strutturato
- Larghezza fissa
Editor formato file
File Format Editor viene utilizzato per impostare le proprietà per i modelli di formato file e per i formati file di origine e di destinazione.
Le seguenti modalità sono disponibili nell'editor del formato di file:
New mode - Ti consente di creare un nuovo modello di formato di file.
Edit mode - Ti consente di modificare un modello di formato di file esistente.
Source mode - Ti consente di modificare il formato del file di un particolare file sorgente.
Target mode - Consente di modificare il formato file di un particolare file di destinazione.
Ci sono tre aree di lavoro per l'Editor formato file:
Properties Values - Viene utilizzato per modificare i valori per le proprietà del formato file.
Column Attributes - Viene utilizzato per modificare e definire le colonne o i campi nel file.
Data Preview - Viene utilizzato per visualizzare come le impostazioni influenzano i dati del campione.
Creazione di un formato file
Per creare un formato file seguire i passaggi indicati di seguito.
Step 1 - Vai a Libreria oggetti locale → File flat.
Step 2 - Fare clic con il pulsante destro del mouse sull'opzione File flat → Nuovo.
Si aprirà una nuova finestra dell'Editor formato file.
Step 3- Seleziona il tipo di formato file. Immettere il nome che descrive il modello di formato file. Per i file a larghezza delimitata e fissa, è possibile leggere e caricare utilizzando il programma di trasferimento personalizzato. Immettere le altre proprietà per descrivere i file rappresentati da questo modello.
È inoltre possibile specificare la struttura delle colonne nell'area di lavoro degli attributi delle colonne per alcuni formati di file specifici. Una volta definite tutte le proprietà, fare clic suSave pulsante.
Modifica di un formato di file
Per modificare i formati di file, seguire i passaggi indicati di seguito.
Step 1 - In Local Object Library, vai al Format tab.
Step 2- Seleziona il formato di file che desideri modificare. Fare clic con il pulsante destro del mouse suEdit opzione.
Apporta le modifiche nell'editor del formato di file e fai clic su Save pulsante.
È possibile creare un formato di file copybook COBOL che rallenti la creazione del solo formato. È possibile configurare l'origine in un secondo momento dopo aver aggiunto il formato al flusso di dati.
È possibile creare il formato del file e collegarlo al file di dati allo stesso tempo. Segui i passaggi indicati di seguito.
Step 1 - Vai a Libreria oggetti locale → Formato file → Quaderni COBOL.
Step 2 - Fare clic con il pulsante destro del mouse su New opzione.
Step 3- Immettere il nome del formato. Vai alla scheda Formato → Seleziona il quaderno COBOL da importare. L'estensione del file è.cpy.
Step 4 - Fare clic su OK. Questo formato di file viene aggiunto alla libreria di oggetti locali. Viene visualizzata la finestra di dialogo Nome schema COBOL Copybook. Se necessario, rinominare lo schema e fare clic suOK.
Utilizzando i datastore del database, è possibile estrarre i dati da tabelle e funzioni nel database. Quando esegui l'importazione dei dati per i metadati,Tool consente di modificare i nomi delle colonne, i tipi di dati, la descrizione, ecc.
Puoi modificare i seguenti oggetti:
- Nome tabella
- Nome colonna
- Descrizione tabella
- Descrizione della colonna
- Tipo di dati della colonna
- Tipo di contenuto della colonna
- Attributi della tabella
- Chiave primaria
- Nome del proprietario
Importazione di metadati
Per importare i metadati, segui i passaggi indicati di seguito:
Step 1 - Vai alla Libreria oggetti locale → vai al Datastore che vuoi usare.
Step 2 - Fare clic con il pulsante destro del mouse su Datastore → Apri.
Nell'area di lavoro verranno visualizzati tutti gli elementi disponibili per l'importazione. Seleziona gli elementi per i quali desideri importare i metadati.
Nella libreria degli oggetti, vai al datastore per vedere l'elenco degli oggetti importati.
È possibile utilizzare la cartella di lavoro di Microsoft Excel come origine dati utilizzando i formati di file in Data Services. La cartella di lavoro di Excel dovrebbe essere disponibile sul file system Windows o sul file system Unix.
Sr.No. | Accesso e descrizione |
---|---|
1 | In the object library, click the Formats tab. Una cartella di lavoro di Excel formale descrive la struttura definita in una cartella di lavoro di Excel (indicata con un'estensione .xls). I modelli di formato per gli intervalli di dati di Excel vengono archiviati nella libreria di oggetti. Utilizzare il modello per definire il formato di una particolare origine in un flusso di dati. SAP Data Services accede alle cartelle di lavoro di Excel solo come origine (non come destinazioni). |
Fare clic con il pulsante destro del mouse su New opzione e selezionare Excel Workbook come mostrato nello screenshot qui sotto.
Estrazione dati da XML FILE DTD, XSD
È inoltre possibile importare il formato di file dello schema XML o DTD.
Step 1 - Vai a Libreria oggetti locale → scheda Formato → Schema annidato.
Step 2 - Indica New(È possibile selezionare il file DTD o lo schema XML o il formato di file JSON). Immettere il nome del formato file e selezionare il file che si desidera importare. Fare clic su OK.
Estrazione dei dati dai quaderni COBOL
Puoi anche importare il formato di file nei quaderni COBOL. Vai a Libreria oggetti locale → Formato → Quaderni COBOL.
Il flusso di dati viene utilizzato per estrarre, trasformare e caricare i dati dall'origine al sistema di destinazione. Tutte le trasformazioni, il caricamento e la formattazione avvengono nel flusso di dati.
Una volta definito un flusso di dati in un progetto, questo può essere aggiunto a un flusso di lavoro oa un lavoro ETL. Il flusso di dati può inviare o ricevere oggetti / informazioni utilizzando i parametri. Il flusso di dati è denominato in formatoDF_Name.
Esempio di flusso di dati
Supponiamo di voler caricare una tabella dei fatti nel sistema DW con i dati di due tabelle nel sistema di origine.
Il flusso di dati contiene i seguenti oggetti:
- Due tabelle di origine
- Join tra due tabelle e definito in Query Transform
- Tabella di destinazione
Esistono tre tipi di oggetti che possono essere aggiunti a un flusso di dati. Sono -
- Source
- Target
- Transforms
Step 1 - Vai alla Libreria oggetti locale e trascina entrambe le tabelle nello spazio di lavoro.
Step 2 - Per aggiungere una trasformazione della query, trascina dalla barra degli strumenti di destra.
Step 3 - Unisci entrambe le tabelle e crea una tabella di destinazione modello facendo clic con il pulsante destro del mouse sulla casella Query → Aggiungi nuovo → Nuova tabella modello.
Step 4 - Immettere il nome della tabella di destinazione, il nome dell'archivio dati e il proprietario (nome dello schema) con cui creare la tabella.
Step 5 - Trascina la tabella di destinazione davanti e uniscila alla trasformazione Query.
Passaggio di parametri
È inoltre possibile passare diversi parametri all'interno e all'esterno del flusso di dati. Durante il passaggio di un parametro a un flusso di dati, gli oggetti nel flusso di dati fanno riferimento a tali parametri. Utilizzando i parametri, è possibile passare diverse operazioni a un flusso di dati.
Esempio: si supponga di aver immesso un parametro in una tabella sull'ultimo aggiornamento. Ti permette di estrarre solo le righe modificate dall'ultimo aggiornamento.
È possibile modificare le proprietà di un flusso di dati come Esegui una volta, tipo di cache, collegamento al database, parallelismo, ecc.
Step 1 - Per modificare le proprietà del flusso di dati, fare clic con il pulsante destro del mouse su Flusso di dati → Proprietà
È possibile impostare varie proprietà per un flusso di dati. Le proprietà sono riportate di seguito.
Sr. No. | Proprietà e descrizione |
---|---|
1 | Execute only once Quando si specifica che un flusso di dati deve essere eseguito solo una volta, un lavoro batch non verrà mai rieseguito quel flusso di dati dopo che il flusso di dati è stato completato correttamente, tranne se il flusso di dati è contenuto in un flusso di lavoro che è un'unità di ripristino che viene rieseguita e non è stato completato correttamente altrove al di fuori dell'unità di ripristino. Si consiglia di non contrassegnare un flusso di dati come Esegui solo una volta se un flusso di lavoro principale è un'unità di ripristino. |
2 | Use database links I collegamenti al database sono percorsi di comunicazione tra un server database e un altro. I collegamenti al database consentono agli utenti locali di accedere ai dati su un database remoto, che può essere sul computer locale o remoto dello stesso tipo di database o diverso. |
3 | Degree of parallelism Il grado di parallelismo (DOP) è una proprietà di un flusso di dati che definisce quante volte ciascuna trasformazione all'interno di un flusso di dati viene replicata per elaborare un sottoinsieme parallelo di dati. |
4 | Cache type È possibile memorizzare nella cache i dati per migliorare le prestazioni di operazioni quali join, gruppi, ordinamenti, filtri, ricerche e confronti tra tabelle. È possibile selezionare uno dei seguenti valori per l'opzione Tipo di cache nella finestra Proprietà del flusso di dati:
|
Step 2 - Modificare le proprietà come Esegui solo una volta, Grado di parallelismo e tipi di cache.
Oggetti di origine e di destinazione
Un flusso di dati può estrarre o caricare direttamente i dati utilizzando i seguenti oggetti:
Source objects - Gli oggetti di origine definiscono la fonte da cui vengono estratti i dati o da cui vengono letti i dati.
Target objects - Oggetti di destinazione definisce la destinazione in cui caricare o scrivere i dati.
È possibile utilizzare il seguente tipo di oggetto di origine e diversi metodi di accesso per gli oggetti di origine.
tavolo | Un file formattato con colonne e righe come utilizzato nei database relazionali | Diretto o tramite adattatore |
Tabella dei modelli | Una tabella modello che è stata creata e salvata in un altro flusso di dati (utilizzato nello sviluppo) | Diretto |
File | Un file flat a larghezza fissa o delimitato | Diretto |
Documento | Un file con un formato specifico dell'applicazione (non leggibile da parser SQL o XML) | Tramite adattatore |
File XML | Un file formattato con tag XML | Diretto |
Messaggio XML | Utilizzato come fonte nei lavori in tempo reale | Diretto |
È possibile utilizzare i seguenti oggetti Target e applicare un metodo di accesso diverso.
tavolo | Un file formattato con colonne e righe come utilizzato nei database relazionali | Diretto o tramite adattatore |
Tabella dei modelli | Una tabella il cui formato è basato sull'output della trasformazione precedente (usata nello sviluppo) | Diretto |
File | Un file flat a larghezza fissa o delimitato | Diretto |
Documento | Un file con un formato specifico dell'applicazione (non leggibile da parser SQL o XML) | Tramite adattatore |
File XML | Un file formattato con tag XML | Diretto |
File modello XML | Un file XML il cui formato è basato sull'output della trasformazione precedente (utilizzato nello sviluppo, principalmente per il debug dei flussi di dati) | Diretto |
I flussi di lavoro vengono utilizzati per determinare il processo di esecuzione. Lo scopo principale del flusso di lavoro è prepararsi all'esecuzione dei flussi di dati e impostare lo stato del sistema, una volta completata l'esecuzione del flusso di dati.
I lavori batch nei progetti ETL sono simili ai flussi di lavoro con l'unica differenza che il lavoro non ha parametri.
Vari oggetti possono essere aggiunti a un flusso di lavoro. Sono -
- Flusso di lavoro
- Flusso di dati
- Scripts
- Loops
- Conditions
- Prova o cattura i blocchi
È anche possibile fare in modo che un flusso di lavoro chiami un altro flusso di lavoro oppure un flusso di lavoro possa chiamare se stesso.
Note - Nel flusso di lavoro, i passaggi vengono eseguiti in una sequenza da sinistra a destra.
Esempio di flusso di lavoro
Supponiamo che ci sia una tabella dei fatti che desideri aggiornare e che tu abbia creato un flusso di dati con la trasformazione. Ora, se vuoi spostare i dati dal sistema di origine, devi controllare l'ultima modifica per la tabella dei fatti in modo da estrarre solo le righe che vengono aggiunte dopo l'ultimo aggiornamento.
Per ottenere ciò, è necessario creare uno script, che determina la data dell'ultimo aggiornamento e quindi passarlo come parametro di input al flusso di dati.
È inoltre necessario verificare se la connessione dati a una particolare tabella dei fatti è attiva o meno. Se non è attivo, è necessario impostare un blocco di cattura, che invia automaticamente un'e-mail all'amministratore per notificare questo problema.
I flussi di lavoro possono essere creati utilizzando i seguenti metodi:
- Libreria oggetti
- Tavolozza degli strumenti
Creazione di un flusso di lavoro utilizzando la libreria di oggetti
Per creare un flusso di lavoro utilizzando Object Library, seguire i passaggi indicati di seguito.
Step 1 - Vai alla Libreria oggetti → scheda Flusso di lavoro.
Step 2 - Fare clic con il pulsante destro del mouse su New opzione.
Step 3 - Immettere il nome del flusso di lavoro.
Creazione di un flusso di lavoro utilizzando la tavolozza degli strumenti
Per creare un flusso di lavoro utilizzando la tavolozza degli strumenti, fare clic sull'icona sul lato destro e trascinare il flusso di lavoro nell'area di lavoro.
È anche possibile impostare l'esecuzione del flusso di lavoro una sola volta andando alle proprietà del flusso di lavoro.
Condizionali
È inoltre possibile aggiungere condizionali al flusso di lavoro. Ciò consente di implementare la logica If / Else / Then sui flussi di lavoro.
Sr.No. | Condizionale e descrizione |
---|---|
1 | If Un'espressione booleana che restituisce TRUE o FALSE. È possibile utilizzare funzioni, variabili e operatori standard per costruire l'espressione. |
2 | Then Elementi del flusso di lavoro da eseguire se il file If l'espressione restituisce TRUE. |
3 | Else (Facoltativo) Elementi del flusso di lavoro da eseguire se il file If espressione restituisce FALSE. |
Per definire un condizionale
Step 1 - Vai a Flusso di lavoro → Fare clic sull'icona Condizionale nella tavolozza degli strumenti sul lato destro.
Step 2 - Fare doppio clic sul nome di Conditional per aprire il file If-Then–Else editor condizionale.
Step 3- Immettere l'espressione booleana che controlla il condizionale. Fare clic su OK.
Step 4 - Trascina il flusso di dati che desideri eseguire Then and Else finestra secondo l'espressione in condizione IF.
Dopo aver completato la condizione, è possibile eseguire il debug e convalidare il condizionale.
Le trasformazioni vengono utilizzate per manipolare i set di dati come input e creare uno o più output. Sono disponibili varie trasformazioni che possono essere utilizzate in Data Services. Il tipo di trasformazioni dipende dalla versione e dal prodotto acquistato.
Sono disponibili i seguenti tipi di trasformazioni:
Integrazione dei dati
Le trasformazioni di Data Integration vengono utilizzate per l'estrazione, la trasformazione e il caricamento dei dati nel sistema DW. Assicura l'integrità dei dati e migliora la produttività degli sviluppatori.
- Data_Generator
- Data_Transfer
- Effective_Date
- Hierarchy_flattening
- Table_Comparision, ecc.
Qualità dei dati
Le trasformazioni della qualità dei dati vengono utilizzate per migliorare la qualità dei dati. È possibile applicare set di dati analizzati, corretti, standardizzati e arricchiti dal sistema di origine.
- Associate
- Pulizia dei dati
- Walk Sequencer DSF2, ecc.
piattaforma
La piattaforma viene utilizzata per lo spostamento del set di dati. Usando questo puoi generare, mappare e unire righe da due o più origini dati.
- Case
- Merge
- Query, ecc.
Elaborazione dati di testo
L'elaborazione dei dati di testo consente di elaborare grandi volumi di dati di testo.
In questo capitolo vedrai come aggiungere Transform a un flusso di dati.
Step 1 - Vai a Libreria oggetti → scheda Trasforma.
Step 2- Seleziona la trasformazione che desideri aggiungere al flusso di dati. Se aggiungi una trasformazione che ha l'opzione per selezionare la configurazione, si aprirà un prompt.
Step 3 - Disegna la connessione del flusso di dati per connettere l'origine a una trasformazione.
Step 4 - Fare doppio clic sul nome della trasformazione per aprire l'editor della trasformazione.
Una volta completata la definizione, fare clic su OK per chiudere l'editor.
Questa è la trasformazione più comune utilizzata in Data Services ed è possibile eseguire le seguenti funzioni:
- Filtraggio dei dati dalle fonti
- Unione di dati da più origini
- Eseguire funzioni e trasformazioni sui dati
- Mappatura delle colonne dagli schemi di input a quelli di output
- Assegnazione di chiavi primarie
- Aggiungere nuove colonne, schemi e funzioni risultanti agli schemi di output
Poiché la trasformazione della query è la trasformazione più comunemente utilizzata, viene fornito un collegamento per questa query nella tavolozza degli strumenti.
Per aggiungere la trasformazione della query, seguire i passaggi indicati di seguito:
Step 1- Fare clic sulla tavolozza degli strumenti di trasformazione delle query. Fare clic in un punto qualsiasi dell'area di lavoro del flusso di dati. Collegalo agli ingressi e alle uscite.
Quando si fa doppio clic sull'icona Trasformazione query, viene aperto un editor di query utilizzato per eseguire operazioni di query.
Le seguenti aree sono presenti in Query Transform:
- Schema di input
- Schema di output
- Parameters
Gli schemi di input e output contengono colonne, schemi nidificati e funzioni. Schema In e Schema Out mostrano lo schema attualmente selezionato in trasformazione.
Per modificare lo schema di output, selezionare lo schema nell'elenco, fare clic con il tasto destro e selezionare Rendi corrente.
Trasformazione della qualità dei dati
Le trasformazioni della qualità dei dati non possono essere collegate direttamente alla trasformazione a monte, che contiene tabelle nidificate. Per connettere queste trasformazioni è necessario aggiungere una trasformazione della query o una trasformazione della pipeline XML tra la trasformazione dalla tabella nidificata e la trasformazione della qualità dei dati.
Come utilizzare la trasformazione della qualità dei dati?
Step 1 - Vai a Libreria oggetti → scheda Trasforma
Step 2 - Espandi la trasformazione della qualità dei dati e aggiungi la trasformazione o la configurazione della trasformazione che desideri aggiungere al flusso di dati.
Step 3- Disegna le connessioni del flusso di dati. Fare doppio clic sul nome della trasformazione, si apre l'editor della trasformazione. Nello schema di input selezionare i campi di input che si desidera mappare.
Note - Per utilizzare Associate Transform, è possibile aggiungere campi definiti dall'utente alla scheda di input.
Trasformazione di elaborazione dati di testo
La trasformazione dell'elaborazione dei dati di testo consente di estrarre le informazioni specifiche da un grande volume di testo. Puoi cercare fatti ed entità come clienti, prodotti e fatti finanziari, specifici di un'organizzazione.
Questa trasformazione controlla anche la relazione tra le entità e consente l'estrazione. I dati estratti, utilizzando l'elaborazione dei dati di testo, possono essere utilizzati in Business Intelligence, Reporting, query e analisi.
Trasformazione di estrazione di entità
In Data Services, l'elaborazione dei dati di testo viene eseguita con l'aiuto di Entity Extraction, che estrae entità e fatti da dati non strutturati.
Ciò comporta l'analisi e l'elaborazione di grandi volumi di dati di testo, la ricerca di entità, l'assegnazione di un tipo appropriato e la presentazione di metadati in formato standard.
La trasformazione Entity Extraction può estrarre informazioni da qualsiasi contenuto di testo, HTML, XML o alcuni formati binari (come PDF) e generare output strutturato. È possibile utilizzare l'output in diversi modi in base al flusso di lavoro. È possibile utilizzarlo come input per un'altra trasformazione o scrivere su più origini di output come una tabella di database o un file flat. L'output viene generato nella codifica UTF-16.
Entity Extract Transform can be used in the following scenarios −
Trovare informazioni specifiche da una grande quantità di volume di testo.
Trovare informazioni strutturate da testo non strutturato con informazioni esistenti per creare nuove connessioni.
Reportistica e analisi per la qualità del prodotto.
Differenze tra TDP e Data Cleansing
L'elaborazione dei dati di testo viene utilizzata per trovare informazioni rilevanti da dati di testo non strutturati. Tuttavia, la pulizia dei dati viene utilizzata per la standardizzazione e la pulizia dei dati strutturati.
Parametri | Elaborazione dati di testo | Pulizia dei dati |
---|---|---|
Tipo di ingresso | Dati non strutturati | Dati strutturati |
Dimensioni input | Più di 5 KB | Meno di 5 KB |
Ambito di input | Ampio dominio con molte varianti | Variazioni limitate |
Potenziale utilizzo | Potenziali informazioni significative da dati non strutturati | Qualità dei dati per l'archiviazione nel repository |
Produzione | Crea annotazioni sotto forma di entità, tipo, ecc. L'input non viene modificato | Crea campi standardizzati, l'Input è cambiato |
L'amministrazione di Data Services include la creazione di processi batch e in tempo reale, la pianificazione di processi, il flusso di dati incorporato, variabili e parametri, meccanismo di ripristino, profilazione dei dati, ottimizzazione delle prestazioni, ecc.
Lavori in tempo reale
È possibile creare processi in tempo reale per elaborare messaggi in tempo reale in Data Services Designer. Come un lavoro batch, il lavoro in tempo reale estrae i dati, li trasforma e li carica.
Ogni lavoro in tempo reale può estrarre dati da un singolo messaggio. Puoi anche estrarre dati da altre fonti come tabelle o file.
I lavori in tempo reale non vengono eseguiti con l'aiuto di trigger a differenza dei lavori batch. Vengono eseguiti come servizi in tempo reale dagli amministratori. I servizi in tempo reale attendono i messaggi dal server di accesso. Il server di accesso riceve questo messaggio e lo passa ai servizi in tempo reale, che sono configurati per elaborare il tipo di messaggio. I servizi in tempo reale eseguono il messaggio e restituiscono il risultato e continuano a elaborare i messaggi finché non ricevono un'istruzione per interrompere l'esecuzione.
Lavori in tempo reale vs batch
Trasformazioni come i rami e la logica di controllo vengono utilizzate più spesso nei lavori in tempo reale, il che non è il caso dei lavori batch in Designer.
I lavori in tempo reale non vengono eseguiti in risposta a una pianificazione oa un trigger interno a differenza dei lavori batch.
Creazione di lavori in tempo reale
I lavori in tempo reale possono essere creati utilizzando gli stessi oggetti come flussi di dati, flussi di lavoro, loop, condizionali, script, ecc.
È possibile utilizzare i seguenti modelli di dati per creare lavori in tempo reale:
- Modello di flusso di dati singolo
- Modello di flusso di dati multiplo
Modello di flusso di dati singolo
È possibile creare un lavoro in tempo reale con un singolo flusso di dati nel suo ciclo di elaborazione in tempo reale e include un'unica origine messaggio e un'unica destinazione messaggio.
Creating Real Time job using single data model −
Per creare un lavoro in tempo reale utilizzando un singolo modello di dati, seguire i passaggi indicati.
Step 1 - Vai a Data Services Designer → Nuovo progetto → Progetto → Inserisci il nome del progetto
Step 2 - Fare clic con il pulsante destro del mouse sullo spazio bianco nell'area del progetto → Nuovo lavoro in tempo reale.
L'area di lavoro mostra due componenti del lavoro in tempo reale:
- RT_Process_begins
- Step_ends
Mostra l'inizio e la fine del lavoro in tempo reale.
Step 3 - Per creare un lavoro in tempo reale con un singolo flusso di dati, selezionare il flusso di dati dalla tavolozza degli strumenti nel riquadro di destra e trascinarlo nell'area di lavoro.
Fare clic all'interno del ciclo, è possibile utilizzare un'origine del messaggio e una destinazione del messaggio nel ciclo di elaborazione in tempo reale. Collegare i segni di inizio e di fine al flusso di dati.
Step 4 - Aggiungere oggetti di configurazione nel flusso di dati come richiesto e salvare il lavoro.
Modello di flusso di dati multiplo
Ciò consente di creare un lavoro in tempo reale con più flussi di dati nel suo ciclo di elaborazione in tempo reale. È inoltre necessario assicurarsi che i dati in ogni modello di dati siano completamente elaborati prima di passare al messaggio successivo.
Testare i lavori in tempo reale
È possibile testare il lavoro in tempo reale passando il messaggio di esempio come messaggio di origine dal file. È possibile verificare se i servizi dati generano il messaggio di destinazione previsto.
Per assicurarti che il tuo lavoro ti dia il risultato atteso, puoi eseguire il lavoro in modalità di visualizzazione dei dati. Utilizzando questa modalità, puoi acquisire i dati di output per assicurarti che il tuo lavoro in tempo reale funzioni correttamente.
Flussi di dati incorporati
Il flusso di dati incorporato è noto come flussi di dati, che vengono richiamati da un altro flusso di dati nella progettazione. Il flusso di dati incorporato può contenere più numeri di origini e destinazioni, ma solo un input o un output passa i dati al flusso di dati principale.
È possibile utilizzare i seguenti tipi di flussi di dati incorporati:
One Input - Il flusso di dati incorporato viene aggiunto alla fine del flusso di dati.
One Output - Il flusso di dati incorporato viene aggiunto all'inizio di un flusso di dati.
No input or output - Replicare un flusso di dati esistente.
Il flusso di dati incorporato può essere utilizzato per il seguente scopo:
Per semplificare la visualizzazione del flusso di dati.
Se vuoi salvare la logica del flusso e riutilizzarla in altri flussi di dati.
Per il debug, in cui creare sezioni di flusso di dati come flusso di dati incorporato ed eseguirle separatamente.
È possibile selezionare un oggetto nel flusso di dati esistente. Esistono due modi in cui è possibile creare il flusso di dati incorporato.
opzione 1
Fare clic con il pulsante destro del mouse sull'oggetto e selezionare per renderlo flusso di dati incorporati.
opzione 2
Trascina il flusso di dati completo e di convalida dalla libreria degli oggetti in un flusso di dati aperto nello spazio di lavoro. Quindi, apri il flusso di dati che è stato creato. Selezionare l'oggetto che si desidera utilizzare come porta di input e output e fare clicmake port per quell'oggetto.
Data Services aggiunge quell'oggetto come punto di connessione per il flusso di dati incorporato.
Variabili e parametri
È possibile utilizzare variabili locali e globali con flusso di dati e flusso di lavoro, che forniscono maggiore flessibilità nella progettazione dei lavori.
Le caratteristiche principali sono:
Il tipo di dati di una variabile può essere un numero, un numero intero, un decimale, una data o una stringa di testo come un carattere.
Le variabili possono essere utilizzate nei flussi di dati e nei flussi di lavoro come funzione nel file Where clausola.
Le variabili locali nei servizi di dati sono limitate all'oggetto in cui vengono create.
Le variabili globali sono limitate ai lavori in cui vengono create. Utilizzando le variabili globali, è possibile modificare i valori per le variabili globali predefinite in fase di esecuzione.
Le espressioni utilizzate nel flusso di lavoro e nel flusso di dati sono note come parameters.
Tutte le variabili e parametri nel flusso di lavoro e flussi di dati sono visualizzati nella finestra variabili e parametri.
Per visualizzare variabili e parametri, seguire i passaggi indicati di seguito:
Vai a Strumenti → Variabili.
Una nuova finestra Variables and parametersÈ visualizzato. Ha due schede: Definizioni e Chiamate.
Il DefinitionsLa scheda consente di creare e visualizzare variabili e parametri. È possibile utilizzare variabili e parametri locali a livello di flusso di lavoro e flusso di dati. Le variabili globali possono essere utilizzate a livello di lavoro.
Lavoro |
Variabili locali Variabili globali |
Uno script o un condizionale nel lavoro Qualsiasi oggetto nel lavoro |
Flusso di lavoro |
Variabili locali Parametri |
Questo flusso di lavoro o trasmesso ad altri flussi di lavoro o flussi di dati utilizzando un parametro. Oggetti padre per passare variabili locali. I flussi di lavoro possono anche restituire variabili o parametri agli oggetti padre. |
Flusso di dati |
Parametri |
Una clausola WHERE, un'associazione di colonne o una funzione nel flusso di dati. Flusso di dati. I flussi di dati non possono restituire valori di output. |
Nella scheda della chiamata, è possibile vedere il nome del parametro definito per tutti gli oggetti nella definizione di un oggetto padre.
Definizione di variabile locale
Per definire la variabile locale, aprire il lavoro in tempo reale.
Step 1- Vai su Strumenti → Variabili. Un nuovoVariables and Parameters la finestra si aprirà.
Step 2 - Vai a Variabile → Fare clic con il tasto destro → Inserisci
Creerà un nuovo parametro $NewVariable0.
Step 3- Immettere il nome della nuova variabile. Seleziona il tipo di dati dall'elenco.
Una volta definito, chiudi la finestra. In modo simile, è possibile definire i parametri per il flusso di dati e il flusso di lavoro.
Nel caso in cui il lavoro non venga eseguito correttamente, è necessario correggere l'errore e rieseguire il lavoro. In caso di lavori falliti, c'è la possibilità che alcune tabelle siano state caricate, alterate o parzialmente caricate. È necessario rieseguire il lavoro per ottenere tutti i dati e rimuovere eventuali dati duplicati o mancanti.
Due tecniche che possono essere utilizzate per il recupero sono le seguenti:
Automatic Recovery - Ciò consente di eseguire lavori non riusciti in modalità di ripristino.
Manually Recovery - Ciò consente di rieseguire i lavori senza considerare la ripetizione parziale della volta precedente.
To run a job with Recovery option enabled in Designer
Step 1 - Fare clic con il pulsante destro del mouse sul nome del lavoro → Esegui.
Step 2 - Salva tutte le modifiche ed esegui → Sì.
Step 3- Vai alla scheda Esecuzione → Abilita recupero casella di controllo. Se questa casella non è selezionata, i servizi dati non recupereranno il lavoro, se fallisce.
To run a job in Recovery mode from Designer
Step 1- Fare clic con il tasto destro ed eseguire il lavoro come sopra. Salvare le modifiche.
Step 2- Vai alle opzioni di esecuzione. Devi assicurarti che l'opzioneRecover from last failed execution la casella è selezionata.
Note- Questa opzione non è abilitata, se un lavoro non è ancora stato eseguito. Questo è noto come ripristino automatico di un lavoro non riuscito.
Data Services Designer fornisce una funzionalità di profilazione dei dati per garantire e migliorare la qualità e la struttura dei dati di origine.
Data Profiler ti consente di:
Trova anomalie nei dati di origine, convalida e azioni correttive e qualità dei dati di origine.
Definire la struttura e la relazione dei dati di origine per una migliore esecuzione di lavori, flussi di lavoro e flussi di dati.
Trova il contenuto del sistema di origine e di destinazione per determinare che il tuo lavoro restituisce un risultato atteso.
Data Profiler fornisce le seguenti informazioni sull'esecuzione del server Profiler:
Analisi delle colonne
Basic Profiling - Include informazioni come min, max, avg, ecc.
Detailed Profiling - Include informazioni come conteggio distinto, percentuale distinta, mediana, ecc.
Analisi delle relazioni
Anomalie dei dati tra due colonne per le quali si definisce una relazione.
La funzione di profilazione dei dati può essere utilizzata sui dati dalle seguenti fonti di dati:
- server SQL
- Oracle
- DB2
- Attunity Connector
- Sybase IQ
- Teradata
Connessione al server Profiler
Per connettersi a un Profile Server:
Step 1 - Vai su Strumenti → Accesso al server Profiler
Step 2 - Immettere i dettagli come sistema, nome utente, password e autenticazione.
Step 3 - Fare clic su Log on pulsante.
Quando sei connesso, verrà visualizzato un elenco di repository di profiler. SelezionareRepository e fare clic Connect.
Le prestazioni di un lavoro ETL dipendono dal sistema su cui si utilizza il software Data Services, dal numero di spostamenti, ecc.
Esistono vari altri fattori che contribuiscono alle prestazioni in un'attività ETL. Sono -
Source Data Base - Il database di origine deve essere impostato per eseguire il Selectdichiarazioni rapidamente. Questo può essere fatto aumentando la dimensione dell'I / O del database, aumentando la dimensione del buffer condiviso per memorizzare nella cache più dati e non consentendo il parallelismo per tabelle piccole, ecc.
Source Operating System- Il sistema operativo di origine deve essere configurato per leggere rapidamente i dati dai dischi. Imposta il protocollo di lettura anticipata su 64 KB.
Target Database - Il database di destinazione deve essere configurato per funzionare INSERT e UPDATEvelocemente. Questo può essere fatto:
- Disattivazione della registrazione dell'archivio.
- Disattivazione della registrazione Redo per tutte le tabelle.
- Massimizzare le dimensioni del buffer condiviso.
Target Operating System- Il sistema operativo di destinazione deve essere configurato per scrivere rapidamente i dati sui dischi. È possibile attivare l'I / O asincrono per rendere le operazioni di input / output più veloci possibile.
Network - La larghezza di banda della rete dovrebbe essere sufficiente per trasferire i dati dall'origine al sistema di destinazione.
BODS Repository Database - Per migliorare le prestazioni dei lavori BODS, è possibile eseguire quanto segue:
Monitor Sample Rate - Nel caso in cui si stia elaborando una grande quantità di set di dati in un lavoro ETL, monitorare la frequenza di campionamento su un valore più alto per ridurre il numero di chiamate I / O al file di registro migliorando così le prestazioni.
È inoltre possibile escludere i registri di Data Services dalla scansione antivirus se la scansione antivirus è configurata sul job server poiché può causare un degrado delle prestazioni
Job Server OS - In Data Services, un flusso di dati in un lavoro ne avvia uno ‘al_engine’processo, che avvia quattro thread. Per le massime prestazioni, considera un progetto che ne esegua uno‘al_engine’processo per CPU alla volta. Il sistema operativo di Job Server dovrebbe essere ottimizzato in modo tale che tutti i thread siano distribuiti a tutte le CPU disponibili.
SAP BO Data Services supporta lo sviluppo multiutente in cui ogni utente può lavorare su un'applicazione nel proprio repository locale. Ogni team utilizza il repository centrale per salvare la copia principale di un'applicazione e tutte le versioni degli oggetti nell'applicazione.
Le caratteristiche principali sono:
In SAP Data Services è possibile creare un repository centrale per l'archiviazione della copia del team di un'applicazione. Contiene tutte le informazioni disponibili anche nel repository locale. Tuttavia, fornisce solo una posizione di archiviazione per le informazioni sull'oggetto. Per apportare modifiche, dovresti lavorare nel repository locale.
È possibile copiare oggetti dal repository centrale al repository locale. Tuttavia, se è necessario apportare modifiche, è necessario controllare quell'oggetto nel repository centrale. Per questo motivo, gli altri utenti non possono estrarre quell'oggetto nel repository centrale e quindi non possono apportare modifiche allo stesso oggetto.
Dopo aver apportato le modifiche all'oggetto, è necessario eseguire il check-in per l'oggetto. Consente a Data Services di salvare il nuovo oggetto modificato nel repository centrale.
I servizi dati consentono a più utenti con archivi locali di connettersi contemporaneamente all'archivio centrale, ma solo un utente può effettuare il check-out e apportare modifiche a un oggetto specifico.
Il repository centrale conserva anche la cronologia di ogni oggetto. Consente di ripristinare la versione precedente di un oggetto, se le modifiche non risultano come richiesto.
Più utenti
SAP BO Data Services consente a più utenti di lavorare contemporaneamente sulla stessa applicazione. I seguenti termini dovrebbero essere considerati in un ambiente multiutente:
Sr.No. | Multiutente e descrizione |
---|---|
1 | Highest level object L'oggetto di livello più alto è l'oggetto che non dipende da alcun oggetto nella gerarchia degli oggetti. Ad esempio, se Job 1 è composto da Work Flow 1 e Data Flow 1, allora Job 1 è l'oggetto di livello più alto. |
2 | Object dependents Gli oggetti dipendenti sono oggetti associati al di sotto dell'oggetto di livello più alto nella gerarchia. Ad esempio, se il lavoro 1 è composto dal flusso di lavoro 1 che contiene il flusso di dati 1, sia il flusso di lavoro 1 che il flusso di dati 1 dipendono dal lavoro 1. Inoltre, il flusso di dati 1 è dipendente dal flusso di lavoro 1. |
3 | Object version Una versione oggetto è un'istanza di un oggetto. Ogni volta che si aggiunge o si archivia un oggetto nell'archivio centrale, il software crea una nuova versione dell'oggetto. L'ultima versione di un oggetto è l'ultima o la più recente versione creata. |
Per aggiornare il repository locale in un ambiente multiutente, è possibile ottenere l'ultima copia di ogni oggetto dal repository centrale. Per modificare un oggetto, è possibile utilizzare le opzioni di check out e check in.
Esistono vari parametri di sicurezza che possono essere applicati a un repository centrale per renderlo sicuro.
Vari parametri di sicurezza sono:
Authentication - Ciò consente solo agli utenti autentici di accedere al repository centrale.
Authorization - Ciò consente all'utente di assegnare diversi livelli di autorizzazioni per ogni oggetto.
Auditing- Viene utilizzato per mantenere la cronologia di tutte le modifiche apportate a un oggetto. Puoi controllare tutte le versioni precedenti e ripristinare le versioni precedenti.
Creazione di un archivio centrale non protetto
In un ambiente di sviluppo multiutente, è sempre consigliabile lavorare con il metodo del repository centrale.
Per creare un repository centrale non protetto, seguire i passaggi indicati:
Step 1 - Creare un database, utilizzando il sistema di gestione del database, che fungerà da repository centrale.
Step 2 - Vai a un gestore di repository.
Step 3- Seleziona il tipo di Repository come Centrale. Immettere i dettagli del database come nome utente e password e fare clic suCreate.
Step 4 - Per definire una connessione al Repository centrale, Tools → Central Repository.
Step 5 - Seleziona il repository nella connessione Repository centrale e fai clic su Add icona.
Step 6 - Immettere la password per il repository centrale e fare clic su Activate pulsante.
Creazione di un archivio centrale sicuro
Per creare un repository centrale sicuro, vai a Repository Manager. Seleziona il Tipo di archivio come Centrale. Clicca ilEnable Security Casella di controllo.
Per uno sviluppo di successo in ambiente multiutente, è consigliabile implementare alcuni processi come il check in e il check out.
È possibile utilizzare i seguenti processi in un ambiente multiutente:
- Filtering
- Controllo degli oggetti
- Annullamento dell'estrazione
- Archiviazione di oggetti
- Etichettatura di oggetti
Il filtro è applicabile quando si aggiungono oggetti, si effettua il check-in, il check-out e si etichettano oggetti nel repository centrale.
Migrazione di lavori multiutente
In SAP Data Services, la migrazione del lavoro può essere applicata a diversi livelli, ad esempio Livello applicazione, Livello repository, Livello aggiornamento.
Non è possibile copiare il contenuto di un archivio centrale direttamente su un altro archivio centrale; è necessario utilizzare il repository locale.
Il primo passo è ottenere l'ultima versione di tutti gli oggetti dal repository centrale al repository locale. Attiva il repository centrale in cui desideri copiare i contenuti. Aggiungi tutti gli oggetti che desideri copiare dal repository locale al repository centrale.
Migrazione del repository centrale
Se si aggiorna la versione di SAP Data Services, è necessario aggiornare anche la versione di Repository.
I seguenti punti dovrebbero essere considerati quando si migra un repository centrale per aggiornare la versione:
Effettua un backup del repository centrale di tutte le tabelle e gli oggetti.
Per mantenere la versione degli oggetti nei servizi dati, mantenere un archivio centrale per ogni versione. Crea una nuova cronologia centrale con la nuova versione del software Data Services e copia tutti gli oggetti in questo repository.
Se installi una nuova versione di Data Services, è sempre consigliabile aggiornare il tuo repository centrale a una nuova versione di oggetti.
Aggiorna il tuo repository locale alla stessa versione, poiché versioni diverse del repository centrale e locale potrebbero non funzionare allo stesso tempo.
Prima di migrare il repository centrale, archiviare tutti gli oggetti. Poiché non si aggiorna il repository centrale e locale contemporaneamente, è necessario archiviare tutti gli oggetti. Dopo aver aggiornato il tuo repository centrale a una versione più recente, non sarai in grado di archiviare gli oggetti dal repository locale, che ha una versione precedente di Data Services.