Delta-Verarbeitung im BW (SAP BW): Unterschied zwischen den Versionen

Aus MattWiki
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
 
(24 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 1: Zeile 1:
Quelle: Delta-Management in SAP NetWever BW (Knapp, 2011)
== Fortschreibungsmodi ==
== Fortschreibungsmodi ==
Mögliche Fortschreibungsmodi:
Mögliche Fortschreibungsmodi:
* Full-Update
* Full-Update
* Delta-Initialisierung mit Daten
* Delta-Initialisierung mit Daten
Zeile 9: Zeile 13:
Ein Fortschreibungsmodus gibt, an, wie die Daten aus dem Quellsystem extrahiert werden. Er wird im InfoPackage im Reiter Fortschreibung gepflegt.
Ein Fortschreibungsmodus gibt, an, wie die Daten aus dem Quellsystem extrahiert werden. Er wird im InfoPackage im Reiter Fortschreibung gepflegt.


=== Full-Update ===


=== Full-Update ===
* Lädt alle Daten aus Quellsystem
* Lädt alle Daten aus Quellsystem
* Filter im Reiter Datenselektion im InfoPackage sind möglich →  
* Filter im Reiter Datenselektion im InfoPackage sind möglich →
** Generische Datasource: Als Selektionsparameter nur Felder möglich, die das Kennzeichen Selektion in der DataSource tragen
** Generische Datasource: Als Selektionsparameter nur Felder möglich, die das Kennzeichen Selektion in der DataSource tragen
** Flatfiles, DB Connect, UDI: Selektionsfähigkeit der Felder kann im Register Felder der DataSource eingegeben werden
** Flatfiles, DB Connect, UDI: Selektionsfähigkeit der Felder kann im Register Felder der DataSource eingegeben werden
Zeile 18: Zeile 22:
* Bei Logistik-Extraktoren muss vor dem Full-Update die Neuaufbautabelle neu aufgebaut werden
* Bei Logistik-Extraktoren muss vor dem Full-Update die Neuaufbautabelle neu aufgebaut werden


=== Delta-Initialisierung ===


=== Delta-Initialisierung ===
Die Delta-Initialisierung ist Voraussetzung, um Delta-Updates durchführen zu können. Vor der Initialisierung steht der Punkt "Delta-Update" im InfoPackage im Reiter Fortschreibung nicht zur Verfügung.
Die Delta-Initialisierung ist Voraussetzung, um Delta-Updates durchführen zu können. Vor der Initialisierung steht der Punkt "Delta-Update" im InfoPackage im Reiter Fortschreibung nicht zur Verfügung.


Delta-Initialisierung ist
Delta-Initialisierung ist
* Datenselektion  
 
* Datenselektion
* Aufbau der Delta-Queue im SAP-Quellsystem
* Aufbau der Delta-Queue im SAP-Quellsystem


Zeile 34: Zeile 39:


Es gibt drei Typen von Delta-Initialisierung:
Es gibt drei Typen von Delta-Initialisierung:
 
 
==== Delta-Initialisierung mit Daten ====
==== Delta-Initialisierung mit Daten ====
* Full-Update gemäß Selektionsparametern
* Full-Update gemäß Selektionsparametern
* Selektionsparameter gelten auch für Delta-Queue
* Selektionsparameter gelten auch für Delta-Queue
* Daten werden zuerst zum BW und erst anschließend in die Delta-Queue übertragen
* Daten werden zuerst zum BW und erst anschließend in die Delta-Queue übertragen


&rarr In der Zeit zwischen der Übertragung zum BW und dem Bereitstellen der Delta-Queue können Datensätze entstehen, die dann in der Delta-Queue (und in der Folge im BW) fehlen.
→ In der Zeit zwischen der Übertragung zum BW und dem Bereitstellen der Delta-Queue können Datensätze entstehen, die dann in der Delta-Queue (und in der Folge im BW) fehlen.


==== Delta-Initialisierung ohne Daten ====


==== Delta-Initialisierung ohne Daten ====
* Gleiche Funktionsweise, wie Init mit Daten, aber
* Gleiche Funktionsweise, wie Init mit Daten, aber
* Es werden keine Daten nach BW übertragen
* Es werden keine Daten nach BW übertragen
Zeile 50: Zeile 55:
* Es werden keine Daten erfasst, die vor der Bereitstellung der Delta-Queue erstellt wurden
* Es werden keine Daten erfasst, die vor der Bereitstellung der Delta-Queue erstellt wurden


→ Vergangenheitsdaten müssen mit Full-Request bzw. Full-Repair-Request geladen werden.
&rarr; Vergangenheitsdaten müssen mit Full-Request bzw. Full-Repair-Request geladen werden.<br>
&rarr; Dies Klappt nur mit After-Image-Deltas problemlos
&rarr; Dies Klappt nur mit After-Image-Deltas problemlos


==== Early-Delta-Initialisierung ====


==== Early-Delta-Initialisierung ====
* Entspricht Delta-Initialisierung mit Daten in umgekehrter Reihenfolge
* Entspricht Delta-Initialisierung mit Daten in umgekehrter Reihenfolge
* Zuerst Bereitstellung der Delta-Queue
* Zuerst Bereitstellung der Delta-Queue
Zeile 60: Zeile 65:
* Steht seit Service-API-Release PI_BASIS 2002.1 zur Verfügung
* Steht seit Service-API-Release PI_BASIS 2002.1 zur Verfügung


=== Delta-Update ===


=== Delta-Update ===
* Steht nach der Initialisierung zur Verfügung
* Steht nach der Initialisierung zur Verfügung
* Selektiert die Daten seit dem letzten erfolgreichen Delta
* Selektiert die Daten seit dem letzten erfolgreichen Delta
* Bei SAP-Quellsystemen kommen die Daten aus der Delta-Queue
* Bei SAP-Quellsystemen kommen die Daten aus der Delta-Queue


=== InfoPackage in SAP NetWeaver BW 7.30 ===


=== InfoPackage in SAP NetWeaver BW 7.30 ===
Kennzeichen "Ipak in PC auf Delta umschalten (F1)" ermöglicht, dass
Kennzeichen "Ipak in PC auf Delta umschalten (F1)" ermöglicht, dass
* eine Delta-Initialisierung (mit Daten, ohne Daten, Early-Delta) statt findet, falls es noch keine mit gleichen oder überlappenden Selektionsparametern gab
* eine Delta-Initialisierung (mit Daten, ohne Daten, Early-Delta) statt findet, falls es noch keine mit gleichen oder überlappenden Selektionsparametern gab
* das InfoPackage in der Prozesskette in ein Delta-InfoPackage umgewandelt wird, falls es bereits eine Delta-Initialisierung gab
* das InfoPackage in der Prozesskette in ein Delta-InfoPackage umgewandelt wird, falls es bereits eine Delta-Initialisierung gab


=== Delta des Datentransferprozesses / DTPs ===


=== Delta des Datentransferprozesses / DTPs ===
Ein DTP kann Daten über Full- oder Delta-Update selektieren:
Ein DTP kann Daten über Full- oder Delta-Update selektieren:
* Full selektiert grundsätzlich alle Daten aus der Datenquelle.
* Full selektiert grundsätzlich alle Daten aus der Datenquelle.
* Delta-Update = Requestbasiertes Delta &rarr;  
* Delta-Update = Requestbasiertes Delta &rarr;
** Hat noch kein Delta-Update statt gefunden, selektiert der DTP alle Daten aus der Quelle und merkt sich den Stand der Selektion
** Hat noch kein Delta-Update statt gefunden, selektiert der DTP alle Daten aus der Quelle und merkt sich den Stand der Selektion
** Bei der nächsten Durchführung werden alle Requests aus der Datenquelle geholt, die noch nicht abgeholt wurden.
** Bei der nächsten Durchführung werden alle Requests aus der Datenquelle geholt, die noch nicht abgeholt wurden.
Zeile 83: Zeile 90:
Option "DeltaInit ohne Daten" im DTP ist Transportrelevant &rarr; Für manuelle DTP-Ausführung lieber den Verarbeitungsmodus "Keine Datenübertragung; Deltastatus in Quelle: Abgeholt" setzen.
Option "DeltaInit ohne Daten" im DTP ist Transportrelevant &rarr; Für manuelle DTP-Ausführung lieber den Verarbeitungsmodus "Keine Datenübertragung; Deltastatus in Quelle: Abgeholt" setzen.


=== Fehlermanagement im Datentransferprozess / DTP ===


=== Fehlermanagement im Datentransferprozess / DTP ===
Fehlerstack enthält Daten, die während der Fortschreibung als fehlerhaft gekennzeichnet wurden, z. B. wegen falschem Datenformat.
Fehlerstack enthält Daten, die während der Fortschreibung als fehlerhaft gekennzeichnet wurden, z. B. wegen falschem Datenformat.
Der Fehlerstack ist Bestandteil des Fehlermanagements und wird im Register Verbuchung im DTP gepflegt.
Der Fehlerstack ist Bestandteil des Fehlermanagements und wird im Register Verbuchung im DTP gepflegt.
Zeile 95: Zeile 102:
| Ausgeschaltet || Keine Fehleranalyse möglich
| Ausgeschaltet || Keine Fehleranalyse möglich
|-
|-
| Keine Verbuchung, kein Reporting || Ferhlermanagement ausgeschaltet, Zwischenspeicher aktiv. Es kann definiert werden, welche Daten in den Zwischenspeicher geschrieben werden.
| Keine Verbuchung, kein Reporting || Fehlermanagement ausgeschaltet, Zwischenspeicher aktiv. Es kann definiert werden, welche Daten in den Zwischenspeicher geschrieben werden.
|-
|-
| Verbuchung gültiger Sätze, kein Reporting (Request rot) || Fehlerstack aktiv. Fehlerhafte Sätze werden dort eingefügt. Anschließend können sie analysiert, korrigiert und in das Datenziel nachverbucht werden. Gültige Datensätze werden verbucht, Request wird aber auf Rot gesetzt.
| Verbuchung gültiger Sätze, kein Reporting (Request rot) || Fehlerstack aktiv. Fehlerhafte Sätze werden dort eingefügt. Anschließend können sie analysiert, korrigiert und in das Datenziel nachverbucht werden. Gültige Datensätze werden verbucht, Request wird aber auf Rot gesetzt.
Zeile 101: Zeile 108:
| Verbuchung gültiger Sätze, Reporting möglich (Request grün) || Fehlerstack aktiv. Wie vorherige Variante, jedoch Reporting möglich, weil Requests am Ende auf Grün gesetzt werden.
| Verbuchung gültiger Sätze, Reporting möglich (Request grün) || Fehlerstack aktiv. Wie vorherige Variante, jedoch Reporting möglich, weil Requests am Ende auf Grün gesetzt werden.
|}
|}


''' Vorsicht bei Methode "Verbuchung gültiger Sätze, Reporting möglich": ''' Operator muss selbstständig die Fehlerstacks kontrollieren, weil die Verarbeitung einfach weiter läuft ohne den fehlerhaften Daten.
''' Vorsicht bei Methode "Verbuchung gültiger Sätze, Reporting möglich": ''' Operator muss selbstständig die Fehlerstacks kontrollieren, weil die Verarbeitung einfach weiter läuft ohne den fehlerhaften Daten.
Zeile 107: Zeile 113:
Wenn Fehlermanagement aktiv, können Daten aus Fehlerstack per Fehler-DTP in das Datenziel verbucht werden. Der Fehler-DTP wird aus dem DTP heraus erzeugt über die gleichnamige Schaltfläche.
Wenn Fehlermanagement aktiv, können Daten aus Fehlerstack per Fehler-DTP in das Datenziel verbucht werden. Der Fehler-DTP wird aus dem DTP heraus erzeugt über die gleichnamige Schaltfläche.


''' Ablauf bei eingeschaltetem Fehlermanagement '''


''' Ablauf bei eingeschaltetem Fehlermanagement '''
# DTP wird gestartet. Fehlerhafte Datensätze werden in den Fehlerstack geschrieben
# DTP wird gestartet. Fehlerhafte Datensätze werden in den Fehlerstack geschrieben
# Manuelle Korrektur der Daten im Fehlerstack
# Manuelle Korrektur der Daten im Fehlerstack
Zeile 114: Zeile 120:
# Mit Fehler-DTP Daten in das Datenziel fortschreiben
# Mit Fehler-DTP Daten in das Datenziel fortschreiben


''' Schwellwert für Abbruch '''


''' Schwellwert für Abbruch '''
Wenn mehr als 100 Datensätze fehlerhaft sind, bricht der DTP automatisch ab. Der Schwellwert kann manuell eingestellt werden (unklar, wo).
Wenn mehr als 100 Datensätze fehlerhaft sind, bricht der DTP automatisch ab. Der Schwellwert kann manuell eingestellt werden (unklar, wo).


''' Einstellungen Fehlerstack '''
''' Einstellungen Fehlerstack '''
* Sichtbarkeit des Tabellennamens der Tabelle für den Fehlerstack (Transparente Tabelle)
* Sichtbarkeit des Tabellennamens der Tabelle für den Fehlerstack (Transparente Tabelle)
* Definition der Größenkategorie zur Selektion des Tablespace in der Datenbank
* Definition der Größenkategorie zur Selektion des Tablespace in der Datenbank
Zeile 124: Zeile 131:
Zugriff über Menü Zusätze &rarr; Einstellungen Fehler
Zugriff über Menü Zusätze &rarr; Einstellungen Fehler


== Realtime Data Acquisition / RDA (todo) ==
; RDA
:  Daten in hoher Frequenz aus Quellsystem extrahieren
:  Steht für die Datenquellen SAP-Quellsystem und Webservice zur Verfügung
:  In SAP NetWeaver BW 7.0 nur für Bewegungsdaten nutzbar
:  Ab SAP NetWeaver BW 7.3 auch für Stammdaten nutzbar
{| class="wikitable"
|+ style="text-align: left" | Neuerungen in SAP NetWeaver BW für RDA
! Neuerung !! Beschreibung
|-
| Offene Requests
|
* Bleibt offen bis Schwellwert erreicht ist
* Sind für Reporting freigeschaltet
|-
| Bestätigungstabelle
|
* Datenbanktabelle <tt>RSCRT_CONFIRM</tt>
* Speichert die zu verbuchenden Daten im BW-System
* Wird nur im Hintergrund vom Daemon benutzt
|-
| Daemon
|
* Permanent eingeplantes Hintergrundprogramm
* Wird über Transaktion <tt>RSRDA</tt> (Monitor: RDA) verwaltet
* Steuert Extraktion aus Quellsystem:
*# Fordert Datensätze aus Quellsystem an
*# Schreibt Datensätze in die PSA
*# Erfolgreich geschriebene Datensätze werden in Bestätigungstabelle geschrieben
*# Datensätze werden Datenziel / DSO fortgeschrieben und in Bestätigungstabelle gekennzeichnet
*# Datensätze stehen für Reporting zur Verfügung (offener Request)
*# Sobald Request geschlossen, wird Bestätigungstabelle geleert
|}
'''Hinweise'''


== Realtime Data Acquisition / RDA (todo) ==
* Ein Datensatz ist erfolgreich in der PSA, wenn er in der Bestätigungstabelle enthalten ist
todo
* Ein Datensatz ist in der Bestätigungstabelle gekennzeichnet, wenn er in das Datenziel fortgeschrieben wurde


Weitere Infos: https://help.sap.com/saphelp_nw70ehp1/helpdata/de/52/777e403566c65de10000000a155106/content.htm


== Felder ROCANCEL und 0RECORDMODE ==
== Felder ROCANCEL und 0RECORDMODE ==
<code>0RECORDMODE</code> ist in jedem DSO vorhanden und notwendig, da es die Information über die Image-Art enthält.
{| class="wikitable"
{| class="wikitable"
! Feld !! Ort !! Bedeutung
! Feld !! Ort !! Bedeutung
|-
|-
| ROCANCEL || Quellsystem / DataSource
| <code>ROCANCEL</code> || Quellsystem / DataSource
|
|
* Satztyp des gelieferten Images (New, Before, After, Additive, Reverse, Delete (vgl. [[Delta-Verfahren (SAP BW)#Satztypen]])
 
* Satztyp des gelieferten Images (New, Before, After, Additive, Reverse, Delete
* vgl. [[Delta-Verfahren (SAP BW)#Satztypen]]
* Feldname kann im Quellsystem auch anders lauten.
* Feldname kann im Quellsystem auch anders lauten.
|-
|-
| 0RECORDMODE  
| <code>0RECORDMODE</code>
| BW-System  
| BW-System
|
|
* Wird aus Quelle befüllt
* Wird aus Quelle befüllt
* Ist Bestandteil von DSOs
* Ist Bestandteil von DSOs
* Wird nicht in InfoCubes fortgeschrieben
* Wird nicht in InfoCubes fortgeschrieben
|}
|}


0RECORDMODE wird in Transformationen in der technischen Gruppe einsortiert. Muss ggf. manuell versorgt werden.
<code>0RECORDMODE</code> wird in Transformationen in der technischen Gruppe einsortiert. Muss ggf. manuell versorgt werden.


0RECORDNODE wird nur in Tabellen des Changelogs und der Aktivierungs-Queue geführt. In der Aktive-Daten-Tabelle ist es nicht mehr notwendig, da diese den aktuellen Datenstand repräsentieren.
<code>0RECORDMODE</code> wird nur in Tabellen des Changelogs und der Aktivierungs-Queue geführt. In der Aktive-Daten-Tabelle ist es nicht mehr notwendig, da diese den aktuellen Datenstand repräsentieren.


== Delta-Harmonisierung ==


== Delta-Harmonisierung ==
InfoCubes können bestehende Kennzahlen nur addieren. Manche Datenquellen liefern jedoch nur End-Werte (After-Images) statt Differenz-Werten.
InfoCubes können bestehende Kennzahlen nur addieren. Manche Datenquellen liefern jedoch nur End-Werte (After-Images) statt Differenz-Werten.


In solchen Fällen muss eine Delta-Harmonisierung durchgeführt werden, bei der aus einem nicht-cubefähigen Delta-Verfahrens ein cubefähiges Delta entsteht. Das passiert mittels eines Standard-DSOs.
In solchen Fällen muss eine Delta-Harmonisierung durchgeführt werden, bei der aus einem nicht-cubefähigen Delta-Verfahrens ein cubefähiges Delta entsteht. Das passiert mittels eines Standard-DSOs.


=== Beispiel für die Harmonisierung ===
=== Beispiel für die Harmonisierung ===


Es sollen Daten in einem nicht-cubefähigen Delta-Verfahren zum Standard-DSO angeliefert werden, z. B. AIMD, AIED, die nur After-Images enthalten.  
Es sollen Daten in einem nicht-cubefähigen Delta-Verfahren zum Standard-DSO angeliefert werden, z. B. AIMD, AIED, die nur After-Images enthalten.


Während der Aktivierung sollen sie in ein cubefähiges Delta umgewandelt werden.
Während der Aktivierung sollen sie in ein cubefähiges Delta umgewandelt werden.


=== Vorgang 1: Neuer Beleg wird aus Quelle geliefert ===
=== Vorgang 1: Neuer Beleg wird aus Quelle geliefert ===
''' Step 1: '''  
 
''' Step 1: '''


Beleg EK1000 mit Menge 2000 wird als After-Image in die neuen Daten (Aktivierungs-Queue) geschrieben
Beleg EK1000 mit Menge 2000 wird als After-Image in die neuen Daten (Aktivierungs-Queue) geschrieben


''' Aktive Daten '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Aktive Daten
! Beleg !! Menge
! Beleg !! Menge
|-
|-
Zeile 178: Zeile 230:
&uarr;
&uarr;


''' Change Log '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Change Log
! Request-ID !! Belege !! Menge !! 0RECORDMODE
! Request-ID !! Belege !! Menge !! 0RECORDMODE
|-
|-
| &nbsp; || &nbsp; || &nbsp; || &nbsp;  
| &nbsp; || &nbsp; || &nbsp; || &nbsp;
|}
|}
&uarr;
&uarr;


''' Neue Daten / Aktivierungs-Queue '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Aktivierungs-Queue (Neue Daten)
! Request-ID !! Beleg !! Menge !! 0RECORDMODE
! Request-ID !! Beleg !! Menge !! 0RECORDMODE
|-
|-
| REQA001 || EK1000 || 2000 || <leer>  
| REQA001 || EK1000 || 2000 || <leer>
|}
|}


 
''' Step 2: '''
''' Step 2: '''  


Aktivierung der neuen Daten
Aktivierung der neuen Daten
Zeile 202: Zeile 254:
* Aktivierungs-Queue wird geleert
* Aktivierungs-Queue wird geleert


''' Aktive Daten '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Aktive Daten
! Beleg !! Menge
! Beleg !! Menge
|-
|-
Zeile 212: Zeile 263:
&uarr;
&uarr;


''' Change Log '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Change Log
! Request-ID !! Belege !! Menge !! 0RECORDMODE
! Request-ID !! Belege !! Menge !! 0RECORDMODE
|-
|-
| REQC001 || EK1000 || 2000 || N  
| REQC001 || EK1000 || 2000 || N
|}
|}


&uarr;
&uarr;


''' Neue Daten / Aktivierungs-Queue '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Aktivierungs-Queue (Neue Daten)
! Request-ID !! Beleg !! Menge !! 0RECORDMODE
! Request-ID !! Beleg !! Menge !! 0RECORDMODE
|-
|-
| <strike> REQU001 </strike> || <strike> EK1000 </strike> || <strike> 2000 </strike> || <strike> <leer> </strike>
| <strike> REQU001 </strike> || <strike> EK1000 </strike> || <strike> 2000 </strike> || <strike> <leer> </strike>
|}
|}


=== Vorgang 2: Belegänderung ===


=== Vorgang 2: Belegänderung ===
Menge in Beleg EK1000 wird auf 1500 geändert.
Menge in Beleg EK1000 wird auf 1500 geändert.  
Dies wird als After-Image in die neuen Daten (Aktivierungs-Queue) geliefert, was also nicht cubefähig ist.
Dies wird als After-Image in die neuen Daten (Aktivierungs-Queue) geliefert, was also nicht cubefähig ist.


Zeile 239: Zeile 290:
* Aktivierungs-Queue wird geleert
* Aktivierungs-Queue wird geleert


''' Aktive Daten '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Aktive Daten
! Beleg !! Menge
! Beleg !! Menge
|-
|-
| EK1000
| EK1000
| <strike> 2000 </strike>  
| <strike> 2000 </strike>
1500
1500
|}
|}
Zeile 251: Zeile 301:
&uarr;
&uarr;


''' Change Log '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Change Log
! Request-ID !! Belege !! Menge !! 0RECORDMODE
! Request-ID !! Belege !! Menge !! 0RECORDMODE
|-
|-
| REQC001 || EK1000 || 2000 || N  
| REQC001 || EK1000 || 2000 || N
|-
|-
| REQC002 || EK1000 || -2000 || X  
| REQC002 || EK1000 || -2000 || X
|-
|-
| REQC002 || EK1000 || 1500 || <leer>  
| REQC002 || EK1000 || 1500 || <leer>
|-
|-
|}
|}
Zeile 265: Zeile 315:
&uarr;
&uarr;


''' Neue Daten / Aktivierungs-Queue '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Aktivierungs-Queue (Neue Daten)
! Request-ID !! Beleg !! Menge !! 0RECORDMODE
! Request-ID !! Beleg !! Menge !! 0RECORDMODE
|-
|-
| <strike> REQU002 </strike> || <strike> EK1000 </strike> || <strike> 1500 </strike> || <strike> <leer> </strike>
| <strike> REQU002 </strike> || <strike> EK1000 </strike> || <strike> 1500 </strike> || <strike> <leer> </strike>
|}
|}


=== Vorgang 3: Stornierung des Belegs ===
=== Vorgang 3: Stornierung des Belegs ===
''' Step 1: '''  
 
''' Step 1: '''


Aktivierungs-Queue erhält aus der Quelle das Delete-Image für den Beleg EK1000 als nicht cubefähiges Image
Aktivierungs-Queue erhält aus der Quelle das Delete-Image für den Beleg EK1000 als nicht cubefähiges Image


''' Aktive Daten '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Aktive Daten
! Beleg !! Menge
! Beleg !! Menge
|-
|-
Zeile 287: Zeile 337:
&uarr;
&uarr;


''' Change Log '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Change Log
! Request-ID !! Belege !! Menge !! 0RECORDMODE
! Request-ID !! Belege !! Menge !! 0RECORDMODE
|-
|-
| REQC001 || EK1000 || 2000 || N  
| REQC001 || EK1000 || 2000 || N
|-
|-
| REQC002 || EK1000 || -2000 || X  
| REQC002 || EK1000 || -2000 || X
|-
|-
| REQC002 || EK1000 || 1500 || <leer>  
| REQC002 || EK1000 || 1500 || <leer>
|-
|-
|}
|}
Zeile 301: Zeile 351:
&uarr;
&uarr;


''' Neue Daten / Aktivierungs-Queue '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Aktivierungs-Queue (Neue Daten)
! Request-ID !! Beleg !! Menge !! 0RECORDMODE
! Request-ID !! Beleg !! Menge !! 0RECORDMODE
|-
|-
Zeile 308: Zeile 358:
|}
|}


 
''' Step 2: ''' Aktivierung
 
''' Step 2: ''' Aktivierung  


* Aktivierung erstellt im Changelog ein Reverse-Image mit Menge -1500, womit eine cubefähige Information entsteht
* Aktivierung erstellt im Changelog ein Reverse-Image mit Menge -1500, womit eine cubefähige Information entsteht
Zeile 316: Zeile 364:
* Anschließend wird die Aktivierungs-queue geleert
* Anschließend wird die Aktivierungs-queue geleert


''' Aktive Daten '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Aktive Daten
! Beleg !! Menge
! Beleg !! Menge
|-
|-
Zeile 326: Zeile 373:
&uarr;
&uarr;


''' Change Log '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Change Log
! Request-ID !! Belege !! Menge !! 0RECORDMODE
! Request-ID !! Belege !! Menge !! 0RECORDMODE
|-
|-
| REQC001 || EK1000 || 2000 || N  
| REQC001 || EK1000 || 2000 || N
|-
|-
| REQC002 || EK1000 || -2000 || X  
| REQC002 || EK1000 || -2000 || X
|-
|-
| REQC002 || EK1000 || 1500 || <leer>  
| REQC002 || EK1000 || 1500 || <leer>
|-
|-
| REQC003 || EK1000 || -1500 || R  
| REQC003 || EK1000 || -1500 || R
|}
|}


&uarr;
&uarr;


''' Neue Daten / Aktivierungs-Queue '''
{| class="wikitable"
{| class="wikitable"
|+ style="text-align: left;" | Aktivierungs-Queue (Neue Daten)
! Request-ID !! Beleg !! Menge !! 0RECORDMODE
! Request-ID !! Beleg !! Menge !! 0RECORDMODE
|-
|-
Zeile 348: Zeile 395:
|}
|}


 
Im Standard-DSO ist also aus einem nicht-cubefähigen Delta ein cubefähiges Delta entstanden.
Im Standard-DSO ist also aus einem nicht-cubefähigen Delta ein cubefähiges Delta entstanden.  


Das Delda-Verfahren hierfür ist ODS (in Tabelle RODELTAM). Es erzeugt New-, Before-, After- und Reverse-Images und ist damit cubefähig.
Das Delda-Verfahren hierfür ist ODS (in Tabelle RODELTAM). Es erzeugt New-, Before-, After- und Reverse-Images und ist damit cubefähig.
Zeile 360: Zeile 406:


== Delta-Mechanismen für Stammdaten ==
== Delta-Mechanismen für Stammdaten ==
Stammdaten können prinzipiell wie Bewegungsdaten extrahiert werden, z. B. eine generische DataSource über die Transaktion RSO2 anlegen.
Stammdaten können prinzipiell wie Bewegungsdaten extrahiert werden, z. B. eine generische DataSource über die Transaktion RSO2 anlegen.


Zeile 366: Zeile 413:
Attributänderungslauf ist sowas ähnliches, wie Daten aktivieren im Standard-DSO.
Attributänderungslauf ist sowas ähnliches, wie Daten aktivieren im Standard-DSO.


== Delta-Harmonisierung mit Full-Updates ==


== Delta-Harmonisierung mit Full-Updates ==
Wenn eine Datenquelle nur Full-Updates unterstützt, kann das Delta-Verfahren ODS genutzt werden (New, Before, After und Reverse Images).
Wenn eine Datenquelle nur Full-Updates unterstützt, kann das Delta-Verfahren ODS genutzt werden (New, Before, After und Reverse Images).  


Gefahr von Inkonsistenzen, wenn die Datenquelle keine Stornokennzeichen liefert, z. B.: Datensätze im Quellsystem werden gelöscht und nicht mit Stornokennzeichen versehen.
Gefahr von Inkonsistenzen, wenn die Datenquelle keine Stornokennzeichen liefert, z. B.: Datensätze im Quellsystem werden gelöscht und nicht mit Stornokennzeichen versehen.
Zeile 374: Zeile 421:
Lösungsansätze für fehlende Stornokennzeichen:
Lösungsansätze für fehlende Stornokennzeichen:


=== Löschen des Datenziels vor dem Update ===


=== Löschen des Datenziels vor dem Update ===
Dies ist das einfachere Vorgehen.
Dies ist das einfachere Vorgehen.


Zeile 383: Zeile 430:


Prozesskette mit folgender Struktur erstellen:
Prozesskette mit folgender Struktur erstellen:
# Laden der Daten in die Datenquelle (Standard-DSO) über Full-Update
# Laden der Daten in die Datenquelle (Standard-DSO) über Full-Update
# Löschen des Datenziels
# Löschen des Datenziels
Zeile 390: Zeile 438:


''' Nachteile '''
''' Nachteile '''
* Delta-Information wird im Standard-DSO in einer Vielzahl an Requests vorgehalten, die aus Full-Updates bestehen
* Delta-Information wird im Standard-DSO in einer Vielzahl an Requests vorgehalten, die aus Full-Updates bestehen
* Hoher Speicherplatzbedarf
* Hoher Speicherplatzbedarf
* Daher nicht für große Applikationen nicht empfehlenswert
* Daher nicht für große Applikationen nicht empfehlenswert


=== Erzeugen eigener Stornobelege ===


=== Erzeugen eigener Stornobelege ===
Problem bei fehlenden Stornobelegen: Aktivierung von Daten sorgt für inkonsistenten Datenstand, da gelöschte Datensätze nicht entfernt werden.
Problem bei fehlenden Stornobelegen: Aktivierung von Daten sorgt für inkonsistenten Datenstand, da gelöschte Datensätze nicht entfernt werden.


Zeile 406: Zeile 455:
# ABAP-Programm zur Erstellung der Stornobelege
# ABAP-Programm zur Erstellung der Stornobelege
# Aktivierung der DSO-Daten
# Aktivierung der DSO-Daten


''' Aufbau des Programms zur Stornobelegerstellung '''
''' Aufbau des Programms zur Stornobelegerstellung '''
Zeile 412: Zeile 460:
* Prüfung, ob jeder Datensatz in den aktiven Daten in der Aktivierungs-Queue vorhanden ist.
* Prüfung, ob jeder Datensatz in den aktiven Daten in der Aktivierungs-Queue vorhanden ist.
* Falls nicht vorhandene Datensätze: Datensatz in die Aktivierungs-Queue einfügen mit 0RECORDMODE X (Delete Image)
* Falls nicht vorhandene Datensätze: Datensatz in die Aktivierungs-Queue einfügen mit 0RECORDMODE X (Delete Image)
 
[[Kategorie:SAP]]
 
 
 
[[Category:SAP]]
[[Category:SAP BW]]

Aktuelle Version vom 2. September 2017, 15:20 Uhr

Quelle: Delta-Management in SAP NetWever BW (Knapp, 2011)

Fortschreibungsmodi

Mögliche Fortschreibungsmodi:

  • Full-Update
  • Delta-Initialisierung mit Daten
  • Delta-Initialisierung ohne Daten
  • Early-Delta-Initialisierung
  • Delta-Update

Ein Fortschreibungsmodus gibt, an, wie die Daten aus dem Quellsystem extrahiert werden. Er wird im InfoPackage im Reiter Fortschreibung gepflegt.

Full-Update

  • Lädt alle Daten aus Quellsystem
  • Filter im Reiter Datenselektion im InfoPackage sind möglich →
    • Generische Datasource: Als Selektionsparameter nur Felder möglich, die das Kennzeichen Selektion in der DataSource tragen
    • Flatfiles, DB Connect, UDI: Selektionsfähigkeit der Felder kann im Register Felder der DataSource eingegeben werden
  • Full-Update ist bei Delta-Verfahren immer ausführbar → Bei 3.x-Datenflüssen ist hierfür jedoch ein Reparatur-Full-Request notwendig
  • Bei Logistik-Extraktoren muss vor dem Full-Update die Neuaufbautabelle neu aufgebaut werden

Delta-Initialisierung

Die Delta-Initialisierung ist Voraussetzung, um Delta-Updates durchführen zu können. Vor der Initialisierung steht der Punkt "Delta-Update" im InfoPackage im Reiter Fortschreibung nicht zur Verfügung.

Delta-Initialisierung ist

  • Datenselektion
  • Aufbau der Delta-Queue im SAP-Quellsystem

Bei Angabe von Selektionen während der Initialisierung enthält die Delta-Queue fortan nur Daten, die der Selektion entsprechen. Es ist jedoch möglich, mehrere InfoPackage mit mehreren Selektionen zu erstellen, da alle in die gleiche Delta-Queue laufen.

Initialisierungsselektionen können im InfoPackage unter Menü Scheduler → "Iniitialisierungsselektion für Quellsystem" erneut angeschaut werden.

Zum Neustarten des Delta-Verfahrens kann die Initialisierungsselektion gelöscht werden. → Dies löscht die Delta-Queue im Quellsystem.

Es gibt drei Typen von Delta-Initialisierung:

Delta-Initialisierung mit Daten

  • Full-Update gemäß Selektionsparametern
  • Selektionsparameter gelten auch für Delta-Queue
  • Daten werden zuerst zum BW und erst anschließend in die Delta-Queue übertragen

→ In der Zeit zwischen der Übertragung zum BW und dem Bereitstellen der Delta-Queue können Datensätze entstehen, die dann in der Delta-Queue (und in der Folge im BW) fehlen.

Delta-Initialisierung ohne Daten

  • Gleiche Funktionsweise, wie Init mit Daten, aber
  • Es werden keine Daten nach BW übertragen
  • Delta-Queue steht sofort bereit
  • Es werden keine Daten erfasst, die vor der Bereitstellung der Delta-Queue erstellt wurden

→ Vergangenheitsdaten müssen mit Full-Request bzw. Full-Repair-Request geladen werden.
→ Dies Klappt nur mit After-Image-Deltas problemlos

Early-Delta-Initialisierung

  • Entspricht Delta-Initialisierung mit Daten in umgekehrter Reihenfolge
  • Zuerst Bereitstellung der Delta-Queue
  • Anschließend Datenübertragung
  • Steht seit Service-API-Release PI_BASIS 2002.1 zur Verfügung

Delta-Update

  • Steht nach der Initialisierung zur Verfügung
  • Selektiert die Daten seit dem letzten erfolgreichen Delta
  • Bei SAP-Quellsystemen kommen die Daten aus der Delta-Queue

InfoPackage in SAP NetWeaver BW 7.30

Kennzeichen "Ipak in PC auf Delta umschalten (F1)" ermöglicht, dass

  • eine Delta-Initialisierung (mit Daten, ohne Daten, Early-Delta) statt findet, falls es noch keine mit gleichen oder überlappenden Selektionsparametern gab
  • das InfoPackage in der Prozesskette in ein Delta-InfoPackage umgewandelt wird, falls es bereits eine Delta-Initialisierung gab

Delta des Datentransferprozesses / DTPs

Ein DTP kann Daten über Full- oder Delta-Update selektieren:

  • Full selektiert grundsätzlich alle Daten aus der Datenquelle.
  • Delta-Update = Requestbasiertes Delta →
    • Hat noch kein Delta-Update statt gefunden, selektiert der DTP alle Daten aus der Quelle und merkt sich den Stand der Selektion
    • Bei der nächsten Durchführung werden alle Requests aus der Datenquelle geholt, die noch nicht abgeholt wurden.
    • Mehrere Requests in der Datenquelle werden in einen neuen Request im Ziel verdichtet → Deaktivieren mit: "Alle neuen Daten requestweise abholen" im DTP

Option "DeltaInit ohne Daten" im DTP ist Transportrelevant → Für manuelle DTP-Ausführung lieber den Verarbeitungsmodus "Keine Datenübertragung; Deltastatus in Quelle: Abgeholt" setzen.

Fehlermanagement im Datentransferprozess / DTP

Fehlerstack enthält Daten, die während der Fortschreibung als fehlerhaft gekennzeichnet wurden, z. B. wegen falschem Datenformat. Der Fehlerstack ist Bestandteil des Fehlermanagements und wird im Register Verbuchung im DTP gepflegt.

Folgende Fehlerbehandlungen im DTP sind möglich:

Fehlerbehandlung Beschreibung
Ausgeschaltet Keine Fehleranalyse möglich
Keine Verbuchung, kein Reporting Fehlermanagement ausgeschaltet, Zwischenspeicher aktiv. Es kann definiert werden, welche Daten in den Zwischenspeicher geschrieben werden.
Verbuchung gültiger Sätze, kein Reporting (Request rot) Fehlerstack aktiv. Fehlerhafte Sätze werden dort eingefügt. Anschließend können sie analysiert, korrigiert und in das Datenziel nachverbucht werden. Gültige Datensätze werden verbucht, Request wird aber auf Rot gesetzt.
Verbuchung gültiger Sätze, Reporting möglich (Request grün) Fehlerstack aktiv. Wie vorherige Variante, jedoch Reporting möglich, weil Requests am Ende auf Grün gesetzt werden.

Vorsicht bei Methode "Verbuchung gültiger Sätze, Reporting möglich": Operator muss selbstständig die Fehlerstacks kontrollieren, weil die Verarbeitung einfach weiter läuft ohne den fehlerhaften Daten.

Wenn Fehlermanagement aktiv, können Daten aus Fehlerstack per Fehler-DTP in das Datenziel verbucht werden. Der Fehler-DTP wird aus dem DTP heraus erzeugt über die gleichnamige Schaltfläche.

Ablauf bei eingeschaltetem Fehlermanagement

  1. DTP wird gestartet. Fehlerhafte Datensätze werden in den Fehlerstack geschrieben
  2. Manuelle Korrektur der Daten im Fehlerstack
  3. Aus DTP einen Fehler-DTP erstellen
  4. Mit Fehler-DTP Daten in das Datenziel fortschreiben

Schwellwert für Abbruch

Wenn mehr als 100 Datensätze fehlerhaft sind, bricht der DTP automatisch ab. Der Schwellwert kann manuell eingestellt werden (unklar, wo).

Einstellungen Fehlerstack

  • Sichtbarkeit des Tabellennamens der Tabelle für den Fehlerstack (Transparente Tabelle)
  • Definition der Größenkategorie zur Selektion des Tablespace in der Datenbank

Zugriff über Menü Zusätze → Einstellungen Fehler

Realtime Data Acquisition / RDA (todo)

RDA
Daten in hoher Frequenz aus Quellsystem extrahieren
Steht für die Datenquellen SAP-Quellsystem und Webservice zur Verfügung
In SAP NetWeaver BW 7.0 nur für Bewegungsdaten nutzbar
Ab SAP NetWeaver BW 7.3 auch für Stammdaten nutzbar
Neuerungen in SAP NetWeaver BW für RDA
Neuerung Beschreibung
Offene Requests
  • Bleibt offen bis Schwellwert erreicht ist
  • Sind für Reporting freigeschaltet
Bestätigungstabelle
  • Datenbanktabelle RSCRT_CONFIRM
  • Speichert die zu verbuchenden Daten im BW-System
  • Wird nur im Hintergrund vom Daemon benutzt
Daemon
  • Permanent eingeplantes Hintergrundprogramm
  • Wird über Transaktion RSRDA (Monitor: RDA) verwaltet
  • Steuert Extraktion aus Quellsystem:
    1. Fordert Datensätze aus Quellsystem an
    2. Schreibt Datensätze in die PSA
    3. Erfolgreich geschriebene Datensätze werden in Bestätigungstabelle geschrieben
    4. Datensätze werden Datenziel / DSO fortgeschrieben und in Bestätigungstabelle gekennzeichnet
    5. Datensätze stehen für Reporting zur Verfügung (offener Request)
    6. Sobald Request geschlossen, wird Bestätigungstabelle geleert

Hinweise

  • Ein Datensatz ist erfolgreich in der PSA, wenn er in der Bestätigungstabelle enthalten ist
  • Ein Datensatz ist in der Bestätigungstabelle gekennzeichnet, wenn er in das Datenziel fortgeschrieben wurde

Weitere Infos: https://help.sap.com/saphelp_nw70ehp1/helpdata/de/52/777e403566c65de10000000a155106/content.htm

Felder ROCANCEL und 0RECORDMODE

0RECORDMODE ist in jedem DSO vorhanden und notwendig, da es die Information über die Image-Art enthält.

Feld Ort Bedeutung
ROCANCEL Quellsystem / DataSource
0RECORDMODE BW-System
  • Wird aus Quelle befüllt
  • Ist Bestandteil von DSOs
  • Wird nicht in InfoCubes fortgeschrieben

0RECORDMODE wird in Transformationen in der technischen Gruppe einsortiert. Muss ggf. manuell versorgt werden.

0RECORDMODE wird nur in Tabellen des Changelogs und der Aktivierungs-Queue geführt. In der Aktive-Daten-Tabelle ist es nicht mehr notwendig, da diese den aktuellen Datenstand repräsentieren.

Delta-Harmonisierung

InfoCubes können bestehende Kennzahlen nur addieren. Manche Datenquellen liefern jedoch nur End-Werte (After-Images) statt Differenz-Werten.

In solchen Fällen muss eine Delta-Harmonisierung durchgeführt werden, bei der aus einem nicht-cubefähigen Delta-Verfahrens ein cubefähiges Delta entsteht. Das passiert mittels eines Standard-DSOs.

Beispiel für die Harmonisierung

Es sollen Daten in einem nicht-cubefähigen Delta-Verfahren zum Standard-DSO angeliefert werden, z. B. AIMD, AIED, die nur After-Images enthalten.

Während der Aktivierung sollen sie in ein cubefähiges Delta umgewandelt werden.

Vorgang 1: Neuer Beleg wird aus Quelle geliefert

Step 1:

Beleg EK1000 mit Menge 2000 wird als After-Image in die neuen Daten (Aktivierungs-Queue) geschrieben

Aktive Daten
Beleg Menge
   

Change Log
Request-ID Belege Menge 0RECORDMODE
       

Aktivierungs-Queue (Neue Daten)
Request-ID Beleg Menge 0RECORDMODE
REQA001 EK1000 2000 <leer>

Step 2:

Aktivierung der neuen Daten

  • Während Aktivierung wird im Changelog das After-Image mit Recordmode New mit neuer Requestnummer geschrieben
  • In die Aktiven Daten wird für den Beleg ein Datensatz mit Menge 2000 eingefügt
  • Aktivierungs-Queue wird geleert
Aktive Daten
Beleg Menge
EK1000 2000

Change Log
Request-ID Belege Menge 0RECORDMODE
REQC001 EK1000 2000 N

Aktivierungs-Queue (Neue Daten)
Request-ID Beleg Menge 0RECORDMODE
REQU001 EK1000 2000 <leer>

Vorgang 2: Belegänderung

Menge in Beleg EK1000 wird auf 1500 geändert. Dies wird als After-Image in die neuen Daten (Aktivierungs-Queue) geliefert, was also nicht cubefähig ist.

  • Neue Daten enthalten das After-Images mit der neuen Menge 1500
  • Aktivierung erkennt, dass in den aktiven Daten ein Datensatz besteht
  • Aktivierung erstellt im Changelog ein Before-Image mit Menge -2000 und ein After-Image mit Menge 1500
  • Der bestehende Datensatz in den aktiven Daten wird auf Menge 1500 geändert
  • Aktivierungs-Queue wird geleert
Aktive Daten
Beleg Menge
EK1000 2000

1500

Change Log
Request-ID Belege Menge 0RECORDMODE
REQC001 EK1000 2000 N
REQC002 EK1000 -2000 X
REQC002 EK1000 1500 <leer>

Aktivierungs-Queue (Neue Daten)
Request-ID Beleg Menge 0RECORDMODE
REQU002 EK1000 1500 <leer>

Vorgang 3: Stornierung des Belegs

Step 1:

Aktivierungs-Queue erhält aus der Quelle das Delete-Image für den Beleg EK1000 als nicht cubefähiges Image

Aktive Daten
Beleg Menge
EK1000 1500

Change Log
Request-ID Belege Menge 0RECORDMODE
REQC001 EK1000 2000 N
REQC002 EK1000 -2000 X
REQC002 EK1000 1500 <leer>

Aktivierungs-Queue (Neue Daten)
Request-ID Beleg Menge 0RECORDMODE
REQA003 EK1000 <leer> D

Step 2: Aktivierung

  • Aktivierung erstellt im Changelog ein Reverse-Image mit Menge -1500, womit eine cubefähige Information entsteht
  • Der bestehende Datensatz in den aktiven Daten wird gelöscht
  • Anschließend wird die Aktivierungs-queue geleert
Aktive Daten
Beleg Menge
EK1000 1500

Change Log
Request-ID Belege Menge 0RECORDMODE
REQC001 EK1000 2000 N
REQC002 EK1000 -2000 X
REQC002 EK1000 1500 <leer>
REQC003 EK1000 -1500 R

Aktivierungs-Queue (Neue Daten)
Request-ID Beleg Menge 0RECORDMODE
REQU003 EK1000 <leer> D

Im Standard-DSO ist also aus einem nicht-cubefähigen Delta ein cubefähiges Delta entstanden.

Das Delda-Verfahren hierfür ist ODS (in Tabelle RODELTAM). Es erzeugt New-, Before-, After- und Reverse-Images und ist damit cubefähig.

Dabei ist jedoch auch Speicherplatz für die PSA, DSOs, Change-Logs, Aggregate und InfoCubes notwendig. Dieser kann mit Transaktion DB02 unter System-ID, Platzübersicht eingesehen werden.

Wird aus dem Standard-DSO ein InfoCube gefüllt, so wird in den InfoCube der Inhalt des Change-Logs fortgeschrieben.

Requests in der Aktivierungs-Queue eines Standard-DSO enthalten eine Requestnummer. Während der Aktivierung im Standard-DSO wird ein zusätzlicher Request ins Change-Log mit einer eigenen Requestnummer geschrieben.

Delta-Mechanismen für Stammdaten

Stammdaten können prinzipiell wie Bewegungsdaten extrahiert werden, z. B. eine generische DataSource über die Transaktion RSO2 anlegen.

Stammdatenänderungen werden als Modified-Version gespeichert (OBJVERS = M). Der Attributänderungslauf übernimmt die Änderungen dann in die aktiven Stammdaten (OBJVERS = A).

Attributänderungslauf ist sowas ähnliches, wie Daten aktivieren im Standard-DSO.

Delta-Harmonisierung mit Full-Updates

Wenn eine Datenquelle nur Full-Updates unterstützt, kann das Delta-Verfahren ODS genutzt werden (New, Before, After und Reverse Images).

Gefahr von Inkonsistenzen, wenn die Datenquelle keine Stornokennzeichen liefert, z. B.: Datensätze im Quellsystem werden gelöscht und nicht mit Stornokennzeichen versehen.

Lösungsansätze für fehlende Stornokennzeichen:

Löschen des Datenziels vor dem Update

Dies ist das einfachere Vorgehen.

Im DTP in das Reporting-Objekt wird das Kennzeichen "Delta nur einmal abholen" gesetzt.

Vorgehen

Prozesskette mit folgender Struktur erstellen:

  1. Laden der Daten in die Datenquelle (Standard-DSO) über Full-Update
  2. Löschen des Datenziels
  3. Ausführen des DTPs

Im letzteren DTP muss das Kennzeichen "Delta nur einmal abholen" gesetzt sein. Damit wird nur der zuletzt in die DTP-quelle geladene Request in das Datenziel verbucht.

Nachteile

  • Delta-Information wird im Standard-DSO in einer Vielzahl an Requests vorgehalten, die aus Full-Updates bestehen
  • Hoher Speicherplatzbedarf
  • Daher nicht für große Applikationen nicht empfehlenswert

Erzeugen eigener Stornobelege

Problem bei fehlenden Stornobelegen: Aktivierung von Daten sorgt für inkonsistenten Datenstand, da gelöschte Datensätze nicht entfernt werden.

Lösungsansatz: Ein Programm zwischen Datenbeladung (in die Aktivierungs-Queue) und Aktivierung der Daten.

Prozesskette für automatische Erstellung und Verarbeitung der Stornobelege

  1. InfoPackage zum Daten laden
  2. DTP aus PSA in DSO
  3. ABAP-Programm zur Erstellung der Stornobelege
  4. Aktivierung der DSO-Daten

Aufbau des Programms zur Stornobelegerstellung

  • Prüfung, ob jeder Datensatz in den aktiven Daten in der Aktivierungs-Queue vorhanden ist.
  • Falls nicht vorhandene Datensätze: Datensatz in die Aktivierungs-Queue einfügen mit 0RECORDMODE X (Delete Image)