-
Notifications
You must be signed in to change notification settings - Fork 3
Die KrimDok MARC Pipeline
Daten werden im MARC-21-Format von einem BSZ-FTP-Server heruntergeladen, auf verschiedenste Art manipuliert und dann in einen Solr-Index importiert. Diese Prozesse sind mit Hilfe von diversen Bash- und Python-Skripten, welche als Cronjobs aufgeführt werden, automatisiert.
Die "MARC-Pipeline" ist ein Bash-Skript in welchem die BSZ-Daten verschiedene Verarbeitungsphase durchlaufen. Eine typische Phase besteht darin, dass MARC-Daten von einem Programm eingelesen werden, im Programm abgeändert werden und danach in eine neue MARC-Datei geschrieben werden.
Integritätscheck der vom BSZ gelieferten Daten.
Hinzufügen der Lokaldaten zu den Titeldatensätzen
Austausch von PPNs in verschieden SQL-Datenbanken für Datensätze wo sich die PPN geändert hat. (Dies kann durch das Zusammenführen bzw. Deduplizieren von Datensätzen beim BSZ verursacht werden.)
Normalisierung und Deduplizierung von URLs in 856$u-Feldern
Einfügen von Autorensynonymen aus Normdaten in Titeldatensätzen
Markieren von Titelsätzen, die Kandidaten für PDA sind
Markieren von elektronischen und Open-Access Datensätzen
Anreicherung von untergeordneten Werken mit den ISSNs und ISBNs ihrer übergeordneten Werke
Erstellen der Volltextdatenbank
Markieren von Titelsätzen von Objekten, die in Tübingen verfügbar sind
Füllen von fehlenden 773$a-Unterfeldern (Titel von übergeordneten Werken)
Erzeugen eines einheitlichen Sortierjahres in den Titeldaten
Verknüpfung von übergeordneten Werken mit ihren untergeordneten Werken und markieren von Werken, die abonniert werden können.
Einfügen von weiteren Open-Access-URLs
Überprüfung der Integrität der Datensätze um Bugs in der Verarbeitung in der Pipeline zu finden
Löschen von temporären Dateien, welche in der Pipeline erzeugt wurden