Lerntagebuch Bibliotheks-und Archivinformatik

Willkommen

Hier schreibe ich im Rahmen eines Leistungsnachweises über meien Erfahrungen im Modul Bibliotheks-und Archivinformatik im HS 2021 im Studiengang Informationswissenschaft an der FHGR.

Posts

  • Abschlussartikel

    Was habe ich (nicht) gelernt?

    Im Modul BAIN habe ich sehr viel über Metadatenstandards gelernt. Dies auch und vor allem wegen der praktischen Anwendung. Viele Datenformate wie Dublin Core und MarcXML habe ich zwar gekannt, aber teilweise nur aus der Theorie. Auch wusste ich natürlich was Schnittstellen sind, die direkte Arbeit damit hat mir aber sehr geholfen, noch einmal ein ganz anderes Verständnis davon zu bekommen. Ich habe aber auch einige mir unbekannte Begriffe und Programme kennengelernt.

    Sehr viel gelernt habe ich beim selber Ausprobieren der Anwendungen. Auch die Navigation im Terminal war mir nicht mehr ganz so vertraut. Am Anfang war ich deshalb auch sehr vorsichtig. Mit der Zeit habe ich mich aber an einige Funktionen erinnert und konnte so immer besser damit arbeiten. Sehr hilfreich fand ich auch di virtuelle Maschine, die webbasiert benutzt werden konnte. In den vorherigen Modulen hatte ich immer Probleme mit der VM auf meinem Computer und konnte sie nie richtig nutzen. Die Möglichkeit, diese online zu nutzen, war mir vorher nicht bekannt, hat mir aber einen grossen Mehrwert gebracht, da die VM so meist ohne Probleme lief.

    Auch das Erstellen eines Blogs mit GitHub war für mich eine neue Erfahrung. Ich war jedoch erstaunt darüber, wie einfach die Strukturierung der Texte mit HTML-Elementen geht. Ich kann mir auch vorstellen, dass diese Plattform die kollaborative Arbeit aufgrund der Versionsverwaltung sehr erleichtert.

    Welche Erwartungen wurden (nicht) erfüllt?

    Als Erwartungen an dieses Modul hatte ich im ersten Blogbeitrag genannt, die Hintergründe der Software, die ich im Bibliotheksalltag benütze, kennenzulernen und neue Einblicke in das mir unbekannte Feld der Archivsysteme zu erhalten. Diese Erwartungen wurden beide erfüllt. In den ersten Lehrveranstaltungen, in denen es um Bibliotheks-und Archivsoftware ging, lag der Fokus für mich etwas fest auf der Benutzung der verschiedenen Systeme, so dass man eigentlich nur die Nutzerseite und wenig Hintergründe sah. In den weiteren Veranstaltungen hat sich das dann aber relativiert und ich konnte auch viel über Hintergründe erfahren, die mir einige Zusammenhänge klar machten. Besonders spannend fand ich die zahlreichen, relativ einfachen Möglichkeiten, das VuFind Interface zu personalisieren.

    Da auch immer die Erwartung besteht, die Modulinhalte im gesamten Studium einzuordnen und Bezug zu anderen Modulinhalten zu erstellen, kann ich sagen, dass diese definitiv erfüllt wurde. Gerade die letzte Veranstaltung über Linked Data hat mir noch einmal einen sehr guten Gesamtüberblick der Zusammenhänge gegeben. Vieles davon war mir aus anderen Modulen schon bekannt, aber nicht in diesem Zusammenhang.

  • Tag 8: Suchmachinen und Discovery-Systeme

    Suchmaschinen und Discovery Systeme

    In der Vorlesung 8 ging es um Suchmaschinen und Discovery Systeme. Es gibt die Suche über einfache Zeichenketten (Strings), die genau nach der eingegebenen Zeichenfolge suchen, wie das in Datenbanken funktioniert und es gibt Discovery Systeme, die lexikalisch suchen können, beispielsweise auch nach Begriffen mit ähnlichem Sinn.

    Ein solches Discovery System ist VuFind, eine weit verbreitete, open source Software, die unterschiedliche Gestaltungen zulässt und einfach erweitert werden kann. Ein Beispiel dafür wäre das Hinzufügen einer Tektonik des Bestandes. In der Übung 3 wurde bereits gezeigt, wie VuFind über Konfigurationsdateien selbst angepasst werden kann.

  • Übung Konfiguration Suche und Facetten

    Übung Konfiguration Suche und Facetten

    Da es bereits einige Wochen her ist, dass ich mich das letzte Mal mit BAIN beschäftigte, wusste ich nicht, mehr, ob ich VuFind bereits installiert hatte oder nicht. Schnell merkte ich jedoch, dass mein Root-Passwort für MariaDB nicht, wie in der Anleitung erklärt, leer war und fand es schliesslich in meinen Handnotizen. Der Rest der Installation und auch der Testimport hatten dank den klaren Anleitungen problemlos funktioniert. Ich nehmen mir für die Zukunft vor, Gemachtes besser zu dokumentieren, um damit nicht so viel Zeit zu verlieren.

    Für die Übung sollte das Youtube Video VuFind: Configuring Search and Facet Settings geschaut und die gezeigten Inhalte selbst ausgeführt werden.

    Es werden drei Konfigurationsdateien vorgestellt, mit denen man die Suche und ihre Darstellung im VuFind Interface anpassen kann. Als erstes die Datei searches.ini. Hier können die «search handlers» angepasst werden. Dies umfasst Optionen wie Titel oder Autor. Beispielsweise kann man hier die Reihenfolge oder die Bezeichnung der Suchoptionen in der Dropdown Liste festlegen. Im Video wird dies sehr anschaulich gezeigt (Abb.1 und 2). Möglich ist beispielsweise auch durch die Option default_Limit die Anzahl der Suchergebnisse, die auf einer Seite dargestellt werden sollen, zu ändern.

    person-who-created-stuff-1

    Abb.1: In der Datei searches.ini wird die Bezeichnung für den Autor geändert. (Screenshot Youtbe Video)
  • Tag 7: Metadaten modellieren und Schnittstellen nutzen (2/2)

    OpenRefine Basisfunktionen

    In der siebten Vorlesung ging es um die Software OpenRefine. Dabei handelt es sich um eine grafische Oberfläche, mit der man Daten bereinigen und umwandeln kann. Die Software wird lokal auf dem Computer installiert und über den Browser bedient.

    Die Installation von OpenRefine wurde in der Vorlesung Schritt für Schritt vorgezeigt und erläutert. Diese Erläuterung hilft mir sehr fürs Verständnis.

    Wir schauen uns einige Basisfunktionen an, um die Software kennenzulernen. Daten können einfach über «create project» importiert werden. Für jeden importierten Datensatz wird automatisch ein neues Projekt erstellt.

    Den Begriff «Datenbereinigung» hatte ich schon oft gehört, aber mir nie genau überlegt, wie das eigentlich genau funktionierten könnte. Beim Ausprobieren von OpenRefine bekomme ich einen kleinen Einblick, wie das in der Praxis funktionieren könnte. Beispielsweise bedeutet Datenkonsistenz, dass Werte, die einer Spalte angehören alle der gleichen Logik folgen. So sollte in der Spalte language für alle englischen Publikationen «EN» angegeben sein. Wie in Abb.1 aber ersichtlich ist, zeigt die Textfacette der Spalte language für den Beispieldatensatz 871 Mal «EN» und 107 Mal «English». Wie in Abb. 2 ersichtlich wird, sind nach der Korrektur 978 Zeilen mit der Sprache «EN» vorhanden. Mit der Funktion der Textfacette ist also bereits eine sehr schnelle Datenbereinigung möglich.

    tag7

    Abb.1: Beispieldatensatz in OpenRefine

    tag7

    Abb.2: Beispieldatensatz in OpenRefine nach der Korrektur der Spalte language

    Eine weitere Möglichkeit, die OpenRefine bietet, ist, Zellen mit mehreren Werten aufzuteilen («Split multi-valued cells»). Wenn man dies beispielsweise mit der Spalte Autoren macht und die Regel angibt, dass Autoren mit | getrennt werden sollen (Abb.3), dann werden aus den 1001 Zeilen 4009 Zeilen, weil so viele neu Zeilen generiert werden, wie verschiedene Autorennamen vorkommen.

    tag-7-3

    Abb.3: Funktion «Split multi-valued cells».

    Eine sehr hilfreiche Funktion ist auch der Cluster Mechanismus, wobei ein Algorithmus den Datensatz durchsucht und vorschlägt, wo es sich um gleiche Bezeichnungen handeln könnte, die aber unterschiedlich eingegeben wurden. So könnte es sich Beispielsweise bei A. Khan Vakeel um den gleichen Autor handeln wie bei Vakeel A. Khan. Es wird dann auch gleich ein Vorschlag gemacht, wie der neue Zellenwert aussehen soll. Mit diesem Algorithmus sind Datenfehler einfach zu finden und zu korrigieren.

  • Tag 6: Metadaten modellieren und Schnittstellen nutzen (1/2)

    VuFindHarvest

    In der heutigen Vorlesung ging es darum, mit VuFindHarvest (ein OAI Harvester aus dem VuFind-Projekt) Metadaten, die über die OAI-PMH-Schnittstelle der bereits kennengelernten Systeme Koha und Archivesspace angeboten werden, zu «ernten». Dazu musste zuerst sichergestellt werden, dass die Schnittstellen von Koha und Archivesspace auch wirklich abrufbar sind. Wie erwartet lief Koha noch und Archivesspace musste im Terminal neu gestartet werden, da die Benutzeroberfläche nur läuft, wenn das Programm gleichzeitig im Terminal aktiv ist.

    Bei Koha hatte ich allerdings, wie andere anscheinend auch, das Problem, dass die Schnittstelle nicht funktionierte, die Einstellungen unter Administration aber nicht mehr aufrufbar waren. Da ich die Vorlesung nachgeschaut habe, konnte ich das Problem vorerst nicht lösen.

    Ich habe dann trotzdem weitergemacht mit der Installation von VuFindHarvest 4.1.0, was auch gut funktionierte. Das spezielle an VuFindHarvest ist, dass diese Software keine grafische Oberfläche hat und nur in der Kommandozeile funktioniert.

    Übung

    Die in den vorherigen Veranstaltungen eingespeisten Daten sollten in Koha im Marc21-XML Format und in Archivesspace im EAD Format abgerufen werden.

  • Übung OAI-PMH-Schnittstelle

    OAI-PMH-Schnittstellen

  • Tag 5: Repository-Software für Publikationen und Forschungsdaten

    Nachtrag Archivsysteme

    Die Vorlesung begann mit einem Nachtrag zu Funktion und Aufbau von Archivsystemen, dem Thema der letzten Vorlesung. Es wurde auch noch einmal aufgezeigt, was die Unterschiede zwischen Bibliotheks-und Archivsystemen sind. Dieser kurze Überblick fand ich sehr hilfreich, um die Unterschiede noch einmal direkt gegenübergestellt zu sehen.

  • Übung Import und Export

    Übung Import

    Die Datei American Association of Industrial Editors sollte als «raw xml file» heruntergeladen und dann als EAD-Datei ins ArchivesSpace importiert werden. Dies habe ich genau nach Anleitung ausgeführt. Beim ersten Mal hatte es geklappt mit dem hochladen, die Datei konnte aber nicht angezeigt werden. Beim erneuten Versuch, die Datei hochzuladen erhielt ich eine Fehlermeldung, dass die id_0 schon existiert, die ead_id aber einmalig sein muss (Abb.1)

    import-export3

    Abb.1: Fehlermeldung beim importieren der Datei weil diese schon vorhanden ist.
  • Tag 4: Funktion und Aufbau von Archivsystemen

    Gastreferat ALMA

    Ich freue mich sehr, dass das Gastreferat zu Alma zustande gekommen ist. Selbst habe ich einige Jahre mit Aleph, aber nie mit Alma gearbeitet, bin ich besonders gespannt auf das Referat.

    Auch über die Gründung der Swiss Library Service Plattform (SLPS) habe ich immer wieder mal etwas mitbekommen, mich aber nie genauer damit befasst. So wusste ich beispielsweise nicht, dass die SLSP eine AG ist.

    Alma ist ein cloudbasiertes Bibliothekssystem der Ex Libris Group. Besonders interesant finde ich, dass das System über einen Browser benutzt werden kann. Dies bietet im Arbeitsalltag sicher einige Vorteile. Ein anderer grosser Vorteil gegenüber dem Vorgängersystem Aleph sei das Unified ressource management system (URM). Im Gegensatz zu Aleph, das aus verschiedenen Systemen bestand, ist bei Alma alles zentral in einem System vereint. Auch sonst scheint Alma für mich Im Gegensatz zu Aleph benutzerfreundlicher. die Benutzeroberfläche viel besser gestaltet und auch die Usability scheint intuitiver zu sein. Da SLSP Rollenvorlagen mit Berechtigungen definiert hat, sieht man als Nutzer nur das, was man auch wirklich braucht. Dies erhöht meiner Meinung nach die Übersicht auch nochmals. Eine weitere Verbesserung sehe ich darin, dass SLPS die kleinen Verbünde wie NEBIS und IDS abgelöst hat. So wird auch der Datenaustausch einfacher, was sicher ein grosser Vorteil ist.

    Archivsysteme

    Im zweiten Teil der Vorlesung ging es dann um Archivsysteme. Im Archivbereich habe ich bisher, abgesehen von einigen theoretischen Inhalten aus dem Studium, gar keine Erfahrung. Ich erinnere mich an Begriffe wie ISAG (G), ISAAR (CPF) und Provenienz, kann diese aber nicht mehr genau einordnen. Das Handout zur Sitzung 5: Erschliessung aus dem Modul Grundlagen der Informationswissenschaft-Archivwissenschaft aus dem ersten Semester, bietet mir einen guten Überblick und erleichtert mir den Einstieg ins Thema.

    Am wichtigsten erscheinen mir die Unterschiede im Zweck von Bibliotheken und Archiven zu verstehen, um so auch den Aufbau der Archivsysteme besser zu verstehen. Im Gegensatz zu den Bibliotheken, wo die Nutzung der Medien im Vordergrund steht, geht es bei den Archiven um das Aufbewahren und Erhalten von meist einzigartigen Dokumenten. In den Archivsystemen geht es also darum, den Entstehungszusammenhang eines Dokuments in einer mehrstufigen Verzeichnung abzubilden (Provenienzprinzip). ISAD (G) diente dabei bei den meisten Archivsystemen als Grundlage. Metadatenstandards sind dabei ISAD (G) und EAD, wobei ISAD (G) hier das Regelwerk darstellt und EAD das Austauschformat.

    ArchivesSpace

    Das eigene Ausprobieren mit ArchivesSpace macht die Theorie für mich etwas fassbarer und so bleibt einem das gemachte auch besser in Erinnerung.

    ArchivesSpace, eine open-souce-software für Archivsysteme, war schnell installiert. Ich hatte jedoch immer wieder das Problem, dass die Verbindung unterbrochen wurde. Da die Server-Applikation für ArchivesSpace im Terminal läuft und im Browser nur darauf zugegriffen wird, versuchte ich daher den Befehl archivesspace/archivesspace.sh, um es neu zu starten, was auch jedes Mal funktionierte.

    Ich folge der aufgezeichneten Übung im Unterricht und löse die Übung parallel. Die Eingabemaske kennzeichnet die wenigen Pflichtfelder und mit der mouseover-text Funktion wird zu jedem Element noch eine genauere Beschreibung geliefert (Abb.1), ohne dass man in ein anderes Dokument wechseln und dort nachlesen muss.

    tag4

    Abb.1: Fährt man mit der Maus über eines der Elemente, wird eine genauere Beschreibung angezeigt

    Sehr hilfreiche fand ich auch die Darstellung der Collection im public interface (Abb.2). Der Vergleich der Katalogansicht mit den Informationen, die in die Maske eingegeben wurden, macht den Erschliessungsprozess für mich nochmals etwas fassbarer.

  • Tag 3: Funktion und Aufbau von Bibliothekssystemen (2/2)

    Koha

    Im zweiten Teil der Lehrveranstaltung Funktion und Aufbau von Bibliotheksystemen ging es um die praktische Anwendung eines Bibliotheksystems. Dazu sollten wir bereits als Hausaufgabe das Bibliothekssystem Koha auf der VM installieren.

    Koha ist eine webbasierte open-source-software, die vor allem in Schul-und öffentlichen Bibliotheken eingesetzt wird. Koha ist konfigurierbar und kann den eigenen Anforderungen angepasst werden.

    Die Installation hatte bei mir ohne Probleme geklappt, als ich mich dann wieder anmelden wollte, bekam auch ich eine Fehlermeldung. Da ich die Vorlesung diese Mal als Aufzeichnung geschaut hatte, stiess ich ganz am Anfang im gemeinsamen Dokument auf den Eintrag «Bekanntes Problem» und konnte die Lösung gleich ausprobieren. Ich gab den vorgegebenen Befehl sudo systemctl restart koha-common

    ins Terminal ein um Koha neu zu starten und danach funktionierte alles.

    Die Vorlesung als Aufzeichnung zu schauen, erwies sich als grosser Vorteil. Es entstanden keine Wartezeiten und bei den gemeinsam ausgeführten Übungen konnte die Aufzeichnung so oft gestoppt oder zurückgespult werden, dass die ganze Übung im eigenen Tempo gemacht werden konnte.

    Die Tutorials, um Koha einzurichten ( zefanjas.de: Koha einrichten), bieten eine sehr gute Schritt für Schritt Anleitung mit Erklärungen dazu. So waren die Grundinstallation und erste Einstellung schnell abgeschlossen. Ebenfalls einige hilfreiche Erläuterungen sind hier Zu finden.

    Da während dem Katalogisieren in Koha später keine Marc-Felder mehr hinzugefügt oder entfernt werden können, muss die Einstellung eines bibliographischen Frameworks vorher erfolgen. Es soll also ein Rahmen bzw. eine Vorgabe festgelegt werden, welche bibliographischen Angaben später im System erfasst werden sollen. Dieses Framework kann den eigenen Bedürfnissen angepasst werden. Beispielsweise können Titel, Autor und ISBN als Pflichtfelder deklariert werden. Sobald ein bibliographischer Datensatz steht, kann ein Exemplardatensatz angelegt werden, der Angaben zum physichen Exemplar enthält wie Signatur und Standort. Ein bibliographischer Datensatz kann dabei von mehreren Bibliotheken genutzt werden, während jedes Exemplar einen eigenen Exemplardatensatz braucht. Als ähnliches Beispiel zeigt Abb. 1 den bibliographischen Datensatz von «Grundlagen der physischen Geographie» wobei Angaben wie Titel, Autor und Erscheinungsjahr immer gleich bleiben, haben die verschiedenen Exemplare der UZH und der ZB verschiedenen Standorte und Signaturen, die als Exemplardatensätze erfasst wurden.

    recherchekatalog

  • Tag 2: Funktion und Aufbau von Bibliothekssystemen (1/2)

    Übung Pull Request

    Nach einer kurzen Wiederholung und Klärungen von Fragen aus der ersten Lehrveranstaltung startetet der Block Funktion und Aufbau von Bibliothekssystemen (1/2) mit einer Übung zur Versionskontrolle mit Git. Wie bereits in der ersten Lehrveranstaltung Technische Grundlagen gesehen, protokolliert Git alle Änderungen und macht es möglich, diese nachzuverfolgen.

  • Tag 1: Technische Grundlagen

    Organisatorisches und Leistungsnachweis

    In der ersten Veranstaltung des Moduls Bibliotheks-und Archivinformatik ging es vor allem darum, das Modul und seine Inhalte vorzustellen und organisatorisches zu klären. Zur Dokumentation der Inhalte wird ein «gemeinsames Dokument» verwendet. Dabei handelt es sich um eine HedgeDoc-Installation (ein kollaborativer, webbasierter Markdwon Editor), bei der ausgewählt werden kann, wer nur Leserechte und wer auch Bearbeitungsrechte haben soll (Quelle: wiki.softwareheritage.org.) In der Veranstaltung wurde es so gelöst, dass alle, die den Link kennen, das Dokument auch bearbeiten können, so dass gemeinsam an einem Thema gearbeitet werden kann bzw. die Studierenden die Antworten direkt ins gemeinsame Dokument schreiben können. Dies finde ich für das gemeinsame Arbeiten wie auch das spätere Aufrufen der Inhalte eine sehr gute Lösung.

    gemeinsames-Dokument

    Abb.1: was im Änderungsmodus geschrieben wird, wird im Lesemodus direkt angezeigt. (Screenshot gemeinsamens Dokument)
  • Einführungsartikel

    Wo bin ich gestartet?

subscribe via RSS