Merklisten exportieren / Exporter les listes de sélection || swissbib-info

Deutsche Version Version française

Merklisten exportieren

Da swissbib per Ende März 2021 eingestellt wird, stehen auch die in swissbib gespeicherten Merklisten nur noch bis zu diesem Zeitpunkt zur Verfügung. Um die gespeicherten Daten auch nach der Abschaltung von swissbib nutzen zu können, müssen sie exportiert werden.

Auf swissbib stehen dazu drei verschiedene Export-Optionen zur Verfügung:

  • BibTex: Der Export enthält ausgewählte Informationen und kann mit verschiedenen Literaturverwaltungsprogrammen genutzt werden. Falls Sie die Liste in Excel exportieren möchten, empfehlen wir den Export in BibTex. Anschliessend können Sie die Daten mit JabRef umwandeln.
  • EndNote/Citavi: Der Export enthält analog zu BibTex ausgewählte Informationen und ist für die Verwendung mit EndNote und Citavi aufbereitet.
  • MARC XML: Der Export enthält die komplette Beschreibung einer bibliographischen Ressource. Die Option steht nicht zur Verfügung, wenn gelöschte Aufnahmen auf der Merkliste enthalten sind.

Vorgehen für einen Export:

 


 

  1. Titel für den Export auswählen: Über "Alle auf dieser Seite auswählen" werden alle auf der Seite sichtbaren Titel exportiert. Bei Merklisten mit mehr als 50 Einträgen muss pro Seite ein Export durchgeführt werden. Alternativ können auch einzelne Titel angewählt und exportiert werden.
  2. Exportieren: Dabei kann die gewünschte Export-Option gewählt werden.

 

 

Exporter les listes de sélection

Comme swissbib cessera ses activités à fin mars 2021, les listes de sélection sauvegardées ne seront plus disponibles après cette date. Pour conserver les informations contenues dans ces listes de sélection, vous devez les exporter.

Il y 3 options d'export dans swissbib :

  • BibTex. L'export contient une sélections des informations présentes dans swissbib et peut être utilisé avec la plupart des logiciels de gestion de références bibliographiques. Si vous voulez exporter votre liste au format Excel, nous vous recommandons de faire un export en BibTex puis d'utiliser l'outil JabRef qui permet ensuite de transformer le BibTex en Excel.
  • EndNote/Citavi. L'export contient les mêmes informations que l'export BibTex et est spécialement approprié pour l'utilisation dans les logiciels EndNote et Citavi.
  • MARC XML. Cet export contient la totalité des informations présentes dans swissbib pour une ressource bibliographique. Cette option n'est pas disponible lorsque votre liste de sélection contient des notices qui ont été supprimées du catalogue swissbib par la suite.

Comment export les références : 

 

  1. Choisir les références à exporter ou sélectionner toutes les références à l'aide de la case à cocher idoine. Cette action doit être répétée pour chaque page si votre liste de sélection a plus de 50 références.
  2. Exporter en choisissant l'option d'export.

Zur Einstellung der swissbib Suchoberflächen // Fin d’activité des interfaces de recherche swissbib || swissbib-info

Deutsche Version Version française

Nach rund 12 Jahren schliessen sich die Tore der bekannten grünen, orangen und blauen Suchoberflächen von swissbib. Die letzte Datenverarbeitung durch swissbib erfolgt am 31.12.2020 (mit Ausnahme der Bibliotheksverbünde, die ihre primäre Suchoberfläche bereits am 7. Dezember zu SLSP wechseln). Bis zum Jahresende werden die Metadaten auch weiterhin zu WorldCat gepusht. Die Suchoberflächen swissbib grün und swissbib blau (jusbib) werden, jedoch ohne aktualisierte Metadaten, in der Übergangsphase noch bis zum 31. März 2021 aufrufbar sein. Bis zu diesem Tag stellen wir die Metadaten auch über unsere SRU Schnittstelle der Öffentlichkeit zur Verfügung. Die OAI-PMH Schnittstelle wird per 19. Februar abgeschaltet. Die Metadaten der Schweizer Bibliotheken werden künftig über die neuen Discoveries von SLSP (ab 7. Dezember 2020) und RERO21 (ab 12. Juli 2021) recherchierbar sein.

Wir bedanken uns an dieser Stelle sehr herzlich bei all unseren Kooperationspartnern und Freunden - bei swissuniversities, der Universitätsbibliothek Basel und allen Datengebern für ihre jahrelange finanzielle Unterstützung, bei verschiedenen Institutionen für die gemeinsamen Projekte und bei unseren früheren und aktuellen Teammitgliedern für deren tatkräftige Mitwirkung und Mitgestaltung der Vision von swissbib. Und natürlich auch bei unseren Partnern rund um die Suchoberflächen - beim swissbib-Beirat, dem Konsortium der Schweizer Hochschulbibliotheken, der AG swissbib Basel Bern und dem Verein Juristische Bibliotheken Schweiz VJBS bzw. eJustice.ch. Schliesslich wäre swissbib ohne die Unterstützung der IT Services der Universität Basel nicht so performant und nahezu unterbruchsfrei verfügbar gewesen, wie man es sich gewohnt war.

Wir werden aber nicht ganz verschwinden. Das über Jahre hinweg aufgebaute Wissen wird Eingang finden in neue Projekte - in die neue Memobase, in den Nachfolger des HAN-Katalogs namens swisscollections und in diverse weitere Projekte und Ideen rund um das Datenmanagement. Zugleich steht unser Fachwissen allen weiterhin zur Verfügung: Unsere Entwicklungen sind unter freier Lizenz auf GitLab und GitHub auffindbar. Und auch für Fragen, Austausch und die Entwicklung neuer Ideen sind wir stets offen. Unser bisheriger Projektblog wird zwar abgeschlossen, aber weiterhin zugänglich bleiben, neue Erkenntnisse rund um das Datenmanagement und aus diversen Projekten dazu werden wir wie bis anhin über verschiedene Kanäle teilen.

Wir freuen uns auf eine spannende Zukunft voller Innovationen und neuer Projekte.

Après 12 ans d'activité, les interfaces bien connues de swissbib.ch (swissbib vert), de baselbern.swissbib.ch (swissbib orange) et de jus.swissbib.ch (swissbib bleu) vont cesser d'offrir leurs prestations. Le dernier import des données des bibliothèques et leur traitement auront lieu le 31 décembre 2020 (à l'exception des réseaux de bibliothèques qui seront live avec SLSP le 7 décembre déjà). Jusqu'à la fin de cette année, les métadonnées des bibliothèques seront aussi envoyées à WorldCat. Toutefois, jusqu'au 31 mars 2021, il sera toujours possible de faire des recherches dans swissbib vert et swissbib bleu, mais les métadonnées ne seront plus actualisées. L'interface SRU sera aussi disponible jusqu'au 31 mars 2021. Quant à l'interface OAI-PMH, elle sera disponible seulement jusqu'au 19 février. Dans le futur, il sera possible de chercher dans les collections des bibliothèques suisses à travers les nouvelles interfaces de recherche de SLSP (dès le 7 décembre 2020) et de RERO21 (dès le 12 juillet 2021).

Nous profitons de l'occasion pour remercier du fond du cœur tous nos partenaires et amis, que ce soit swissuniversities, la Bibliothèque de l'Université de Bâle, ou tous les fournisseurs de données, pour leur soutien financier sur ces nombreuses années. Nous remercions aussi les différentes institutions avec lesquelles nous avons mené des projets communs ainsi que les membres de l'équipe pour leur engagement dynamique et leur participation active à la vision de swissbib. Sans oublier nos partenaires autour des interfaces de recherche : le comité consultatif de swissbib, le Consortium des bibliothèques universitaires suisses, le groupe de travail swissbib Basel Bern, l'Association des bibliothèques juridiques Suisses ABJS ainsi que eJustice.ch. Enfin, swissbib ne serait pas aussi disponible et performant sans le soutien des Services IT de l'Université de Bâle.

Nous n'allons toutefois pas complètement disparaître. L'expertise acquise durant ces années sert déjà aux nouveaux projets en cours : la nouvelle plateforme Memobase, le nouveau portail qui remplacera le catalogue HAN sous le nom de swisscollections et d'autres projets et idées autour de la gestion et du traitement des données des institutions culturelles. De plus, notre expertise reste à votre disposition : nos développements sont disponibles sous licence libre sur GitLab et GitHub et nous sommes prêts à mener votre prochain projet. N'hésitez pas à nous contacter. Quant à notre blog de projet, il va s'arrêter mais restera disponible en ligne. Restez y connectés pour découvrir la suite de nos projets et nos différentes expériences autour de la gestion des données.

Nous nous réjouissons d'un futur palpitant et rempli d'innovations et de nouveaux projets.

Years of experience in the preparation and processing of metadata meets methods of Machine Learning || swissbib-info

Deutsche Version english version

Jahrelange Erfahrung in der Aufbereitung und Verarbeitung von Metadaten trifft auf Maschinelles Lernen

Seit gefühlt zwei, drei Jahren lassen sich kaum mehr Artikel zum Thema Daten und Informationen finden, in denen nicht mindestens einmal Begriffe wie "Maschinelles Lernen", "Künstliche Intelligenz" (KI) oder "Neuronale Netze" erwähnt und als das Erfolgsrezept für die Zukunft beschrieben werden. Sollte damit das, was wir in den letzten 12 Jahren gemacht haben, veraltet und nicht mehr relevant sein? Das swissbib Team ist ja nicht dafür bekannt, sich vor neuen Softwaretechnologien zu scheuen. Wir schauen schon seit je her regelmässig über den Tellerrand um mitzubekommen, ob sich neue Methoden nicht mit unseren klassischen Methoden verbinden lassen. Das Problem dabei: Bevor man aus der Menge des Möglichen etwas Vielversprechendes wählen, ausprobieren und dann vielleicht produktiv einsetzen kann, muss man sich erstmal durch die Grundlagen und Begrifflichkeiten des neuen Themengebiets kämpfen. Nicht so einfach für ein swissbib Team, dass mit Personen nicht üppig ausgestattet ist und den Laden (sprich die "grünen, orangenen oder wie auch immer farbigen Services") am Laufen halten muss.

Helfen kann in so einer Situation manchmal Begeisterung für die Sache, Offenheit (auch von Software) und ein Netz von Personen von ausserhalb unseres Bibliothekskuchens, die man neugierig auf coole Projekte mit unseren Daten machen kann. So geschehen mit Andreas Jud, ein swissbib-Freund, der sich in einer Weiterbildung an der EPF Lausanne mit Methoden des maschinellen Lernens beschäftigt hat. Im Rahmen seines Abschlussprojekts hat er untersucht, welche der zahlreichen Methoden sich für das Clustern von bibliographischen Metadaten einsetzen lassen. In dieser Blog-Serie wird er in die ausgewählten Methoden und Ergebnisse einführen. Die komplette Projektarbeit ist als eine Serie von Jupyter Notebooks frei verfügbar.

Im swissbib Projekt ist die Essenz all unserer Aktivitäten der Umgang mit und die Aufbereitung von (Meta-) Daten. Normalisieren, Anreichern, Zusammenführen  (Clustern) sowie Verknüpfen von Informationen und dies alles auf maschineller Basis ist die Grundlage dafür, dass wir Services wie verschiedene Discoveries, unterschiedliche Schnittstellen oder Dienstleistungen für Dritte anbieten können. Vor allem für das maschinelle Clustern von Daten nutzen wir die (kommerzielle) Software eines Partners, die es uns flexibel ermöglicht, Daten so aufzubereiten, dass man sie für die unterschiedlichen Services einsetzen kann. Dies war über die Jahre kein einmaliger Vorgang mit einem statischen Resultat sondern ein iterativer Prozess, in denen sowohl wir (in den letzten Jahren vor allem unsere Kollegin Silvia Witzig) von der Nutzerinnenseite als auch unser Partner gegenseitig Wissen in den Prozess zur Verbesserung der Datenaufbereitung einbrachten. Die Aktivitäten zur Datenaufbereitung bleiben zentral für die Qualität der Dienstleistungen, die swissbib erbringt.

Maschinelles Lernen basiert auf Daten. Daten von swissbib sind daher die Basis der Abschlussarbeit von Andreas an der EPFL. Mit den Daten, die Andreas in ihrer Rohform vom swissbib Team erhalten hat, lassen sich Ergebniscluster von überzeugender Qualität ermitteln. Dies sei an dieser Stelle bereits vorweggenommen. Nach Abschluss der Arbeit bleiben aber Bereiche, an denen gearbeitet werden muss, um die Resultate in einen produktiven Betrieb zu überführen.
  • Die Projektarbeit von Andreas hatte ihren Schwerpunkt im Gegenüberstellen unterschiedlicher Methoden des maschinellen Lernens. Fragen zur Skalierung der Datenmengen (wie wir sie im swissbib Projekt mit 45 Millionen Aufnahmen bewältigen müssen) konnten nicht berücksichtigt werden. Dieser offene Punkt muss noch angegangen werden. Die Bildung von sogenannten pre-cluster auf der inhaltlichen sowie der Einsatz von Frameworks zur verteilten Verarbeitung wie Apache Flink auf der technischen Ebene sind hier vielversprechende Ansätze.
  • Auch wenn die Ergebnisse der Abschlussarbeit vielversprechend und die Möglichkeiten moderner offener Software noch so cool sind, bleibt der alte Spruch "garbage in, garbage out". Modelle des maschinellen Lernens müssen trainiert werden und die in die Modelle einfliessenden Daten von möglichst guter Qualität sein. Für diesen Prozess braucht es sowohl Menschen, die sich mit Daten, deren Formaten aber auch deren Inhalten auskennen, wie auch Personen auf der Softwareseite. Mit unseren swissbib Erfahrungen bringen wir Know-How auf beiden Seiten ein und werden auch versuchen, in den anstehenden Monaten unsere Expertise, die wir mit unserer produktiven Komponente gesammelt haben und die uns nach wie vor hervorragende Ergebnisse liefert, noch besser zu dokumentieren. Damit erhoffen wir uns, Wissen zu erhalten als auch weiterzugeben. Zudem möchten wir dieses Wissen natürlich in verschiedenen Verfahren, wie zum Beispiel Maschinelles Lernen, einsetzen können und dadurch auch die Chance für Bibliotheken zur Weiterentwicklung nutzen.
  • Die Rohdaten, welche für das Trainieren von Maschinen verwendet wurden, haben noch nicht die Ausprägung und Qualität, wie wir sie in Jahren auf unserer produktiven Maschine aufbauen konnten. Ein nächster Schritt muss darin bestehen, auf unseren Swissbib-Datenstandard aufzusetzen.
  • Als Freizeitprojekt gestartet, bieten die erarbeiteten Resultate Einstiegsmöglichkeiten für Personen mit unterschiedlichem Hintergrund. Es war erfreulich zu beobachten, wie Andreas als promovierter Physiker mit Interesse und Ausdauer die MARC-Regeln der LOC studiert und den Input aus unserem swissbib Team für sein Arbeit aufgenommen hat. Das nun vorliegende Ergebnis, wie maschinelles Lernen auf den Bereich der Aggregation von bibliographischen Metadaten (Clustern) angewendet werden kann, bietet die Möglichkeit, die Magie besser zu fassen, die mit maschinellem Lernen und KI einhergeht. Dies auch für Menschen mit einem informationswissenschaftlichen und weniger technischen Hintergrund.
Wir freuen uns, wenn Sie unsere Blogserie zum Thema Deduplizierung von bibliographischen Daten mit Methoden des Maschinellen Lernens mitverfolgen. Noch mehr freut uns die aktive Teilnahme am Themengebiet und der Diskussion darüber.

Unter diesen links erhalten Sie den Zugriff auf die einzelnen Teile der dreiteilgen Blogserie, in der die verschiedenen Methoden sowie ihre Ergebnisse bewertet und gegenübergestellt werden:
  • Teil 1
  • Teil 2 (folgt bald)
  • Teil 3 (folgt bald)
Eine Anekdote zum Abschluss. Bei der Verteidigung des Projekts an der EPFL sass Andreas Prüfern gegenüber, die äusserten, dass er mit einem "grossartigen Datensatz" gearbeitet hat. Das hat selbstverständlich auch uns gefreut. Vielleicht ist dies aber auch ein Satz, der zum Nachdenken darüber anregt, ob unsere Daten nicht mehr verdient haben, als nur in ein Bibliothekssystem mit relationalem Datenbanksystem gesteckt zu werden.


For what feels like two or three years now, it has been almost impossible to find articles on the subject of data and information in which terms such as "Machine Learning", "Artificial Intelligence" (AI) or "Neural Networks" are not mentioned at least once and described as the recipe for success for the future. Should this mean that what we have been doing over the last 12 years is outdated and no longer relevant? The swissbib team is not known to shy away from new software technologies. We have always thought outside the box to see if new methods can be combined with our classic methods. The problem with this is that before you can choose, try out and perhaps productively use something promising from the multitude of possible options, you first have to fight your way through the basics and terminology of the new topic. Not so easy for a swissbib team that is not lavishly staffed with people and has to keep the shop (i.e. the "green, orange or whatever colored services") running.

In such a situation, sometimes enthusiasm for the subject, openness (also about software) and a network of people from outside our library organisations who can be made curious about cool projects with our data can help. This is what happened to Andreas Jud, a swissbib friend who studied Machine Learning methods in a continuing education course at EPF Lausanne. As part of his final project, he investigated which of the numerous methods can be used for clustering bibliographic metadata. On this blog series he will introduce the selected methods and results. The complete project work is freely available as a series of Jupyter notebooks.

In the swissbib project, the essence of all our activities is the handling and processing of (meta-) data. Normalizing, enriching, clustering (merging) as well as linking of information and all this on a machine basis is the foundation for our ability to offer services such as different discoveries, different APIs or services for third parties. Especially for the machine clustering of data we use the (commercial) software of a partner, which enables us to prepare data in a flexible way so that it can be used for different purposes. Over the years, this has not been a one-off process with a static result, but an iterative process in which we (in recent years especially our colleague Silvia Witzig) from the user side and our partner contributed mutual knowledge to the process of improving data preparation. Data preparation activities remain central to the quality of the services provided by swissbib.

Machine learning is based on data. Data from swissbib is therefore the foundation of Andreas' thesis at EPFL. With the data Andreas received in its raw form from the swissbib team, the resulting clusters are already of convincing quality. This is already anticipated at this point. After completion of the work, however, there are still areas that need to be worked on in order to transfer the results into a productive operation.
  • The project work of Andreas focused on the comparison of different methods of machine learning. Questions concerning the scaling of data volumes (as we have to cope with in the swissbib project with 45 million recordings) could not be considered. This open point still needs to be addressed. The formation of so-called pre-clusters on the content level and the use of frameworks for distributed processing such as Apache Flink on the technical level are promising approaches here.
  • Even if the results of the thesis are promising and the possibilities of modern open software are still cool, the old saying "garbage in, garbage out" remains. Machine learning models must be trained and the data used in the models must be of the best possible quality.  This process requires both people who are familiar with data, its formats and contents, and people on the software side. With our swissbib experience, we are contributing know-how on both sides, and in the coming months we will also try to document even better the expertise we have gained with our productive component, which continues to deliver excellent results. In this way, we hope to preserve and pass on knowledge. In addition, we would of course like to be able to use this knowledge in various processes, such as machine learning, and thus also take advantage of the opportunity for libraries to develop further.
  • The raw data, which were used for the training of machines, do not yet have the characteristics and quality as we could build them up in years on our productive machine. The next step must be to build on our swissbib data standard.
  • Launched as a leisure project, the results obtained offer entry opportunities for people with different backgrounds. It was gratifying to observe how Andreas, who holds a doctorate in physics, studied the MARC rules of the LOC with interest and perseverance and took up the input from our swissbib team for his work. The result now available on how machine learning can be applied to the field of aggregation of bibliographic metadata (clusters) offers the opportunity to better grasp the magic that goes along with machine learning and AI. This also applies to people with an information science and less technical background.
We would be pleased if you follow our blog series on the topic of deduplication of bibliographic data using machine learning methods. We are even more pleased about the active participation in and discussion of the topic.

Under these links you can access the individual parts of the three-part blog series, in which the different methods and their results are evaluated and compared:
  • Part 1
  • Part 2 (coming soon)
  • Part 3 (coming soon)
A closing anecdote. While defending the project at the EPFL, Andreas sat across from examiners who said that he had worked with a "great data set". Of course, we were pleased about that, too. But perhaps this is also a sentence that makes you think about whether our data didn't deserve more than just being put into a library system with a relational database system.